JP2009169845A - Autonomous mobile robot and map update method - Google Patents
Autonomous mobile robot and map update method Download PDFInfo
- Publication number
- JP2009169845A JP2009169845A JP2008009520A JP2008009520A JP2009169845A JP 2009169845 A JP2009169845 A JP 2009169845A JP 2008009520 A JP2008009520 A JP 2008009520A JP 2008009520 A JP2008009520 A JP 2008009520A JP 2009169845 A JP2009169845 A JP 2009169845A
- Authority
- JP
- Japan
- Prior art keywords
- map
- update
- captured image
- updated
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000007613 environmental effect Effects 0.000 claims abstract description 40
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 description 21
- 230000000007 visual effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、自律移動ロボットに関し、特に自律移動ロボットに参照される環境地図の更新方法に関する。 The present invention relates to an autonomous mobile robot, and more particularly to a method for updating an environmental map referred to by an autonomous mobile robot.
自律移動ロボット(以下、単に移動ロボットと呼ぶ)は、環境地図を参照することによって移動経路を計画し、当該移動経路に従って移動を行う。環境地図は、例えば、移動ロボットが移動を行う二次元の移動空間を格子状に分割し、格子に囲まれた各々のセルが移動可能なであるか否かを表したグリッド地図として作成される。 An autonomous mobile robot (hereinafter simply referred to as a mobile robot) plans a movement route by referring to an environment map, and moves according to the movement route. The environment map is created, for example, as a grid map that divides a two-dimensional movement space in which the mobile robot moves into a grid, and indicates whether each cell surrounded by the grid is movable. .
環境地図の作成は、例えば、視覚センサを搭載した移動ロボット自身によって行なわれる。具体的には、移動ロボットに搭載された視覚センサを用いて、移動ロボット自身が移動空間内を移動しながら外部環境を計測し、移動ロボットの移動量及び視覚センサによる計測データを用いて環境地図を生成する。移動ロボットの自己位置推定と環境地図の構築を同時に行なう技術は、SLAM(Simultaneous Localization and Mapping)と呼ばれる。移動ロボットは、移動空間の変化に対応するために、例えば定期的に新たな環境地図の生成を行い、新たに生成された環境地図により古い環境地図を更新する。なお、環境地図は、外部から移動ロボットに供給され、環境地図の更新のみを移動ロボットが行なう場合もある。 The environmental map is created, for example, by the mobile robot itself equipped with a visual sensor. Specifically, using the visual sensor mounted on the mobile robot, the mobile robot itself measures the external environment while moving in the mobile space, and uses the movement amount of the mobile robot and the measurement data from the visual sensor to map the environment. Is generated. A technique for simultaneously estimating the position of a mobile robot and constructing an environment map is called SLAM (Simultaneous Localization and Mapping). In order to respond to changes in the moving space, the mobile robot periodically generates a new environment map, for example, and updates the old environment map with the newly generated environment map. The environment map may be supplied to the mobile robot from the outside, and the mobile robot may only update the environment map.
ところで、特許文献1及び2には、自動車、船舶等の航行経路を人に提示するために地図表示を行なうナビゲーションシステムが開示されている。特許文献1及び2に開示されたナビゲーションシステムは、地図の自動更新を行なう機能を有し、さらに、地図の更新後に、更新前の旧地図と更新後の新地図との差分箇所、すなわち更新箇所を強調表示して人に知らせるものである。
上述したように環境地図を自動的に更新することができる移動ロボットは古くから研究されている。しかしながら、外部環境の誤認識が少なく精度の高い環境地図を安定的に生成することは未だ困難である。このため、誤認識を含む精度の低い地図が新しい環境地図として更新されてしまうという問題がある。例えば、環境地図の作成時に、一時的に移動空間内に存在する人物などの障害物(以下、移動障害物と呼ぶ)を認識してしまうことにより、移動障害物が位置していた領域が移動不可能な障害物領域として新たな環境地図に含まれてしまう。このような精度の低い環境地図に基づいて移動経路の計画を行なうと、最適な移動経路を得られない等の弊害を生じるおそれがある。 As described above, mobile robots that can automatically update the environment map have been studied for a long time. However, it is still difficult to stably generate a highly accurate environmental map with few misrecognitions of the external environment. For this reason, there is a problem that a map with low accuracy including erroneous recognition is updated as a new environment map. For example, when creating an environmental map, the area where the moving obstacle was located moves by recognizing an obstacle such as a person temporarily present in the moving space (hereinafter referred to as a moving obstacle). It will be included in the new environmental map as an impossible obstacle area. If a travel route is planned based on such a low-accuracy environmental map, there is a risk that an adverse effect such as an inability to obtain an optimum travel route will occur.
なお、特許文献1及び2に開示された技術は、更新後の地図を表示する際に更新箇所を強調表示する等して人に知らせるのみである。このため、誤認識を含む精度の低い地図によって旧環境地図が更新されてしまう上記の問題を解決できるものではない。
Note that the techniques disclosed in
本発明は上述した知見に基づいてなされたものであって、本発明の目的は、誤認識を含む精度の低い地図によって環境地図が更新されることを防止可能な自律移動ロボット及び地図更新方法を提供することである。 The present invention has been made on the basis of the above-described knowledge, and an object of the present invention is to provide an autonomous mobile robot and a map updating method capable of preventing an environmental map from being updated by a map with low accuracy including erroneous recognition. Is to provide.
本発明の第1の態様は、移動空間内を自律移動するとともに、前記移動空間に関する環境地図を更新する機能を有する自律移動ロボットである。当該移動ロボットは、更新箇所判定部、画像表示部、採否指示入力部、及び地図更新部を備える。前記更新箇所判定部は、新環境地図と旧環境地図とを比較して更新箇所を判定する。前記画像表示部は、前記更新箇所に対応する前記移動空間内の地点が撮影された撮影画像を表示する。前記採否指示入力部は、オペレータによる前記更新箇所の採否指示を入力する。また、前記地図更新部は、前記採否指示に従って前記更新箇所が採用又は棄却された更新後の環境地図を生成する。 A first aspect of the present invention is an autonomous mobile robot having a function of autonomously moving in a moving space and updating an environmental map related to the moving space. The mobile robot includes an update location determination unit, an image display unit, an acceptance / rejection instruction input unit, and a map update unit. The update location determination unit compares the new environment map and the old environment map to determine an update location. The said image display part displays the picked-up image by which the point in the said movement space corresponding to the said update location was image | photographed. The acceptance / rejection instruction input unit inputs an acceptance / rejection instruction for the updated portion by an operator. The map update unit generates an updated environment map in which the update location is adopted or rejected according to the acceptance / rejection instruction.
本発明の第2の態様にかかる地図更新方法は、移動空間内を自律移動する自律移動ロボットにおける前記移動空間に関する環境地図の更新方法である。当該方法は、以下のステップ(a)〜(d)を含む。
新環境地図と旧環境地図とを比較して更新箇所を判定するステップ(a)、
前記更新箇所に対応する前記移動空間内の地点が撮影された撮影画像を表示するステップ(b)、
オペレータによる前記更新箇所の採否指示を入力するステップ(c)、及び
前記採否指示に従って前記更新箇所が採用又は棄却された更新後の環境地図を生成するステップ(d)。
The map update method according to the second aspect of the present invention is an update method of an environmental map related to the moving space in an autonomous mobile robot that autonomously moves in the moving space. The method includes the following steps (a) to (d).
A step (a) of comparing the new environment map with the old environment map to determine an update location;
A step (b) of displaying a photographed image obtained by photographing a point in the moving space corresponding to the update location;
A step (c) of inputting an acceptance / rejection instruction of the updated portion by an operator, and a step (d) of generating an updated environmental map in which the updated portion is adopted or rejected in accordance with the acceptance / rejection instruction.
上述した本発明の第1及び第2の態様によれば、例えば、新環境地図の作成の際に一時的に移動空間内に存在していた人物を障害物として誤認識したために、人物が存在していた空間が障害物領域として新環境地図に含まれていた場合であっても、人物が写っている撮影画像をオペレータに提示でき、オペレータに誤認識に基づく更新箇所であるか否かを適確に判断させることができる。そして、撮影画像を閲覧したオペレータの採否判断に基づいて更新箇所が採用又は棄却された更新後の環境地図を生成するため、人物等の移動障害物が更新後の環境地図に障害物領域として登録されてしまうことを防止できる。 According to the first and second aspects of the present invention described above, for example, a person exists because a person who was temporarily present in the moving space at the time of creating the new environment map was erroneously recognized as an obstacle. Even if the space that has been included is included in the new environment map as an obstacle area, it is possible to present the photographed image showing the person to the operator, and whether the operator is an update location based on misrecognition It is possible to make an appropriate judgment. Then, in order to generate an updated environmental map in which the updated part is adopted or rejected based on the acceptance decision of the operator who has viewed the captured image, a moving obstacle such as a person is registered as an obstacle area in the updated environmental map Can be prevented.
なお、上述した本発明の第1の態様にかかる自律移動ロボットは、撮影部、自己位置推定部、記憶部及び表示画像決定部をさらに備えてもよい。ここで、前記撮影部は、前記撮影画像を取得する。前記自己位置推定部は、当該自律移動ロボットの自己位置を推定する。前記記憶部は、前記撮影画像及び前記撮影画像の取得がなされた前記自己位置を示す位置情報を記憶する。前記表示画像決定部は、前記更新箇所に対応する前記移動空間内の地点が撮影された前記撮影画像を前記位置情報に基づいて決定し、決定した撮影画像を前記画像表示部に表示させる。このような構成により、自律移動ロボット自身が、更新箇所に関する撮影画像の生成及び記憶を行なうことができる。 The autonomous mobile robot according to the first aspect of the present invention described above may further include a photographing unit, a self-position estimating unit, a storage unit, and a display image determining unit. Here, the imaging unit acquires the captured image. The self-position estimation unit estimates the self-position of the autonomous mobile robot. The said memory | storage part memorize | stores the positional information which shows the said self-position where the acquisition of the said picked-up image and the said picked-up image was made | formed. The display image determination unit determines, based on the position information, the captured image in which a point in the movement space corresponding to the update location is captured, and causes the image display unit to display the determined captured image. With such a configuration, the autonomous mobile robot itself can generate and store a captured image related to the updated location.
また、上述した本発明の第1の態様にかかる自律移動ロボットは、前記画像表示部による前記撮影画像の表示に連動して前記更新箇所を表示する地図表示部をさらに備えてもよい。このような構成により、更新箇所の位置と撮影画像とを関連付けてオペレータに提示でき、オペレータの採否判断を一層支援できる。 The autonomous mobile robot according to the first aspect of the present invention described above may further include a map display unit that displays the updated location in conjunction with the display of the captured image by the image display unit. With such a configuration, the position of the update location and the captured image can be associated with each other and presented to the operator, and the operator's acceptance decision can be further supported.
本発明により、誤認識を含む精度の低い地図によって環境地図が更新されることを防止可能な自律移動ロボット及び地図更新方法を提供できる。 According to the present invention, it is possible to provide an autonomous mobile robot and a map update method capable of preventing an environmental map from being updated by a map with low accuracy including erroneous recognition.
以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted as necessary for the sake of clarity.
<発明の実施の形態1>
本実施の形態にかかる自律移動ロボット1(以下、単にロボット1と呼ぶ)の自律移動に関する制御系の構成を図1に示す。図1において、視覚センサ11は、ロボット1の外界の距離画像データを取得する。具体的には、レーザレンジファインダ等のアクティブ距離センサによって距離画像データを取得すればよい。なお、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えた複数のカメラを備え、これら複数のカメラによって撮影した画像データを用いて距離画像データを生成してもよい。具体的には、複数のカメラによって撮影した画像データから対応点を検出し、ステレオ視によって対応点の3次元位置を復元すればよい。ここで、複数の撮影画像における対応点の探索は、複数の撮影画像に対する時空間微分の拘束式を用いた勾配法や相関法等の公知の手法を適用して行えばよい。
<
FIG. 1 shows the configuration of a control system related to autonomous movement of an autonomous mobile robot 1 (hereinafter simply referred to as robot 1) according to the present embodiment. In FIG. 1, the
環境地図生成部12は、距離画像データを用いて、ロボット1が移動を行なう移動空間に関する環境地図を生成する。以下の説明では、環境地図が、移動空間を二次元格子状に分割したグリッド地図であるとして説明する。グリッド地図として作成された環境地図を構成する各セルは、少なくともロボット1が移動可能であるか否かを示す値を保持する。以下では、ロボット1が移動可能なセルを「移動可能セル」と呼び、移動不可能なセルを「壁セル」と呼ぶ。なお、移動不可能なセルをさらに分類してもよく、例えば、ロボット1が位置する場所から見て障害物を介して向こう側に位置し、未観測であるために移動不可能であるセルを「未知セル」として、観測済みの「壁セル」と分類してもよい。
The environment
ロボット1により作成される環境地図の一例を図2に示す。図2の環境地図130は、縦12ピクセル×横16ピクセルのグリッド地図である。図2において、セル1300を含む白抜きのセルは「移動可能セル」を示し、セル1301を含む斜線でハッチングされたセルは「壁セル」を示している。環境地図130の各セルが、「移動可能セル」であるか「壁セル」であるかは、例えば、1ビットの値により識別すればよい。具体的には、セルの値が0のとき「移動可能セル」を示し、1のとき「壁セル」を示すこととすればよい。
An example of the environment map created by the
環境地図生成部12による環境地図の生成は、例えば、視覚センサ11の計測から得られる距離画像データと、後述するエンコーダ144により取得されるオドメトリ情報を入力として、例えば、スキャンマッチング又は確率推定手法などの公知の手法を用いて行なえばよい。
For example, the environmental
環境地図データベース13は、環境地図データを格納するデータベースである。図1の例では、環境地図データベース13は、旧環境地図130、新環境地図131、及び更新後の環境地図132を格納する。旧環境地図130は、古い環境地図である。新環境地図131は、環境地図生成部12によって新たに生成された環境地図である。また、更新後の環境地図132は、旧環境地図130と新環境地図131の間の複数の更新箇所から移動障害物の誤認識などに起因する更新箇所を除外することによって、新環境地図131に含まれる有意な更新箇所のみが選択的に反映された環境地図である。
The environmental map database 13 is a database that stores environmental map data. In the example of FIG. 1, the environment map database 13 stores an
なお、図1では、旧環境地図130、新環境地図131及び更新後の環境地図132が、環境地図データベース13内に同時に格納されているように図示しているが、これは説明のために便宜的に示しているに過ぎない。例えば、旧環境地図130及び新環境地図131は、更新後の環境地図132の生成後に削除されてもよい。新たに新環境地図131の生成が行われた場合には、それまで更新後の環境地図132としてロボット1の自律移動制御に利用されてきた環境地図を、旧環境地図130とすればよい。
In FIG. 1, the
自律移動部14は、環境地図データベース13に格納された更新後の環境地図132を参照し、自律移動制御を実行する。図3は、ロボット1を車輪走行型とした場合の自律移動部14の一例を示すブロック図である。なお、ロボット1が脚歩行型などの車輪走行型以外の移動ロボットであってもよいことは勿論である。
The autonomous
図3において、動作計画部140は、更新後の環境地図132、視覚センサ11によって取得された外界情報などに基づいて、ロボット1の動作内容を決定する。より具体的に延べると、動作計画部140は、ロボット1の移動経路、目標移動速度、目標加速度、及びロボット1が備える関節(不図示)の目標角度軌道などを生成する。
In FIG. 3, the
動作制御部141は、動作計画部140により決定された目標移動速度又は目標加速度などの制御目標値と、エンコーダ144によって計測される車輪143の回転量を入力してフィードバック制御を実行し、車輪143を回転駆動するためのトルク制御値を算出する。動作制御部141によって算出されたトルク制御値に従って駆動部142が車輪143を駆動することにより、ロボット1の移動が行なわれる。
The
図1に戻って説明を続ける。撮影部15は、ロボット1の周囲の外部環境を撮影し、撮影画像170を取得する。例えば、撮影部15は、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えた1台又は複数台のデジタルカメラとすればよい。また、撮影部15は、ロボット1の周囲360度を撮影可能な全方位カメラとしてもよい。
Returning to FIG. 1, the description will be continued. The
自己位置推定部16は、ロボット1の自己位置、即ち移動空間内におけるロボット1の絶対位置を算出する。自己位置推定部16は、エンコーダ144により取得されるオドメトリから自己位置を推定するとともに、視覚センサ11によって得られた距離画像データと旧環境地図130とのマッチングによってオドメトリの累積誤差を補正し、自己位置をトラッキングするとよい。撮影部15による撮影画像170の取得に合わせて自己位置推定部16がロボット1の自己位置を算出することにより、撮影画像170の取得が行なわれた撮影位置が得られる。なお、ロボット1の自己位置には、二次元床面上におけるロボット1の位置を示す二次元座標Xs及びYsと、ロボット1の向きを示す姿勢角θsを含めるとよい。姿勢角θsを含めるのは、撮影部15による撮影方向を特定するためである。
The self-
撮影画像記憶部17は、撮影画像170と撮影時のロボット1の自己位置を示す撮影位置情報171を格納する。例えば、撮影画像記憶部17は、撮影画像170に関連付けられたメタデータとして撮影位置情報171を保持してもよい。また、撮影画像記憶部17は、撮影画像170と撮影位置情報171に共通の識別子(シーケンス番号、撮影時刻情報等)を付与し、この識別子によって撮影画像170と撮影位置情報171の対応付けを行なえるように保持してもよい。また、撮影画像記憶部17には、DRAM、フラッシュメモリ若しくは磁気ディスク又はこれらの組み合わせ等の任意のデータ記録媒体を利用可能である。
The photographed image storage unit 17 stores a photographed image 170 and photographing
更新箇所判定部18は、旧環境地図130と新環境地図131との差分に基づいて、新環境地図131における旧環境地図130からの更新箇所を判定する。以下では、更新箇所の判定手順の具体例について、図4を用いて説明する。図4の上段部分の2枚の地図は、旧環境地図130及び新環境地図131の一例を示している。ここで、右下がり斜線でハッチングされたセルは「壁セル」であり、その他の白抜きセルは「移動可能セル」である。
The update
更新箇所判定部18は、これら旧環境地図130及び新環境地図131の差分箇所を算出する。図4の中段の地図41は、更新箇所判定部18により算出された差分箇所411〜413を示している。このうち、差分箇所411及び413は、新環境地図131において新たに登録された壁セルに起因する差分である。このような差分は、家具等の新たな障害物が移動空間内に設置された場合や、人物等の移動障害物が存在している場合に出現する。一方、差分箇所412は、旧環境地図130に存在していた壁セルが新環境地図131において消去されたことに起因する差分である。このような差分は、移動空間内に設置されていた家具等の障害物が移動空間から取り去られた場合に現れる。
The update
なお、視覚センサ11により得られる距離画像データ及びエンコーダ情報の積算により得られるオドメトリは、共に誤差を含む。このため、更新箇所判定部18は、図4の中段に示す差分箇所の中から、これらの誤差に起因すると考えられる差分箇所を除いた残りの箇所を更新箇所に決定するとよい。例えば、差分箇所の大きさ(隣接するセル数)に閾値を設定しておき、当該閾値に満たない小さな差分箇所を更新箇所から除外するとよい。具体例を示すと、更新箇所の大きさの下限閾値を3セルとし、大きさが下限閾値に満たない差分箇所を更新箇所から除外すればよい。図4の下段の地図42は、更新箇所判定部18により算出された更新箇所421及び423を示している。地図42では、セル数が1である差分箇所412が削除されている。
The odometry obtained by integrating the distance image data obtained by the
表示画像決定部19は、撮影画像記憶部17に記憶された複数の撮影画像170の中から更新箇所の地点が撮影された撮影画像を選択し、後述する画像表示部20に表示させる。表示画像決定部19による撮影画像選択の具体的手順については後述する。
The display
画像表示部20は、表示画像決定部19により選択された撮影画像を表示する。画像表示部20には、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)ディスプレイ等の任意の画像表示装置が使用可能である。
The
地図表示部21は、更新箇所判定部18により判定された更新箇所を表示する。地図表示部21は、図4の下段の地図42のように、旧環境地図130及び新環境地図131に対応した地図形式で更新箇所を表示するとよい。画像表示部20と同様に、地図表示部21にもLCD、CRTディスプレイ等の任意の画像表示装置が使用可能である。また、地図表示部21は、上述した画像表示部20と共通の画像表示装置としてもよい。また、共通の画像表示装置の表示画面を分割することによって、更新箇所を示す地図と撮影画像とを同時に表示してもよい。
The
採否指示入力部22は、オペレータによる更新箇所を採用するか否かを示す採否指示の入力を受け付ける。採否指示入力部22は、マウス、タブレットペン、タッチパネル等の入力デバイスを用いて構成すればよい。
The acceptance / rejection
地図更新部23は、オペレータの採否指示に応じて更新箇所の採否を決定し、オペレータにより採用された更新箇所を旧環境地図130に反映するとともに、オペレータにより棄却された更新箇所を除外することによって、自律移動部14による自律移動制御に使用される更新後の環境地図132を生成する。
The
上述したように、本実施の形態にかかるロボット1は、更新箇所に対応する地点が撮影された撮影画像を表示してオペレータに提示すること、オペレータによる更新箇所の採否指示に従って更新箇所が反映又は棄却された更新後の環境地図132を生成することを特徴としている。以下では、図5のフローチャートを参照して、新環境地図の生成から環境地図の更新までの処理手順を改めて説明する。加えて、図6のフローチャートを参照して、表示画像決定部19による撮影画像の選択手順を詳細に説明する。
As described above, the
図5のステップS11では、環境地図生成部12が新環境地図131を生成する。ステップS12では、撮影部15が撮影画像170を取得する。取得された撮影画像170は、撮影時のロボット1の自己位置を示す撮影位置情報171とともに、撮影画像記憶部17に保存される。なお、図5におけるステップS11とS12の順序は、説明のための便宜的なものである。つまり、撮影画像170の取得は、新環境地図131の生成と並行して行われてもよいし、新環境地図131の生成前に行われてもよい。
In step S <b> 11 of FIG. 5, the environment
ステップS13では、更新箇所判定部18が、新環境地図131における旧環境地図130からの更新箇所を判定する。
In step S <b> 13, the update
ステップS14では、更新箇所判定部18により判定された更新箇所の各々について、画像表示部20に表示すべき表示画像を決定する。ここで、1つの更新箇所に対して1つの表示画像を決定する手順の具体例を図6のフローチャートに従って説明する。
In step S <b> 14, a display image to be displayed on the
ステップS21では、更新箇所の平均座標を算出する。例えば、環境地図面をXY平面とする場合、更新箇所に含まれる複数のセルのX座標の平均値Xm及びY座標の平均値Ymを算出し、(Xm,Ym)を更新箇所の平均座標とすればよい。 In step S21, the average coordinates of the updated location are calculated. For example, when the environmental map plane is an XY plane, the average value Xm of the X coordinates and the average value Ym of the Y coordinates of a plurality of cells included in the update location are calculated, and (Xm, Ym) is set as the average coordinate of the update location. do it.
続いて、ステップS22〜S27では、撮影画像記憶部17に記憶されている全ての撮影位置情報171を順次読み出して、更新箇所の平均座標と撮影位置との距離を算出する。ステップS22では、1つの撮影位置情報を撮影画像記憶部17から取得する。
Subsequently, in steps S22 to S27, all the
ステップS23では、S22で取得された撮影位置情報によって示される撮影位置(Xs、Ys、θs)及び撮影部15が有するカメラの画角φを用いて、撮影部15の仮想撮影領域を算出する。ここで、仮想撮影領域とは、図7に斜線で示すように、撮影部15が有するカメラの画角内で、ロボット1の前方に広がる領域である。つまり、仮想撮影領域は、壁等の障害物が存在しないと仮定した場合に、撮影部15の撮影画像に含まれる領域である。
In step S23, the virtual shooting area of the
ステップS24では、更新箇所の平均座標が仮想撮影領域内に含まれるか否かを判定する。更新箇所の平均座標が仮想撮影領域内に含まれる場合にステップS25に進み、そうでなければステップS27に進む。 In step S24, it is determined whether or not the average coordinates of the updated location are included in the virtual imaging area. If the average coordinates of the updated location are included in the virtual imaging area, the process proceeds to step S25, and if not, the process proceeds to step S27.
ステップS25では、撮影位置と平均座標との間に撮影を妨げる壁等の障害物が存在するか否かを判定する。具体的には、旧環境地図130に含まれる壁セル座標を読み出して、撮影位置と平均座標との間に壁セルが存在するか否かを判定すればよい。撮影位置と平均座標との間に障害物が存在しないと判定された場合にステップS26に進み、そうでなければステップS27に進む。
In step S25, it is determined whether there is an obstacle such as a wall that hinders shooting between the shooting position and the average coordinates. Specifically, the wall cell coordinates included in the
ステップS26では、撮影位置と更新箇所の平均座標との間の距離を算出する。 In step S26, the distance between the shooting position and the average coordinates of the updated location is calculated.
ステップS27では、全ての撮影位置情報171に対するステップS22〜S26の処理が終了したか否かを判定する。終了していなければ、ステップS22に戻って処理を繰り返す。
In step S27, it is determined whether or not the processing in steps S22 to S26 for all the
最後に、ステップS28では、更新箇所の平均座標との距離が最小である撮影位置に対応する撮影画像を、画像表示部20に表示させる表示画像に決定する。更新箇所の平均座標との距離が最小と判定された撮影位置で取得された撮影画像は、更新箇所に対応する地点が十分に撮影されている可能性が高いためである。
Finally, in step S28, the captured image corresponding to the imaging position having the smallest distance from the average coordinates of the update location is determined as the display image to be displayed on the
図5に戻り説明を続ける。ステップS15では、更新箇所と更新箇所に対応する撮影画像を地図表示部21及び画像表示部20に表示する。
Returning to FIG. In step S <b> 15, the updated location and the captured image corresponding to the updated location are displayed on the
ステップS16では、採否指示入力部22に対する更新箇所の採否指示の入力を受け付ける。オペレータによる採否指示の内容が更新箇所の採用であれば、採用された更新箇所によって旧環境地図130を更新する(ステップS17及びS18)。
In step S <b> 16, an update location adoption instruction input to the acceptance acceptance
ステップS19では、全ての更新箇所に関する撮影画像の表示、オペレータによる採否指示の入力が完了したか否かを判定する。完了していなければステップS15に戻って、上述したS15〜S18の処理を繰り返す。 In step S19, it is determined whether or not the display of the captured image regarding all the update locations and the input of the acceptance / rejection instruction by the operator have been completed. If not completed, the process returns to step S15, and the processes of S15 to S18 described above are repeated.
上述したように、本実施の形態にかかるロボット1は、更新箇所に対応する地点が撮影された撮影画像を表示してオペレータに提示する。つまり、ロボット1は、画像表示部20に表示される撮影画像と地図表示部21に表示される更新箇所をオペレータに閲覧させることによって、人物等の移動障害物が壁セルとして誤認識されていないか、あるいは障害物が存在しないにもかかわらず誤って壁セルとして誤認識されていないか等をオペレータに的確に判断させることができる。
As described above, the
さらに、ロボット1は、オペレータの採否指示に基づいて更新箇所の採否を決定し、自律移動制御に使用される更新後の環境地図132を生成する。このため、誤認識された移動障害物等が更新後の環境地図に含まれることを防止できる。
Furthermore, the
<その他の実施の形態>
上述した発明の実施の形態1では、画像表示部20への撮影画像の表示に合わせて、地図表示部21に更新箇所を表示する例を説明した。しかしながら、更新箇所の表示は必ずしも行なわなくてもよい。つまり、少なくとも更新箇所に対応する地点が撮影された撮影画像をオペレータに対して提示することによって、人物等の移動障害物が誤って壁セルと認識されていないかどうかをオペレータに判断させることができる。
<Other embodiments>
In the first embodiment of the present invention described above, the example in which the update location is displayed on the
また、発明の実施の形態1では、旧環境地図130、新環境地図131、及び更新後の環境地図132が、二次元のグリッド地図であるとして説明を行なった。しかしながら、これらの環境地図は、三次元のグリッド地図でもよい。また、これらの環境地図は、外部環境を撮影した画像から画像認識によって抽出された特徴点の三次元空間での配置が記述された地図でもよい。
In the first embodiment of the invention, the
また、発明の実施の形態1では、ロボット1が新環境地図131の生成を行うものとして説明した。しかしながら、ロボット1は、外部から供給される新環境地図131を用いて、更新箇所の判定以降の処理(図5のステップS12以降)を行ってもよい。
In the first embodiment of the invention, the
また、距離画像データを生成するために視覚センサ11に含まれるカメラと、オペレータに提示するための撮影画像を取得するために撮影部15に含まれるカメラとが共通化されてもよい。
Further, the camera included in the
さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。 Furthermore, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention described above.
1 自律移動ロボット
11 視覚センサ
12 環境地図生成部
13 環境地図データベース
130 旧環境地図
131 新環境地図
132 更新後の環境地図
14 自律移動部
140 動作計画部
141 動作制御部
142 駆動部
143 車輪
144 エンコーダ
15 撮影部
16 自己位置推定部
17 撮影画像記憶部
170 撮影画像
171 撮影位置情報
18 更新箇所判定部
180 更新箇所情報
19 表示画像決定部
20 画像表示部
21 地図表示部
22 採否指示入力部
23 地図更新部
DESCRIPTION OF
Claims (6)
新環境地図と旧環境地図とを比較して更新箇所を判定する更新箇所判定部と、
前記更新箇所に対応する前記移動空間内の地点が撮影された撮影画像を表示する画像表示部と、
オペレータによる前記更新箇所の採否指示を入力する採否指示入力部と、
前記採否指示に従って前記更新箇所が採用又は棄却された更新後の環境地図を生成する地図更新部と、
を備える自律移動ロボット。 An autonomous mobile robot having a function of autonomously moving in a moving space and updating an environmental map related to the moving space,
An update location determination unit that compares the new environment map and the old environment map to determine the update location,
An image display unit that displays a captured image in which a point in the moving space corresponding to the updated location is captured;
An acceptance / rejection instruction input unit for inputting an acceptance / rejection instruction for the updated part by an operator;
A map updating unit for generating an updated environmental map in which the updated part is adopted or rejected according to the acceptance / rejection instruction;
An autonomous mobile robot with
当該自律移動ロボットの自己位置を推定する自己位置推定部と、
前記撮影画像及び前記撮影画像の取得がなされた前記自己位置を示す位置情報を記憶する記憶部と、
前記更新箇所に対応する前記移動空間内の地点が撮影された前記撮影画像を前記位置情報に基づいて決定し、決定した撮影画像を前記画像表示部に表示させる表示画像決定部と、
をさらに備える請求項1に記載の自律移動ロボット。 An imaging unit for acquiring the captured image;
A self-position estimating unit that estimates the self-position of the autonomous mobile robot;
A storage unit that stores position information indicating the self-position where the captured image and the captured image have been acquired;
A display image determination unit that determines the captured image in which the point in the moving space corresponding to the update location is captured based on the position information, and displays the determined captured image on the image display unit;
The autonomous mobile robot according to claim 1, further comprising:
新環境地図と旧環境地図とを比較して更新箇所を判定するステップ(a)と、
前記更新箇所に対応する前記移動空間内の地点が撮影された撮影画像を表示するステップ(b)と、
オペレータによる前記更新箇所の採否指示を入力するステップ(c)と、
前記採否指示に従って前記更新箇所が採用又は棄却された更新後の環境地図を生成するステップ(d)と、
を含む地図更新方法。 An update method of an environmental map related to the moving space in an autonomous mobile robot that autonomously moves in the moving space,
A step (a) of comparing the new environment map and the old environment map to determine an update location;
A step (b) of displaying a photographed image obtained by photographing a point in the moving space corresponding to the update location;
A step (c) of inputting an acceptance / rejection instruction of the updated portion by an operator;
Generating an updated environmental map in which the updated location is adopted or rejected in accordance with the acceptance / rejection instruction;
Map update method including.
前記撮影画像及び前記撮影画像の取得がなされた前記自律移動ロボットの自己位置を示す位置情報を記憶するステップ(f)と、
前記更新箇所に対応する前記移動空間内の地点が撮影された前記撮影画像を前記位置情報に基づいて決定するステップ(g)とをさらに含み、
前記ステップ(b)では、前記ステップ(g)で決定された撮影画像を前記オペレータに対して表示する請求項4に記載の地図更新方法。 Acquiring the captured image by a camera installed in the autonomous mobile robot;
Storing the captured image and position information indicating the self-location of the autonomous mobile robot from which the captured image was acquired;
Further comprising the step (g) of determining, based on the position information, the captured image in which a point in the moving space corresponding to the update location is captured,
The map update method according to claim 4, wherein in the step (b), the captured image determined in the step (g) is displayed to the operator.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008009520A JP2009169845A (en) | 2008-01-18 | 2008-01-18 | Autonomous mobile robot and map update method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008009520A JP2009169845A (en) | 2008-01-18 | 2008-01-18 | Autonomous mobile robot and map update method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009169845A true JP2009169845A (en) | 2009-07-30 |
Family
ID=40970909
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008009520A Pending JP2009169845A (en) | 2008-01-18 | 2008-01-18 | Autonomous mobile robot and map update method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009169845A (en) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014078254A (en) * | 2009-08-31 | 2014-05-01 | Neato Robotics Inc | Method and apparatus for simultaneous localization and mapping of mobile robot environment |
JP2014089740A (en) * | 2013-12-20 | 2014-05-15 | Hitachi Ltd | Robot system and map update method |
WO2015025599A1 (en) * | 2013-08-21 | 2015-02-26 | シャープ株式会社 | Autonomous mobile body |
JP2015144013A (en) * | 2015-03-31 | 2015-08-06 | 株式会社日立製作所 | robot system and map update method |
JP2017041200A (en) * | 2015-08-21 | 2017-02-23 | シャープ株式会社 | Autonomous mobile device, autonomous mobile system and circumstance map evaluation method |
WO2017148730A1 (en) * | 2016-03-03 | 2017-09-08 | Kuka Roboter Gmbh | Method for updating an occupancy map and autonomous vehicle |
US10012989B2 (en) | 2015-12-17 | 2018-07-03 | Casio Computer Co., Ltd. | Autonomous movement device, autonomous movement method and non-transitory recording medium |
CN108369743A (en) * | 2015-08-28 | 2018-08-03 | 帝国科技及医学学院 | Use multi-directional camera map structuring space |
CN108469826A (en) * | 2018-04-23 | 2018-08-31 | 宁波Gqy视讯股份有限公司 | A kind of ground drawing generating method and system based on robot |
US10108199B2 (en) | 2015-12-10 | 2018-10-23 | Casio Computer Co., Ltd. | Autonomous movement device, autonomous movement method and non-transitory recording medium |
JP2019023848A (en) * | 2017-05-01 | 2019-02-14 | サビオーク インコーポレイテッドSavioke, Inc. | Computer system and method for automatic mapping by robot |
WO2019069524A1 (en) * | 2017-10-02 | 2019-04-11 | ソニー株式会社 | Environment information update apparatus, environment information update method, and program |
JP2019061452A (en) * | 2017-09-26 | 2019-04-18 | 株式会社豊田自動織機 | Map information update method |
US10296009B2 (en) | 2015-12-16 | 2019-05-21 | Casio Computer Co., Ltd. | Autonomous movement device, autonomous movement method and non-transitory recording medium |
US10296002B2 (en) | 2016-03-14 | 2019-05-21 | Casio Computer Co., Ltd. | Autonomous movement device, autonomous movement method, and non-transitory recording medium |
WO2019187654A1 (en) * | 2018-03-30 | 2019-10-03 | 株式会社小松製作所 | Construction machine control system, construction machine, and construction machine control method |
WO2020255409A1 (en) * | 2019-06-21 | 2020-12-24 | 株式会社ソニー・インタラクティブエンタテインメント | Element data management device, element data management method, program, and data structure of element data |
US10877475B2 (en) | 2015-05-22 | 2020-12-29 | Fujifilm Corporation | Robot device and method of controlling movement of robot device |
WO2021059437A1 (en) * | 2019-09-26 | 2021-04-01 | ヤマハ発動機株式会社 | Environment map creation device and method, local position estimation device, and autonomous moving body |
WO2021176863A1 (en) * | 2020-03-06 | 2021-09-10 | パナソニックIpマネジメント株式会社 | Object image display device, object image display system, and object image display program |
CN113942007A (en) * | 2020-07-16 | 2022-01-18 | 深圳乐动机器人有限公司 | Robot control method and device and electronic equipment |
JP2023504330A (en) * | 2020-11-09 | 2023-02-03 | 達闥機器人股▲分▼有限公司 | Map calibration method, system, robot and cloud platform based on point cloud |
JP2023509231A (en) * | 2020-02-28 | 2023-03-07 | アイロボット・コーポレーション | Semantic map management in mobile robots |
WO2023080062A1 (en) | 2021-11-04 | 2023-05-11 | 株式会社Ihi | Self-position estimation device, autonomous driving vehicle, and self-position estimation method |
DE102023201820A1 (en) | 2022-03-07 | 2023-09-07 | Hitachi High-Tech Corporation | Robot stopping position adjustment device and mobile robot system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11296229A (en) * | 1998-02-13 | 1999-10-29 | Komatsu Ltd | Vehicle guide device |
JP2004033340A (en) * | 2002-07-01 | 2004-02-05 | Hitachi Home & Life Solutions Inc | Robot vacuum cleaner and robot vacuum cleaner control program |
JP2004171165A (en) * | 2002-11-19 | 2004-06-17 | Honda Motor Co Ltd | Moving apparatus |
JP2006113858A (en) * | 2004-10-15 | 2006-04-27 | Mitsubishi Heavy Ind Ltd | Method and system for supporting remote operation for mobile object |
JP2007120949A (en) * | 2005-10-25 | 2007-05-17 | Nissan Motor Co Ltd | Road information update apparatus |
JP2007323402A (en) * | 2006-06-01 | 2007-12-13 | Matsushita Electric Ind Co Ltd | Self-propelled equipment and its program |
-
2008
- 2008-01-18 JP JP2008009520A patent/JP2009169845A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11296229A (en) * | 1998-02-13 | 1999-10-29 | Komatsu Ltd | Vehicle guide device |
JP2004033340A (en) * | 2002-07-01 | 2004-02-05 | Hitachi Home & Life Solutions Inc | Robot vacuum cleaner and robot vacuum cleaner control program |
JP2004171165A (en) * | 2002-11-19 | 2004-06-17 | Honda Motor Co Ltd | Moving apparatus |
JP2006113858A (en) * | 2004-10-15 | 2006-04-27 | Mitsubishi Heavy Ind Ltd | Method and system for supporting remote operation for mobile object |
JP2007120949A (en) * | 2005-10-25 | 2007-05-17 | Nissan Motor Co Ltd | Road information update apparatus |
JP2007323402A (en) * | 2006-06-01 | 2007-12-13 | Matsushita Electric Ind Co Ltd | Self-propelled equipment and its program |
Cited By (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014078254A (en) * | 2009-08-31 | 2014-05-01 | Neato Robotics Inc | Method and apparatus for simultaneous localization and mapping of mobile robot environment |
CN104699099A (en) * | 2009-08-31 | 2015-06-10 | Neato机器人技术公司 | Method and apparatus for simultaneous localization and mapping of mobile robot environment |
WO2015025599A1 (en) * | 2013-08-21 | 2015-02-26 | シャープ株式会社 | Autonomous mobile body |
JP2015041203A (en) * | 2013-08-21 | 2015-03-02 | シャープ株式会社 | Autonomous moving body |
CN105247431A (en) * | 2013-08-21 | 2016-01-13 | 夏普株式会社 | Autonomous mobile body |
CN105247431B (en) * | 2013-08-21 | 2017-09-19 | 夏普株式会社 | Autonomous body |
US9804598B2 (en) | 2013-08-21 | 2017-10-31 | Sharp Kabushiki Kaisha | Autonomous mobile body |
JP2014089740A (en) * | 2013-12-20 | 2014-05-15 | Hitachi Ltd | Robot system and map update method |
JP2015144013A (en) * | 2015-03-31 | 2015-08-06 | 株式会社日立製作所 | robot system and map update method |
US10877475B2 (en) | 2015-05-22 | 2020-12-29 | Fujifilm Corporation | Robot device and method of controlling movement of robot device |
JP2017041200A (en) * | 2015-08-21 | 2017-02-23 | シャープ株式会社 | Autonomous mobile device, autonomous mobile system and circumstance map evaluation method |
JP2018529175A (en) * | 2015-08-28 | 2018-10-04 | インペリアル・カレッジ・オブ・サイエンス・テクノロジー・アンド・メディスン | Mapping a space using a multidirectional camera |
CN108369743A (en) * | 2015-08-28 | 2018-08-03 | 帝国科技及医学学院 | Use multi-directional camera map structuring space |
US10796151B2 (en) | 2015-08-28 | 2020-10-06 | Imperial College Of Science, Technology And Medicine | Mapping a space using a multi-directional camera |
CN108369743B (en) * | 2015-08-28 | 2023-10-24 | 帝国理工学院创新有限公司 | Mapping a space using a multi-directional camera |
US10108199B2 (en) | 2015-12-10 | 2018-10-23 | Casio Computer Co., Ltd. | Autonomous movement device, autonomous movement method and non-transitory recording medium |
US10296009B2 (en) | 2015-12-16 | 2019-05-21 | Casio Computer Co., Ltd. | Autonomous movement device, autonomous movement method and non-transitory recording medium |
US10012989B2 (en) | 2015-12-17 | 2018-07-03 | Casio Computer Co., Ltd. | Autonomous movement device, autonomous movement method and non-transitory recording medium |
EP3423911B1 (en) * | 2016-03-03 | 2021-01-20 | KUKA Deutschland GmbH | Method for updating an occupancy map and autonomous vehicle |
WO2017148730A1 (en) * | 2016-03-03 | 2017-09-08 | Kuka Roboter Gmbh | Method for updating an occupancy map and autonomous vehicle |
US10296002B2 (en) | 2016-03-14 | 2019-05-21 | Casio Computer Co., Ltd. | Autonomous movement device, autonomous movement method, and non-transitory recording medium |
JP2019023848A (en) * | 2017-05-01 | 2019-02-14 | サビオーク インコーポレイテッドSavioke, Inc. | Computer system and method for automatic mapping by robot |
JP2019061452A (en) * | 2017-09-26 | 2019-04-18 | 株式会社豊田自動織機 | Map information update method |
JP7003531B2 (en) | 2017-09-26 | 2022-01-20 | 株式会社豊田自動織機 | How to update map information |
US11687089B2 (en) | 2017-10-02 | 2023-06-27 | Sony Corporation | Environmental information update apparatus, environmental information update method, and program for updating information regarding an obstacle in a space |
KR20200054977A (en) * | 2017-10-02 | 2020-05-20 | 소니 주식회사 | Environmental information update device, environmental information update method and program |
WO2019069524A1 (en) * | 2017-10-02 | 2019-04-11 | ソニー株式会社 | Environment information update apparatus, environment information update method, and program |
JPWO2019069524A1 (en) * | 2017-10-02 | 2020-11-05 | ソニー株式会社 | Environmental information update device, environmental information update method and program |
JP7136114B2 (en) | 2017-10-02 | 2022-09-13 | ソニーグループ株式会社 | ENVIRONMENTAL INFORMATION UPDATE DEVICE, ENVIRONMENTAL INFORMATION UPDATE METHOD AND PROGRAM |
KR102629762B1 (en) | 2017-10-02 | 2024-01-29 | 소니그룹주식회사 | Environmental information update device, environmental information update method and program |
US20200391767A1 (en) * | 2018-03-30 | 2020-12-17 | Komatsu Ltd. | Work machine control system, work machine, and work machine control method |
WO2019187654A1 (en) * | 2018-03-30 | 2019-10-03 | 株式会社小松製作所 | Construction machine control system, construction machine, and construction machine control method |
US11745767B2 (en) | 2018-03-30 | 2023-09-05 | Komatsu Ltd. | Work machine control system, work machine, and work machine control method |
JP2019179512A (en) * | 2018-03-30 | 2019-10-17 | 株式会社小松製作所 | Work machine control system, work machine, and work machine control method |
JP7103824B2 (en) | 2018-03-30 | 2022-07-20 | 株式会社小松製作所 | Work machine control system, work machine, and work machine control method |
CN108469826A (en) * | 2018-04-23 | 2018-08-31 | 宁波Gqy视讯股份有限公司 | A kind of ground drawing generating method and system based on robot |
WO2020255409A1 (en) * | 2019-06-21 | 2020-12-24 | 株式会社ソニー・インタラクティブエンタテインメント | Element data management device, element data management method, program, and data structure of element data |
JPWO2020255409A1 (en) * | 2019-06-21 | 2021-12-23 | 株式会社ソニー・インタラクティブエンタテインメント | Element data management device, element data management method, program and data structure of element data |
JP7232909B2 (en) | 2019-06-21 | 2023-03-03 | 株式会社ソニー・インタラクティブエンタテインメント | Element data management device, element data management method, program and data structure of element data |
WO2021059437A1 (en) * | 2019-09-26 | 2021-04-01 | ヤマハ発動機株式会社 | Environment map creation device and method, local position estimation device, and autonomous moving body |
JP7214881B2 (en) | 2019-09-26 | 2023-01-30 | ヤマハ発動機株式会社 | Environmental mapping device and method, self-localization device, autonomous mobile body |
JPWO2021059437A1 (en) * | 2019-09-26 | 2021-04-01 | ||
US20220276659A1 (en) * | 2019-09-26 | 2022-09-01 | Yamaha Hatsudoki Kabushiki Kaisha | Environment map creation device and method, local position estimation device, and autonomous moving body |
JP2023509231A (en) * | 2020-02-28 | 2023-03-07 | アイロボット・コーポレーション | Semantic map management in mobile robots |
JP7459277B2 (en) | 2020-02-28 | 2024-04-01 | アイロボット・コーポレーション | Semantic map management in mobile robots |
JP7281716B2 (en) | 2020-03-06 | 2023-05-26 | パナソニックIpマネジメント株式会社 | Object image display device, object image display system, and object image display program |
JP2021140583A (en) * | 2020-03-06 | 2021-09-16 | パナソニックIpマネジメント株式会社 | Object image display device, object image display system, and object image display program |
WO2021176863A1 (en) * | 2020-03-06 | 2021-09-10 | パナソニックIpマネジメント株式会社 | Object image display device, object image display system, and object image display program |
CN113942007A (en) * | 2020-07-16 | 2022-01-18 | 深圳乐动机器人有限公司 | Robot control method and device and electronic equipment |
JP2023504330A (en) * | 2020-11-09 | 2023-02-03 | 達闥機器人股▲分▼有限公司 | Map calibration method, system, robot and cloud platform based on point cloud |
JP7465290B2 (en) | 2020-11-09 | 2024-04-10 | 達闥機器人股▲分▼有限公司 | Point cloud based map calibration method, system, robot and cloud platform |
WO2023080062A1 (en) | 2021-11-04 | 2023-05-11 | 株式会社Ihi | Self-position estimation device, autonomous driving vehicle, and self-position estimation method |
DE102023201820A1 (en) | 2022-03-07 | 2023-09-07 | Hitachi High-Tech Corporation | Robot stopping position adjustment device and mobile robot system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009169845A (en) | Autonomous mobile robot and map update method | |
CN110312912B (en) | Automatic vehicle parking system and method | |
US10096129B2 (en) | Three-dimensional mapping of an environment | |
CN111024066B (en) | Unmanned aerial vehicle vision-inertia fusion indoor positioning method | |
CN108290294B (en) | Mobile robot and control method thereof | |
KR101725060B1 (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
JP2021152662A (en) | Method and device for real-time mapping and location | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
KR101784183B1 (en) | APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF | |
CN111664843A (en) | SLAM-based intelligent storage checking method | |
JP2009193240A (en) | Mobile robot and method for generating environment map | |
JP7036400B2 (en) | Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program | |
WO2016077703A1 (en) | Gyroscope assisted scalable visual simultaneous localization and mapping | |
JP2015532077A (en) | Method for determining the position and orientation of an apparatus associated with an imaging apparatus that captures at least one image | |
KR20150144727A (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
JP2013025401A (en) | Self-position estimation device, self-position estimation method and program | |
Caballero et al. | Improving vision-based planar motion estimation for unmanned aerial vehicles through online mosaicing | |
CN112652001A (en) | Underwater robot multi-sensor fusion positioning system based on extended Kalman filtering | |
CN112506200A (en) | Robot positioning method, device, robot and storage medium | |
CN115049910A (en) | Foot type robot mapping and navigation method based on binocular vision odometer | |
CN117433515A (en) | Indoor factory unmanned aerial vehicle positioning method and system based on multi-base-station UWB and dotted line visual inertia | |
CN117330052A (en) | Positioning and mapping method and system based on infrared vision, millimeter wave radar and IMU fusion | |
CN116804553A (en) | Odometer system and method based on event camera/IMU/natural road sign | |
Camurri et al. | Real-time depth and inertial fusion for local SLAM on dynamic legged robots | |
KR102506411B1 (en) | Method and apparatus for estimation of location and pose on vehicle and record medium for this |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120529 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120911 |