JP2021196489A - Map correction system, and map correction program - Google Patents
Map correction system, and map correction program Download PDFInfo
- Publication number
- JP2021196489A JP2021196489A JP2020102659A JP2020102659A JP2021196489A JP 2021196489 A JP2021196489 A JP 2021196489A JP 2020102659 A JP2020102659 A JP 2020102659A JP 2020102659 A JP2020102659 A JP 2020102659A JP 2021196489 A JP2021196489 A JP 2021196489A
- Authority
- JP
- Japan
- Prior art keywords
- map
- robot
- dimensional
- map correction
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 title claims abstract description 52
- 238000001514 detection method Methods 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims description 7
- 230000001105 regulatory effect Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 17
- 238000010276 construction Methods 0.000 description 16
- 238000004140 cleaning Methods 0.000 description 14
- 238000007726 management method Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000004088 simulation Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009435 building construction Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013079 data visualisation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Instructional Devices (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、ロボットの制御に必要な地図情報の補正に関する。 The present invention relates to correction of map information necessary for controlling a robot.
従来、建設現場であっても自己の位置を推定するロボットの位置推定に係る技術が知られている(例えば、特許文献1)。この技術では、計測可能な施工対象物の施工データから抽出してマッピング情報を得て、計測データと、マッピング情報とに基づいて、空間内における自己位置を算出している。 Conventionally, a technique related to position estimation of a robot that estimates its own position even at a construction site is known (for example, Patent Document 1). In this technique, mapping information is obtained by extracting from the construction data of a measurable construction object, and the self-position in the space is calculated based on the measurement data and the mapping information.
また、移動空間内のレイアウトを変更しても容易に適用でき、導入コストが小さく、さらに、高速且つ正確に自己位置認識できる移動体に係る技術が知られている(例えば、特許文献2)。同様の技術として、移動体は自分の位置を推定し、指定された目的地まで自律的に移動制御可能として、移動体の位置を安定的に得る技術が知られている(例えば、特許文献3)。 Further, there is known a technique related to a moving body that can be easily applied even if the layout in the moving space is changed, the introduction cost is low, and the self-position can be recognized accurately at high speed (for example, Patent Document 2). As a similar technique, a technique is known in which a moving body estimates its own position and can autonomously control the movement to a designated destination to stably obtain the position of the moving body (for example, Patent Document 3). ).
また、建物の施工現場ならではの事情を考慮して、当該施工現場内で精度良く自己位置を推定することが可能な自律移動装置を提供する技術が知られている(例えば、特許文献4)。この技術では、建物のうち施工現場内に存在する複数の対象部位の形状データを取得し、図面データを参照し、複数の対象部位それぞれの寸法に関する情報に基づいて、複数の対象部位の中から基準対象部位を特定している。また、図面データに含まれる基準対象部位の位置と、形状データにおける実際の基準対象部位の位置との照合結果に基づいて、施工現場内における自己位置を推定している。 Further, in consideration of the circumstances unique to a building construction site, a technique for providing an autonomous mobile device capable of accurately estimating a self-position in the construction site is known (for example, Patent Document 4). With this technology, shape data of multiple target parts existing in the construction site of a building is acquired, drawing data is referred to, and based on information on the dimensions of each of the multiple target parts, from among multiple target parts. The reference target site is specified. In addition, the self-position in the construction site is estimated based on the collation result between the position of the reference target part included in the drawing data and the actual position of the reference target part in the shape data.
上記特許文献1〜4に記載の技術によれば、実空間におけるロボットの自己位置を精度よく推定できる。このように精度よく自己位置を推定すれば、ロボットの経路上の移動が正確、かつ、スムーズに行えると考えられる。しかし、経路を示す地図上のデータと、実際の施工現場のデータとには差異が生じる場合がある。実際の施工現場は状況に応じて資材等の配置の変更、設計変更に伴う配置変更等、様々な変化が発生するからである。そのため、単にロボットの自己位置を正確に推定できるだけでは、ロボットの移動の正確性を担保できるわけではない。 According to the techniques described in Patent Documents 1 to 4, the self-position of the robot in the real space can be estimated accurately. If the self-position is estimated accurately in this way, it is considered that the robot can move accurately and smoothly on the path. However, there may be a difference between the data on the map showing the route and the data at the actual construction site. This is because various changes occur at the actual construction site, such as changes in the arrangement of materials, etc., and changes in the arrangement due to design changes, depending on the situation. Therefore, it is not possible to guarantee the accuracy of the robot's movement simply by accurately estimating the robot's self-position.
本発明は上記事実を考慮して、実空間の状況を反映して地図データの精度を向上させることを目的とする。 It is an object of the present invention to improve the accuracy of map data by reflecting the situation in real space in consideration of the above facts.
上記目的を達成するために、本発明の地図補正システムは、空間における構造物に応じたロボットの移動可能範囲を規定した三次元又は二次元の地図と、ロボットによる構造物の位置との照合結果による自己位置推定結果とを用いて、前記地図と実空間との差異又は誤差を検出し、検出結果を用いて、前記地図について、前記構造物の状況を反映するように補正する。これにより、実空間の状況を反映して地図データの精度を向上させることを可能とする。 In order to achieve the above object, the map correction system of the present invention collates a three-dimensional or two-dimensional map that defines the movable range of the robot according to the structure in space with the position of the structure by the robot. The difference or error between the map and the real space is detected by using the self-position estimation result by, and the map is corrected so as to reflect the situation of the structure by using the detection result. This makes it possible to improve the accuracy of the map data by reflecting the situation in the real space.
本発明によれば、実空間の状況を反映して地図データの精度を向上させることを可能とする、という効果が得られる。 According to the present invention, it is possible to improve the accuracy of the map data by reflecting the situation in the real space.
[本発明の実施形態]
以下、図面を参照して、本発明の実施形態の地図補正システムについて説明する。
[Embodiment of the present invention]
Hereinafter, the map correction system according to the embodiment of the present invention will be described with reference to the drawings.
本発明の実施形態の概要を説明する。本発明の実施形態に係る手法では、三次元地図(又は二次元地図)と実空間におけるロボットの自己位置推定結果とを用いて、三次元地図と実空間との構造物の差異又は誤差を検出し、検出結果を用いて三次元地図を補正する。三次元地図とは、空間に配置された構造物配置された空間があり、ロボットが当該空間を移動することができる移動可能範囲が規定された環境地図である。三次元地図はロボットの種類ごとにBIMデータをもとにしたシミュレーションによって生成されている。実空間とは、建設現場等の実際にロボットが稼働する空間である。 An outline of the embodiment of the present invention will be described. In the method according to the embodiment of the present invention, the difference or error of the structure between the 3D map and the real space is detected by using the 3D map (or the 2D map) and the self-position estimation result of the robot in the real space. Then, the detection result is used to correct the 3D map. A three-dimensional map is an environmental map in which there is a space in which structures are arranged in a space, and a movable range in which a robot can move in the space is defined. The three-dimensional map is generated by a simulation based on BIM data for each type of robot. The real space is a space where a robot actually operates, such as a construction site.
また、本手法の前提として、ロボットは、SLAM(Simultaneous Localization and Mapping)という自己位置推定の手法を利用する。SLAMとは、ロボットのセンサで周辺の環境を認識すると同時に、自己の位置及び姿勢を精度よく推定する技術であり、自己の位置を推定すると同時に環境地図を生成する。SLAMにおいては、ロボットは複数のセンサを組み合わせて環境認識を行う。センサはロボットによって様々であるが、測距センサ、カメラ、ジャイロセンサ、磁気センサ、加速度センサ、レーダーセンサ(スキャナ)、バンパーセンサ等を用いる。センサを利用した自己位置推定の一例として、掃除を目的とする四輪駆動ロボット(以下、掃除用ロボット)の例を説明する。例えば、掃除用ロボットはセンサ情報として、レーザースキャナ、及びバンパーセンサを有する。レーザースキャナは周囲の壁及び障害物を検出するセンサであり、レーザースキャナを用いることで、掃除する領域の四隅に置かれた反射マーカーを検出することにより掃除領域を判断できる。また、掃除用ロボットは反射マーカーで囲われた掃除領域内のゴミが全て掃除できるような経路で掃除領域内を移動するため、移動経路は掃除領域内に自動生成できる。バンパーセンサは、障害物に接触したことを検出するセンサであり、掃除領域内の障害物を検知して回避する。 Further, as a premise of this method, the robot uses a self-position estimation method called SLAM (Simultaneous Localization and Mapping). SLAM is a technology that recognizes the surrounding environment with a robot sensor and at the same time estimates its own position and posture with high accuracy. It estimates its own position and at the same time generates an environmental map. In SLAM, the robot combines a plurality of sensors to recognize the environment. The sensor varies depending on the robot, but a distance measuring sensor, a camera, a gyro sensor, a magnetic sensor, an acceleration sensor, a radar sensor (scanner), a bumper sensor and the like are used. As an example of self-position estimation using a sensor, an example of a four-wheel drive robot (hereinafter referred to as a cleaning robot) for cleaning will be described. For example, the cleaning robot has a laser scanner and a bumper sensor as sensor information. The laser scanner is a sensor that detects surrounding walls and obstacles, and by using the laser scanner, the cleaning area can be determined by detecting the reflection markers placed at the four corners of the area to be cleaned. Further, since the cleaning robot moves in the cleaning area by a route that can clean all the dust in the cleaning area surrounded by the reflective marker, the movement route can be automatically generated in the cleaning area. The bumper sensor is a sensor that detects contact with an obstacle, and detects and avoids an obstacle in the cleaning area.
ロボットは、自己位置推定によって絶えず自己位置における周囲の状況を監視しながら移動を行う。ロボットは自己位置推定において、センサによって実空間の構造物の位置を照合し、照合結果により自己位置推定結果を求める。ここで、三次元地図の空間と実空間とでは差異又は誤差が生じうる。具体的には、実空間の施工現場にある構造物と、シミュレーションにより求めた三次元地図に含まれる構造物とには差異又は誤差が生じうる。空間において想定される構造物は、固定された構造物の場合もあれば、移動が可能な構造物の場合もある。このような移動可能な構造物は、設置物、建設現場の資材、建設用具等が挙げられる。そのため、実空間の建設現場において、移動可能な構造物に関しては、移動、追加、及び使用等により配置が変わってくる。このような場合に、実空間の構造物と三次元地図に含まれる構造物とには差異又は誤差が生じる。差異とは、配置されている構造物が追加又は除去されて、空間中の構造物の数、及び配置が、三次元地図とは異なっている状況である。誤差とは、三次元地図に配置されていた構造物の配置がずれている状況である。本実施形態では、これらの差異又は誤差を、三次元地図及び自己位置推定結果を用いて検出する。そして検出結果によって三次元地図中に構造物の状況を反映するように三次元地図の構造物の配置を補正する。これにより三次元地図に含まれる構造物の座標情報を修正し、ロボットの制御のための地図データの精度を向上させることを可能とする。また、三次元の地図上で捉えた三次元データとしての構造物の配置だけではなく、二次元の点群データの精度更新としても実現可能である。通常SLAMは二次元で処理されるため、BIMの三次元データから抽出されたロボット走行用の地図データが二次元地図の場合は、二次元データを更新する。また、実際に検出されたデータは、建物施工中は、実際の状況に応じて更新する、一方で、竣工後は、元のBIMデータを使用するため、利用する地図データを、現状のデータか又は元データかを選択できるように管理している。以上のこれに伴い、以下に説明する各種ロボットを管理するロボット管理システムの精度の向上を可能とする。 The robot moves while constantly monitoring the surrounding conditions at its own position by self-position estimation. In self-position estimation, the robot collates the position of a structure in real space with a sensor, and obtains the self-position estimation result from the collation result. Here, a difference or an error may occur between the space of the three-dimensional map and the real space. Specifically, there may be a difference or error between the structure at the construction site in the real space and the structure included in the three-dimensional map obtained by simulation. The structure assumed in space may be a fixed structure or a movable structure. Examples of such movable structures include installations, construction site materials, construction tools and the like. Therefore, at a construction site in a real space, the arrangement of movable structures changes depending on movement, addition, use, and the like. In such a case, a difference or an error occurs between the structure in the real space and the structure contained in the three-dimensional map. The difference is a situation in which the arranged structures are added or removed, and the number and arrangement of the structures in the space are different from those of the three-dimensional map. An error is a situation in which the arrangement of structures arranged on a three-dimensional map is misaligned. In this embodiment, these differences or errors are detected by using a three-dimensional map and a self-position estimation result. Then, the arrangement of the structures on the 3D map is corrected so as to reflect the situation of the structures in the 3D map according to the detection result. This makes it possible to correct the coordinate information of the structure included in the three-dimensional map and improve the accuracy of the map data for controlling the robot. Further, it can be realized not only as the arrangement of the structure as the three-dimensional data captured on the three-dimensional map but also as the accuracy update of the two-dimensional point cloud data. Since SLAM is usually processed in two dimensions, if the map data for robot running extracted from the three-dimensional data of BIM is a two-dimensional map, the two-dimensional data is updated. In addition, the actually detected data is updated according to the actual situation during the construction of the building, while the original BIM data is used after the completion, so the map data to be used is the current data. Or it is managed so that it can be selected from the original data. Along with this, it is possible to improve the accuracy of the robot management system that manages various robots described below.
ここで、本実施形態の前提となるロボット管理プラットフォームについて説明する。図1はロボット管理プラットフォームのイメージ図である。図1に示すように、ロボット管理プラットフォームは、クラウド環境でロボットの管理を行うためのプラットフォームである。ロボット管理プラットフォームにはロボットを管理するための機能を実行するプログラムが各種モジュールとして実装されており、モジュールを適宜連携させて必要な処理を行う。これによりロボット管理プラットフォームは、ロボットによる施工作業のオートメーション化を実現する。図1に示したモジュールの一覧はあくまで機能的な手段の一例を示しており、これらの例に限定されない。このようなロボット管理プラットフォームを活用することにより、煩わしいロボット操作のための設定作業などを極力なくすことに繋がる。また、施工対象のBIM(Building Information Modeling)データをもとにロボットの自己位置を推定することで、現場担当者はBIMデータを参照してロボットの指示ができるようになるため、直感的な操作を現場担当者に提供できる。また、遠隔操作におけるロボットの状態監視など、施工時に必要な機能をプラットフォームのサービスとして展開できる。 Here, the robot management platform that is the premise of this embodiment will be described. FIG. 1 is an image diagram of a robot management platform. As shown in FIG. 1, the robot management platform is a platform for managing robots in a cloud environment. Programs that execute functions for managing robots are implemented as various modules on the robot management platform, and the modules are linked as appropriate to perform necessary processing. As a result, the robot management platform realizes automation of construction work by robots. The list of modules shown in FIG. 1 shows only an example of functional means, and is not limited to these examples. By utilizing such a robot management platform, it is possible to eliminate the troublesome setting work for robot operation as much as possible. In addition, by estimating the robot's self-position based on the BIM (Building Information Modeling) data to be constructed, the person in charge at the site can refer to the BIM data and give instructions to the robot, so intuitive operation is possible. Can be provided to field personnel. In addition, functions required for construction, such as monitoring the status of robots by remote control, can be developed as a platform service.
図1に示したロボット管理プラットフォームにおいて、本実施形態の手法は、例えば種にSLAM・BIMデータ連携に用いられる。また、ロボット運行管理、経路シミュレーション、データ蓄積・可視化等への活用も可能である。これらのモジュールの機能において、ロボットが移動する際の実空間での制御を最適化し、性能向上を図るための手法という位置付けである。 In the robot management platform shown in FIG. 1, the method of this embodiment is used, for example, for SLAM / BIM data linkage. It can also be used for robot operation management, route simulation, data storage / visualization, etc. In the functions of these modules, it is positioned as a method for optimizing the control in real space when the robot moves and improving the performance.
図2は、本発明の実施形態に係る地図補正システムの構成を示すブロック図である。図2に示すように、地図補正システム100は、地図補正装置110と、端末140と、複数のロボット150とが、ネットワークNを介して接続されている。ネットワークNは、例えば、インターネット回線、又は公衆無線LAN等である。
FIG. 2 is a block diagram showing a configuration of a map correction system according to an embodiment of the present invention. As shown in FIG. 2, in the
端末140は、ロボット150の制御入力データの入力、ロボット150の自己位置推定結果の確認、補正された三次元地図の確認等を行う端末である。制御入力データとは、例えば目的地、運搬対象等を含む情報である。なお、端末140は、各種担当が操作する端末であり、地図補正装置110の処理に必要な入出力を行う。ここでの各種担当は上述のロボット管理プラットフォームに当てはめられる。例えば、本実施形態では、ロボットの遠隔操作を担っている「現場担当」、又は経路シミュレーションを担っている「機材管理担当者」が運用に応じた担当となる。端末140のログイン時に各種担当に応じた権限が振り分けられているが、地図補正システム100の主たる処理でないためここでは説明は省略する。
The terminal 140 is a terminal that inputs control input data of the
ロボット150は、制御対象とする複数のロボットであり、各種センサを備えている。また、ロボット150は、制御情報を受け付け、自己位置推定を行いながら制御情報に含まれる経路を移動する。ロボット150は、一定間隔で現在地点、及び自己位置推定結果を地図補正装置110に送信する。なお、ロボット150は、ロボット環境プラットフォームのシミュレーション環境にエージェントとして種類ごとに実装されており動作エミュレートが可能である。本実施形態では予め動作エミュレートにより、移動可能範囲を規定した三次元地図が生成されている。また、後述する経路生成部114の経路シミュレーションにより、三次元地図上のロボット150の経路生成が行われる。なお、本実施形態では三次元地図を用いる場合を例に説明するが、上述したように二次元地図にも同様に適用可能である。
The
地図補正装置110は、通信部112と、経路生成部114と、検出部116と、地図補正部118と、記憶部120とを含んで構成されている。また、地図補正装置110は、CPUと、RAMと、各処理部を実行するためのプログラム及び各種データを記憶したROMと、を含むコンピュータで構成することができる(図示省略)。本実施形態の地図補正装置110は、上述した図1のロボット管理プラットフォームの一部の機能をモジュール化して構築したサーバであり、各機能部は機能の一例である。
The
通信部112は、端末140及びロボット150との通信により各種データの送受信を行う。例えば、通信部112は、端末140から三次元地図を受け付け記憶部120に格納する。通信部112は、端末140からロボット150の制御入力データを受け付ける。通信部112は、ロボット150から定期的に現在地点を受け付ける。通信部112は、ロボット150から自己位置推定結果を受け付ける。また、通信部112は、ロボット150に制御情報を送信する。
The
記憶部120には、端末140から受け付けた三次元地図の各々が格納される。三次元地図は、ロボットの空間における移動可能範囲が規定されている。また、記憶部120には、経路生成部114により生成されたロボット150の経路が格納される。また、記憶部120には、補正された三次元地図が格納される。
Each of the three-dimensional maps received from the terminal 140 is stored in the
経路生成部114は、端末140から受け付けたロボット150の制御入力データに従って、記憶部120の三次元地図における当該ロボット150の経路を生成する。そして、三次元地図の経路を含む制御情報をロボット150に送信する。また、ここで生成される経路を含む制御情報は、始発地点から制御入力データに含まれる目的地までの経路及び必要作業工程を含む情報とする。始発地点はロボット150から受け付けている最新の現在地点とする。
The
検出部116は、記憶部120の三次元地図と、ロボット150から受け付けた自己位置推定結果とを用いて、三次元地図と実空間との差異又は誤差を検出する。
The
地図補正部118は、検出部116の検出結果を用いて、記憶部120の三次元地図について、構造物の状況を反映するように補正する。
The
ここで、検出部116による検出及び地図補正部118による補正の具体例について説明する。図3は、障害物が除去された場合の差異の検出及び補正の一例を示す図である。図3に示す例では、三次元地図の空間において、移動可能範囲として掃除エリア及び掃除不可エリアが設定されているとする。掃除エリアは、掃除用ロボットの経路にあたり、障害物がない領域に設定されている。また、掃除不可エリアは障害物が存在するエリアで掃除ができない領域に任意に設定されている。これらの設定は三次元地図の生成の段階で予め設定されているとする。ここで、実空間において掃除用ロボットを稼働させ、自己位置推定結果において、障害物が除去されている空間上の差異を検出したとする。この場合、地図補正部118は、除去された障害物の検出結果を用いて、三次元地図を補正する。また、経路生成部114は、新たな掃除エリアを設定すると共に経路を生成する。このように、障害物が新たに設置された場合には、移動可能範囲が広がるように三次元地図が補正される。
Here, specific examples of detection by the
障害物が新たに設置された場合、又は障害物が移動された場合についても検出及び補正は同様に行える。図4は、障害物が新たに設置された場合の差異の検出及び補正の一例を示す図である。図4に示すように、障害物が新たに設置された場合には、移動可能範囲が狭まるように三次元地図が補正される。図5は、障害物が移動された場合の誤差の検出及び補正の一例を示す図である。図5に示すように、障害物が移動された場合(又はずれている場合)には、移動可能範囲を調整するように三次元地図が補正される。以上のように、リアルタイムな状況を三次元地図にフィードバックし、ロボットの通行可能な経路を再生成できる。 Detection and correction can be performed in the same way when an obstacle is newly installed or when the obstacle is moved. FIG. 4 is a diagram showing an example of detection and correction of a difference when an obstacle is newly installed. As shown in FIG. 4, when an obstacle is newly installed, the three-dimensional map is corrected so that the movable range is narrowed. FIG. 5 is a diagram showing an example of error detection and correction when an obstacle is moved. As shown in FIG. 5, when the obstacle is moved (or is displaced), the 3D map is corrected so as to adjust the movable range. As described above, the real-time situation can be fed back to the three-dimensional map to regenerate the path that the robot can pass.
次に、本発明の実施形態の地図補正装置110の作用について説明する。図6は、本発明の実施形態に係る地図補正装置110における地図補正処理を示すシーケンス図である。CPUがROMからプログラム及び各種データを読み出して実行することにより、地図補正処理が行なわれる。CPUが、地図補正装置110の各部として機能する。なお、予め端末140から受け付けた三次元地図が記憶部120に予め格納されているとする。また、ロボット150から定期的に現在地点を受け付けている。また、地図補正装置110の各種情報の送受信について各機能部が行っているとする説明については、通信部112を介して行っているとする。
Next, the operation of the
ステップS100では、端末140がロボット150の制御入力データを地図補正装置110に送信する。制御入力データにおいては特定のロボット150が指定されている。
In step S100, the terminal 140 transmits the control input data of the
ステップS102では、経路生成部114が、制御入力データに従って、記憶部120の指定されたロボット150に対応した三次元地図における経路を生成し、経路を含む制御情報を生成する。
In step S102, the
ステップS104では、経路生成部114が、制御情報をロボット150に送信する。
In step S104, the
ステップS106では、ロボット150が、受け付けた参照エリアを含む制御情報に従って、自己位置推定を行いつつ移動する。
In step S106, the
ステップS108では、ロボット150が、自己位置推定結果を地図補正装置110に送信する。
In step S108, the
ステップS110では、検出部116が、記憶部120の三次元地図と、ロボット150から受信した自己位置推定結果とを用いて、差異又は誤差を検出する。
In step S110, the
ステップS112では、地図補正部118が、ステップS110の検出結果を用いて、記憶部120の三次元地図を補正する。
In step S112, the
ステップS114では、経路生成部114が、補正された三次元地図を用いて、経路を再生成し、経路を含む制御情報をロボット150に送信する。以降、ロボット150が目的地に到着するまでステップS106からの処理に移行して地図補正処理を行う。
In step S114, the
以上、説明したように、本発明の実施形態に係る地図補正システム100によれば、実空間の状況を反映して地図データの精度を向上させることを可能とする。
As described above, according to the
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the gist of the present invention.
例えば、実空間と、三次元地図の空間とに差異又は誤差があることを検出した場合には、構造物の三次元的形状を精緻に捉えた補正を行うために、他の作業が空いているロボットに対して、構造物の形状を推定するための計測を指示するようにしてもよい。なぜならば、上記のロボットは自身の作業の移動における自己位置推定の結果として、構造物を付随的に捕捉しているに過ぎず、一部の状況しか捕捉できない場合も想定されるからである。指示を受けたロボット150は、差異又は周囲を巡回するように移動を行い、自己位置推定結果を地図補正装置110に送信する。地図補正装置110では、上記の制つめ意図同様の検出部116及び地図補正部118の処理を行い、構造物の形状を捉えた三次元地図の補正を行う。以上のように、差異又は誤差の検出された構造物の全体像を捉えるための作業を他のロボットに行わせることで、実空間における構造物の状況を正確に三次元地図に反映することができるようになる。
For example, if it is detected that there is a difference or error between the real space and the space of the 3D map, other work is available to make corrections that accurately capture the 3D shape of the structure. You may instruct the robot to make measurements to estimate the shape of the structure. This is because it is assumed that the above-mentioned robot only incidentally captures the structure as a result of self-position estimation in the movement of its own work, and can capture only a part of the situation. Upon receiving the instruction, the
100 地図補正システム
110 地図補正装置
112 通信部
114 経路生成部
116 検出部
118 地図補正部
120 記憶部
140 端末
150 ロボット
100
Claims (4)
検出結果を用いて、前記地図について、前記構造物の状況を反映するように補正する、
地図補正システム。 Using a three-dimensional or two-dimensional map that defines the movable range of the robot according to the structure in space and the self-position estimation result based on the collation result with the position of the structure by the robot, the map and the real space Detects differences or errors in
Using the detection result, the map is corrected to reflect the situation of the structure.
Map correction system.
検出結果を用いて、前記地図について、前記構造物の状況を反映するように補正する、
処理をコンピュータに実行させる地図補正プログラム。 Using a three-dimensional or two-dimensional map that defines the movable range of the robot according to the structure in space and the self-position estimation result based on the collation result with the position of the structure by the robot, the map and the real space Detects differences or errors in
Using the detection result, the map is corrected to reflect the situation of the structure.
A map correction program that causes a computer to perform processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020102659A JP2021196489A (en) | 2020-06-12 | 2020-06-12 | Map correction system, and map correction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020102659A JP2021196489A (en) | 2020-06-12 | 2020-06-12 | Map correction system, and map correction program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021196489A true JP2021196489A (en) | 2021-12-27 |
Family
ID=79197934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020102659A Pending JP2021196489A (en) | 2020-06-12 | 2020-06-12 | Map correction system, and map correction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021196489A (en) |
-
2020
- 2020-06-12 JP JP2020102659A patent/JP2021196489A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11373395B2 (en) | Methods and systems for simultaneous localization and calibration | |
KR102342152B1 (en) | Methods and systems for creating and aligning environment maps | |
JP6811258B2 (en) | Position measurement of robot vehicle | |
EP3610284B1 (en) | Determination of localization viability metrics for landmarks | |
JP6853832B2 (en) | Position measurement using negative mapping | |
US6496755B2 (en) | Autonomous multi-platform robot system | |
CN108958250A (en) | Multisensor mobile platform and navigation and barrier-avoiding method based on known map | |
JP5429901B2 (en) | Robot and information processing apparatus program | |
KR20190003970A (en) | Multi-agent coordination under sparse networking | |
JP2021196489A (en) | Map correction system, and map correction program | |
JP7503426B2 (en) | Map conversion system and map conversion program | |
CN114571460A (en) | Robot control method, device and storage medium | |
US20230419546A1 (en) | Online camera calibration for a mobile robot | |
Skrzypczyński | Uncertainty models of vision sensors in mobile robot positioning | |
JP2021196488A (en) | Map update system and map update program | |
JP2022065749A (en) | Control system for movable body | |
Schmitt et al. | Virtual reality-based navigation of a mobile robot | |
Schmitt et al. | A mobile robot control centre for mission and data management | |
Harris et al. | Assessment of a visually guided autonomous exploration robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230330 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240206 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240813 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241011 |