JP2021196489A - Map correction system, and map correction program - Google Patents

Map correction system, and map correction program Download PDF

Info

Publication number
JP2021196489A
JP2021196489A JP2020102659A JP2020102659A JP2021196489A JP 2021196489 A JP2021196489 A JP 2021196489A JP 2020102659 A JP2020102659 A JP 2020102659A JP 2020102659 A JP2020102659 A JP 2020102659A JP 2021196489 A JP2021196489 A JP 2021196489A
Authority
JP
Japan
Prior art keywords
map
robot
dimensional
map correction
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020102659A
Other languages
Japanese (ja)
Inventor
幸平 永田
Kohei Nagata
浩太郎 三舩
Kotaro Mifune
正人 中島
Masato Nakajima
陽 内藤
Akira Naito
康如 佐久間
Yasuyuki Sakuma
貴文 柿崎
Takafumi Kakizaki
享 松尾
Toru Matsuo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Original Assignee
Takenaka Komuten Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Komuten Co Ltd filed Critical Takenaka Komuten Co Ltd
Priority to JP2020102659A priority Critical patent/JP2021196489A/en
Publication of JP2021196489A publication Critical patent/JP2021196489A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a map correction system capable of improving accuracy of map data by the reflection of a real space situation.SOLUTION: A map correction system 100 detects differences or errors between maps and real spaces by using a robot self-position estimation result caused by the result of collation between three-dimensional or two-dimensional maps regulating a robot movable range in accordance with a structure in a space and a position of the structure, and, by using a detection result, corrects the maps so that the situation of the structure is reflected.SELECTED DRAWING: Figure 2

Description

本発明は、ロボットの制御に必要な地図情報の補正に関する。 The present invention relates to correction of map information necessary for controlling a robot.

従来、建設現場であっても自己の位置を推定するロボットの位置推定に係る技術が知られている(例えば、特許文献1)。この技術では、計測可能な施工対象物の施工データから抽出してマッピング情報を得て、計測データと、マッピング情報とに基づいて、空間内における自己位置を算出している。 Conventionally, a technique related to position estimation of a robot that estimates its own position even at a construction site is known (for example, Patent Document 1). In this technique, mapping information is obtained by extracting from the construction data of a measurable construction object, and the self-position in the space is calculated based on the measurement data and the mapping information.

また、移動空間内のレイアウトを変更しても容易に適用でき、導入コストが小さく、さらに、高速且つ正確に自己位置認識できる移動体に係る技術が知られている(例えば、特許文献2)。同様の技術として、移動体は自分の位置を推定し、指定された目的地まで自律的に移動制御可能として、移動体の位置を安定的に得る技術が知られている(例えば、特許文献3)。 Further, there is known a technique related to a moving body that can be easily applied even if the layout in the moving space is changed, the introduction cost is low, and the self-position can be recognized accurately at high speed (for example, Patent Document 2). As a similar technique, a technique is known in which a moving body estimates its own position and can autonomously control the movement to a designated destination to stably obtain the position of the moving body (for example, Patent Document 3). ).

また、建物の施工現場ならではの事情を考慮して、当該施工現場内で精度良く自己位置を推定することが可能な自律移動装置を提供する技術が知られている(例えば、特許文献4)。この技術では、建物のうち施工現場内に存在する複数の対象部位の形状データを取得し、図面データを参照し、複数の対象部位それぞれの寸法に関する情報に基づいて、複数の対象部位の中から基準対象部位を特定している。また、図面データに含まれる基準対象部位の位置と、形状データにおける実際の基準対象部位の位置との照合結果に基づいて、施工現場内における自己位置を推定している。 Further, in consideration of the circumstances unique to a building construction site, a technique for providing an autonomous mobile device capable of accurately estimating a self-position in the construction site is known (for example, Patent Document 4). With this technology, shape data of multiple target parts existing in the construction site of a building is acquired, drawing data is referred to, and based on information on the dimensions of each of the multiple target parts, from among multiple target parts. The reference target site is specified. In addition, the self-position in the construction site is estimated based on the collation result between the position of the reference target part included in the drawing data and the actual position of the reference target part in the shape data.

特開2018−164966号公報JP-A-2018-164966 特開2010−66934号公報Japanese Unexamined Patent Publication No. 2010-66934 特開2019−125354号公報Japanese Unexamined Patent Publication No. 2019-123544 特開2020−004231号公報Japanese Unexamined Patent Publication No. 2020-004231

上記特許文献1〜4に記載の技術によれば、実空間におけるロボットの自己位置を精度よく推定できる。このように精度よく自己位置を推定すれば、ロボットの経路上の移動が正確、かつ、スムーズに行えると考えられる。しかし、経路を示す地図上のデータと、実際の施工現場のデータとには差異が生じる場合がある。実際の施工現場は状況に応じて資材等の配置の変更、設計変更に伴う配置変更等、様々な変化が発生するからである。そのため、単にロボットの自己位置を正確に推定できるだけでは、ロボットの移動の正確性を担保できるわけではない。 According to the techniques described in Patent Documents 1 to 4, the self-position of the robot in the real space can be estimated accurately. If the self-position is estimated accurately in this way, it is considered that the robot can move accurately and smoothly on the path. However, there may be a difference between the data on the map showing the route and the data at the actual construction site. This is because various changes occur at the actual construction site, such as changes in the arrangement of materials, etc., and changes in the arrangement due to design changes, depending on the situation. Therefore, it is not possible to guarantee the accuracy of the robot's movement simply by accurately estimating the robot's self-position.

本発明は上記事実を考慮して、実空間の状況を反映して地図データの精度を向上させることを目的とする。 It is an object of the present invention to improve the accuracy of map data by reflecting the situation in real space in consideration of the above facts.

上記目的を達成するために、本発明の地図補正システムは、空間における構造物に応じたロボットの移動可能範囲を規定した三次元又は二次元の地図と、ロボットによる構造物の位置との照合結果による自己位置推定結果とを用いて、前記地図と実空間との差異又は誤差を検出し、検出結果を用いて、前記地図について、前記構造物の状況を反映するように補正する。これにより、実空間の状況を反映して地図データの精度を向上させることを可能とする。 In order to achieve the above object, the map correction system of the present invention collates a three-dimensional or two-dimensional map that defines the movable range of the robot according to the structure in space with the position of the structure by the robot. The difference or error between the map and the real space is detected by using the self-position estimation result by, and the map is corrected so as to reflect the situation of the structure by using the detection result. This makes it possible to improve the accuracy of the map data by reflecting the situation in the real space.

本発明によれば、実空間の状況を反映して地図データの精度を向上させることを可能とする、という効果が得られる。 According to the present invention, it is possible to improve the accuracy of the map data by reflecting the situation in the real space.

ロボット管理プラットフォームのイメージ図である。It is an image diagram of a robot management platform. 本発明の実施形態に係る地図補正システムの構成を示すブロック図である。It is a block diagram which shows the structure of the map correction system which concerns on embodiment of this invention. 障害物が除去された場合の差異の検出及び補正の一例を示す図である。It is a figure which shows an example of the detection and correction of the difference when an obstacle is removed. 障害物が新たに設置された場合の差異の検出及び補正の一例を示す図である。It is a figure which shows an example of the detection and correction of the difference when an obstacle is newly installed. 障害物が移動された場合の誤差の検出及び補正の一例を示す図である。It is a figure which shows an example of the detection and correction of an error when an obstacle is moved. 本発明の実施形態に係る地図補正装置における地図補正処理を示すシーケンス図である。It is a sequence diagram which shows the map correction processing in the map correction apparatus which concerns on embodiment of this invention.

[本発明の実施形態]
以下、図面を参照して、本発明の実施形態の地図補正システムについて説明する。
[Embodiment of the present invention]
Hereinafter, the map correction system according to the embodiment of the present invention will be described with reference to the drawings.

本発明の実施形態の概要を説明する。本発明の実施形態に係る手法では、三次元地図(又は二次元地図)と実空間におけるロボットの自己位置推定結果とを用いて、三次元地図と実空間との構造物の差異又は誤差を検出し、検出結果を用いて三次元地図を補正する。三次元地図とは、空間に配置された構造物配置された空間があり、ロボットが当該空間を移動することができる移動可能範囲が規定された環境地図である。三次元地図はロボットの種類ごとにBIMデータをもとにしたシミュレーションによって生成されている。実空間とは、建設現場等の実際にロボットが稼働する空間である。 An outline of the embodiment of the present invention will be described. In the method according to the embodiment of the present invention, the difference or error of the structure between the 3D map and the real space is detected by using the 3D map (or the 2D map) and the self-position estimation result of the robot in the real space. Then, the detection result is used to correct the 3D map. A three-dimensional map is an environmental map in which there is a space in which structures are arranged in a space, and a movable range in which a robot can move in the space is defined. The three-dimensional map is generated by a simulation based on BIM data for each type of robot. The real space is a space where a robot actually operates, such as a construction site.

また、本手法の前提として、ロボットは、SLAM(Simultaneous Localization and Mapping)という自己位置推定の手法を利用する。SLAMとは、ロボットのセンサで周辺の環境を認識すると同時に、自己の位置及び姿勢を精度よく推定する技術であり、自己の位置を推定すると同時に環境地図を生成する。SLAMにおいては、ロボットは複数のセンサを組み合わせて環境認識を行う。センサはロボットによって様々であるが、測距センサ、カメラ、ジャイロセンサ、磁気センサ、加速度センサ、レーダーセンサ(スキャナ)、バンパーセンサ等を用いる。センサを利用した自己位置推定の一例として、掃除を目的とする四輪駆動ロボット(以下、掃除用ロボット)の例を説明する。例えば、掃除用ロボットはセンサ情報として、レーザースキャナ、及びバンパーセンサを有する。レーザースキャナは周囲の壁及び障害物を検出するセンサであり、レーザースキャナを用いることで、掃除する領域の四隅に置かれた反射マーカーを検出することにより掃除領域を判断できる。また、掃除用ロボットは反射マーカーで囲われた掃除領域内のゴミが全て掃除できるような経路で掃除領域内を移動するため、移動経路は掃除領域内に自動生成できる。バンパーセンサは、障害物に接触したことを検出するセンサであり、掃除領域内の障害物を検知して回避する。 Further, as a premise of this method, the robot uses a self-position estimation method called SLAM (Simultaneous Localization and Mapping). SLAM is a technology that recognizes the surrounding environment with a robot sensor and at the same time estimates its own position and posture with high accuracy. It estimates its own position and at the same time generates an environmental map. In SLAM, the robot combines a plurality of sensors to recognize the environment. The sensor varies depending on the robot, but a distance measuring sensor, a camera, a gyro sensor, a magnetic sensor, an acceleration sensor, a radar sensor (scanner), a bumper sensor and the like are used. As an example of self-position estimation using a sensor, an example of a four-wheel drive robot (hereinafter referred to as a cleaning robot) for cleaning will be described. For example, the cleaning robot has a laser scanner and a bumper sensor as sensor information. The laser scanner is a sensor that detects surrounding walls and obstacles, and by using the laser scanner, the cleaning area can be determined by detecting the reflection markers placed at the four corners of the area to be cleaned. Further, since the cleaning robot moves in the cleaning area by a route that can clean all the dust in the cleaning area surrounded by the reflective marker, the movement route can be automatically generated in the cleaning area. The bumper sensor is a sensor that detects contact with an obstacle, and detects and avoids an obstacle in the cleaning area.

ロボットは、自己位置推定によって絶えず自己位置における周囲の状況を監視しながら移動を行う。ロボットは自己位置推定において、センサによって実空間の構造物の位置を照合し、照合結果により自己位置推定結果を求める。ここで、三次元地図の空間と実空間とでは差異又は誤差が生じうる。具体的には、実空間の施工現場にある構造物と、シミュレーションにより求めた三次元地図に含まれる構造物とには差異又は誤差が生じうる。空間において想定される構造物は、固定された構造物の場合もあれば、移動が可能な構造物の場合もある。このような移動可能な構造物は、設置物、建設現場の資材、建設用具等が挙げられる。そのため、実空間の建設現場において、移動可能な構造物に関しては、移動、追加、及び使用等により配置が変わってくる。このような場合に、実空間の構造物と三次元地図に含まれる構造物とには差異又は誤差が生じる。差異とは、配置されている構造物が追加又は除去されて、空間中の構造物の数、及び配置が、三次元地図とは異なっている状況である。誤差とは、三次元地図に配置されていた構造物の配置がずれている状況である。本実施形態では、これらの差異又は誤差を、三次元地図及び自己位置推定結果を用いて検出する。そして検出結果によって三次元地図中に構造物の状況を反映するように三次元地図の構造物の配置を補正する。これにより三次元地図に含まれる構造物の座標情報を修正し、ロボットの制御のための地図データの精度を向上させることを可能とする。また、三次元の地図上で捉えた三次元データとしての構造物の配置だけではなく、二次元の点群データの精度更新としても実現可能である。通常SLAMは二次元で処理されるため、BIMの三次元データから抽出されたロボット走行用の地図データが二次元地図の場合は、二次元データを更新する。また、実際に検出されたデータは、建物施工中は、実際の状況に応じて更新する、一方で、竣工後は、元のBIMデータを使用するため、利用する地図データを、現状のデータか又は元データかを選択できるように管理している。以上のこれに伴い、以下に説明する各種ロボットを管理するロボット管理システムの精度の向上を可能とする。 The robot moves while constantly monitoring the surrounding conditions at its own position by self-position estimation. In self-position estimation, the robot collates the position of a structure in real space with a sensor, and obtains the self-position estimation result from the collation result. Here, a difference or an error may occur between the space of the three-dimensional map and the real space. Specifically, there may be a difference or error between the structure at the construction site in the real space and the structure included in the three-dimensional map obtained by simulation. The structure assumed in space may be a fixed structure or a movable structure. Examples of such movable structures include installations, construction site materials, construction tools and the like. Therefore, at a construction site in a real space, the arrangement of movable structures changes depending on movement, addition, use, and the like. In such a case, a difference or an error occurs between the structure in the real space and the structure contained in the three-dimensional map. The difference is a situation in which the arranged structures are added or removed, and the number and arrangement of the structures in the space are different from those of the three-dimensional map. An error is a situation in which the arrangement of structures arranged on a three-dimensional map is misaligned. In this embodiment, these differences or errors are detected by using a three-dimensional map and a self-position estimation result. Then, the arrangement of the structures on the 3D map is corrected so as to reflect the situation of the structures in the 3D map according to the detection result. This makes it possible to correct the coordinate information of the structure included in the three-dimensional map and improve the accuracy of the map data for controlling the robot. Further, it can be realized not only as the arrangement of the structure as the three-dimensional data captured on the three-dimensional map but also as the accuracy update of the two-dimensional point cloud data. Since SLAM is usually processed in two dimensions, if the map data for robot running extracted from the three-dimensional data of BIM is a two-dimensional map, the two-dimensional data is updated. In addition, the actually detected data is updated according to the actual situation during the construction of the building, while the original BIM data is used after the completion, so the map data to be used is the current data. Or it is managed so that it can be selected from the original data. Along with this, it is possible to improve the accuracy of the robot management system that manages various robots described below.

ここで、本実施形態の前提となるロボット管理プラットフォームについて説明する。図1はロボット管理プラットフォームのイメージ図である。図1に示すように、ロボット管理プラットフォームは、クラウド環境でロボットの管理を行うためのプラットフォームである。ロボット管理プラットフォームにはロボットを管理するための機能を実行するプログラムが各種モジュールとして実装されており、モジュールを適宜連携させて必要な処理を行う。これによりロボット管理プラットフォームは、ロボットによる施工作業のオートメーション化を実現する。図1に示したモジュールの一覧はあくまで機能的な手段の一例を示しており、これらの例に限定されない。このようなロボット管理プラットフォームを活用することにより、煩わしいロボット操作のための設定作業などを極力なくすことに繋がる。また、施工対象のBIM(Building Information Modeling)データをもとにロボットの自己位置を推定することで、現場担当者はBIMデータを参照してロボットの指示ができるようになるため、直感的な操作を現場担当者に提供できる。また、遠隔操作におけるロボットの状態監視など、施工時に必要な機能をプラットフォームのサービスとして展開できる。 Here, the robot management platform that is the premise of this embodiment will be described. FIG. 1 is an image diagram of a robot management platform. As shown in FIG. 1, the robot management platform is a platform for managing robots in a cloud environment. Programs that execute functions for managing robots are implemented as various modules on the robot management platform, and the modules are linked as appropriate to perform necessary processing. As a result, the robot management platform realizes automation of construction work by robots. The list of modules shown in FIG. 1 shows only an example of functional means, and is not limited to these examples. By utilizing such a robot management platform, it is possible to eliminate the troublesome setting work for robot operation as much as possible. In addition, by estimating the robot's self-position based on the BIM (Building Information Modeling) data to be constructed, the person in charge at the site can refer to the BIM data and give instructions to the robot, so intuitive operation is possible. Can be provided to field personnel. In addition, functions required for construction, such as monitoring the status of robots by remote control, can be developed as a platform service.

図1に示したロボット管理プラットフォームにおいて、本実施形態の手法は、例えば種にSLAM・BIMデータ連携に用いられる。また、ロボット運行管理、経路シミュレーション、データ蓄積・可視化等への活用も可能である。これらのモジュールの機能において、ロボットが移動する際の実空間での制御を最適化し、性能向上を図るための手法という位置付けである。 In the robot management platform shown in FIG. 1, the method of this embodiment is used, for example, for SLAM / BIM data linkage. It can also be used for robot operation management, route simulation, data storage / visualization, etc. In the functions of these modules, it is positioned as a method for optimizing the control in real space when the robot moves and improving the performance.

図2は、本発明の実施形態に係る地図補正システムの構成を示すブロック図である。図2に示すように、地図補正システム100は、地図補正装置110と、端末140と、複数のロボット150とが、ネットワークNを介して接続されている。ネットワークNは、例えば、インターネット回線、又は公衆無線LAN等である。 FIG. 2 is a block diagram showing a configuration of a map correction system according to an embodiment of the present invention. As shown in FIG. 2, in the map correction system 100, the map correction device 110, the terminal 140, and the plurality of robots 150 are connected via the network N. The network N is, for example, an internet line, a public wireless LAN, or the like.

端末140は、ロボット150の制御入力データの入力、ロボット150の自己位置推定結果の確認、補正された三次元地図の確認等を行う端末である。制御入力データとは、例えば目的地、運搬対象等を含む情報である。なお、端末140は、各種担当が操作する端末であり、地図補正装置110の処理に必要な入出力を行う。ここでの各種担当は上述のロボット管理プラットフォームに当てはめられる。例えば、本実施形態では、ロボットの遠隔操作を担っている「現場担当」、又は経路シミュレーションを担っている「機材管理担当者」が運用に応じた担当となる。端末140のログイン時に各種担当に応じた権限が振り分けられているが、地図補正システム100の主たる処理でないためここでは説明は省略する。 The terminal 140 is a terminal that inputs control input data of the robot 150, confirms the self-position estimation result of the robot 150, confirms a corrected three-dimensional map, and the like. The control input data is information including, for example, a destination, a transportation target, and the like. The terminal 140 is a terminal operated by various persons in charge, and performs input / output necessary for processing of the map correction device 110. The various responsibilities here apply to the robot management platform described above. For example, in the present embodiment, the "on-site person in charge" who is in charge of remote control of the robot or the "equipment management person" who is in charge of route simulation is in charge according to the operation. Although the authority is assigned according to the person in charge when the terminal 140 is logged in, the description is omitted here because it is not the main process of the map correction system 100.

ロボット150は、制御対象とする複数のロボットであり、各種センサを備えている。また、ロボット150は、制御情報を受け付け、自己位置推定を行いながら制御情報に含まれる経路を移動する。ロボット150は、一定間隔で現在地点、及び自己位置推定結果を地図補正装置110に送信する。なお、ロボット150は、ロボット環境プラットフォームのシミュレーション環境にエージェントとして種類ごとに実装されており動作エミュレートが可能である。本実施形態では予め動作エミュレートにより、移動可能範囲を規定した三次元地図が生成されている。また、後述する経路生成部114の経路シミュレーションにより、三次元地図上のロボット150の経路生成が行われる。なお、本実施形態では三次元地図を用いる場合を例に説明するが、上述したように二次元地図にも同様に適用可能である。 The robot 150 is a plurality of robots to be controlled and includes various sensors. Further, the robot 150 receives the control information and moves the route included in the control information while performing self-position estimation. The robot 150 transmits the current position and the self-position estimation result to the map correction device 110 at regular intervals. The robot 150 is mounted as an agent in the simulation environment of the robot environment platform for each type, and can emulate the operation. In this embodiment, a three-dimensional map that defines the movable range is generated in advance by emulating the movement. Further, the route generation of the robot 150 on the three-dimensional map is performed by the route simulation of the route generation unit 114 described later. In this embodiment, a case where a three-dimensional map is used will be described as an example, but as described above, it can be similarly applied to a two-dimensional map.

地図補正装置110は、通信部112と、経路生成部114と、検出部116と、地図補正部118と、記憶部120とを含んで構成されている。また、地図補正装置110は、CPUと、RAMと、各処理部を実行するためのプログラム及び各種データを記憶したROMと、を含むコンピュータで構成することができる(図示省略)。本実施形態の地図補正装置110は、上述した図1のロボット管理プラットフォームの一部の機能をモジュール化して構築したサーバであり、各機能部は機能の一例である。 The map correction device 110 includes a communication unit 112, a route generation unit 114, a detection unit 116, a map correction unit 118, and a storage unit 120. Further, the map correction device 110 can be configured by a computer including a CPU, a RAM, a ROM for storing a program for executing each processing unit, and various data (not shown). The map correction device 110 of the present embodiment is a server constructed by modularizing a part of the functions of the robot management platform of FIG. 1 described above, and each functional unit is an example of the functions.

通信部112は、端末140及びロボット150との通信により各種データの送受信を行う。例えば、通信部112は、端末140から三次元地図を受け付け記憶部120に格納する。通信部112は、端末140からロボット150の制御入力データを受け付ける。通信部112は、ロボット150から定期的に現在地点を受け付ける。通信部112は、ロボット150から自己位置推定結果を受け付ける。また、通信部112は、ロボット150に制御情報を送信する。 The communication unit 112 transmits and receives various data by communicating with the terminal 140 and the robot 150. For example, the communication unit 112 receives a three-dimensional map from the terminal 140 and stores it in the storage unit 120. The communication unit 112 receives the control input data of the robot 150 from the terminal 140. The communication unit 112 periodically receives the current position from the robot 150. The communication unit 112 receives the self-position estimation result from the robot 150. Further, the communication unit 112 transmits control information to the robot 150.

記憶部120には、端末140から受け付けた三次元地図の各々が格納される。三次元地図は、ロボットの空間における移動可能範囲が規定されている。また、記憶部120には、経路生成部114により生成されたロボット150の経路が格納される。また、記憶部120には、補正された三次元地図が格納される。 Each of the three-dimensional maps received from the terminal 140 is stored in the storage unit 120. The 3D map defines the range of movement of the robot in space. Further, the storage unit 120 stores the route of the robot 150 generated by the route generation unit 114. Further, the corrected three-dimensional map is stored in the storage unit 120.

経路生成部114は、端末140から受け付けたロボット150の制御入力データに従って、記憶部120の三次元地図における当該ロボット150の経路を生成する。そして、三次元地図の経路を含む制御情報をロボット150に送信する。また、ここで生成される経路を含む制御情報は、始発地点から制御入力データに含まれる目的地までの経路及び必要作業工程を含む情報とする。始発地点はロボット150から受け付けている最新の現在地点とする。 The route generation unit 114 generates the route of the robot 150 in the three-dimensional map of the storage unit 120 according to the control input data of the robot 150 received from the terminal 140. Then, the control information including the route of the three-dimensional map is transmitted to the robot 150. Further, the control information including the route generated here is information including the route from the starting point to the destination included in the control input data and the necessary work process. The starting point is the latest current position received from the robot 150.

検出部116は、記憶部120の三次元地図と、ロボット150から受け付けた自己位置推定結果とを用いて、三次元地図と実空間との差異又は誤差を検出する。 The detection unit 116 detects the difference or error between the three-dimensional map and the real space by using the three-dimensional map of the storage unit 120 and the self-position estimation result received from the robot 150.

地図補正部118は、検出部116の検出結果を用いて、記憶部120の三次元地図について、構造物の状況を反映するように補正する。 The map correction unit 118 corrects the three-dimensional map of the storage unit 120 so as to reflect the state of the structure by using the detection result of the detection unit 116.

ここで、検出部116による検出及び地図補正部118による補正の具体例について説明する。図3は、障害物が除去された場合の差異の検出及び補正の一例を示す図である。図3に示す例では、三次元地図の空間において、移動可能範囲として掃除エリア及び掃除不可エリアが設定されているとする。掃除エリアは、掃除用ロボットの経路にあたり、障害物がない領域に設定されている。また、掃除不可エリアは障害物が存在するエリアで掃除ができない領域に任意に設定されている。これらの設定は三次元地図の生成の段階で予め設定されているとする。ここで、実空間において掃除用ロボットを稼働させ、自己位置推定結果において、障害物が除去されている空間上の差異を検出したとする。この場合、地図補正部118は、除去された障害物の検出結果を用いて、三次元地図を補正する。また、経路生成部114は、新たな掃除エリアを設定すると共に経路を生成する。このように、障害物が新たに設置された場合には、移動可能範囲が広がるように三次元地図が補正される。 Here, specific examples of detection by the detection unit 116 and correction by the map correction unit 118 will be described. FIG. 3 is a diagram showing an example of detection and correction of a difference when an obstacle is removed. In the example shown in FIG. 3, it is assumed that a cleaning area and a non-cleanable area are set as a movable range in the space of the three-dimensional map. The cleaning area corresponds to the path of the cleaning robot and is set in an area where there are no obstacles. In addition, the non-cleanable area is arbitrarily set as an area where obstacles exist and cannot be cleaned. It is assumed that these settings are preset at the stage of generating the three-dimensional map. Here, it is assumed that the cleaning robot is operated in the real space and the difference in the space where the obstacle is removed is detected in the self-position estimation result. In this case, the map correction unit 118 corrects the three-dimensional map by using the detection result of the removed obstacle. In addition, the route generation unit 114 sets a new cleaning area and generates a route. In this way, when an obstacle is newly installed, the three-dimensional map is corrected so that the movable range is widened.

障害物が新たに設置された場合、又は障害物が移動された場合についても検出及び補正は同様に行える。図4は、障害物が新たに設置された場合の差異の検出及び補正の一例を示す図である。図4に示すように、障害物が新たに設置された場合には、移動可能範囲が狭まるように三次元地図が補正される。図5は、障害物が移動された場合の誤差の検出及び補正の一例を示す図である。図5に示すように、障害物が移動された場合(又はずれている場合)には、移動可能範囲を調整するように三次元地図が補正される。以上のように、リアルタイムな状況を三次元地図にフィードバックし、ロボットの通行可能な経路を再生成できる。 Detection and correction can be performed in the same way when an obstacle is newly installed or when the obstacle is moved. FIG. 4 is a diagram showing an example of detection and correction of a difference when an obstacle is newly installed. As shown in FIG. 4, when an obstacle is newly installed, the three-dimensional map is corrected so that the movable range is narrowed. FIG. 5 is a diagram showing an example of error detection and correction when an obstacle is moved. As shown in FIG. 5, when the obstacle is moved (or is displaced), the 3D map is corrected so as to adjust the movable range. As described above, the real-time situation can be fed back to the three-dimensional map to regenerate the path that the robot can pass.

次に、本発明の実施形態の地図補正装置110の作用について説明する。図6は、本発明の実施形態に係る地図補正装置110における地図補正処理を示すシーケンス図である。CPUがROMからプログラム及び各種データを読み出して実行することにより、地図補正処理が行なわれる。CPUが、地図補正装置110の各部として機能する。なお、予め端末140から受け付けた三次元地図が記憶部120に予め格納されているとする。また、ロボット150から定期的に現在地点を受け付けている。また、地図補正装置110の各種情報の送受信について各機能部が行っているとする説明については、通信部112を介して行っているとする。 Next, the operation of the map correction device 110 according to the embodiment of the present invention will be described. FIG. 6 is a sequence diagram showing a map correction process in the map correction device 110 according to the embodiment of the present invention. The map correction process is performed by the CPU reading the program and various data from the ROM and executing the program. The CPU functions as each part of the map correction device 110. It is assumed that the three-dimensional map received from the terminal 140 in advance is stored in the storage unit 120 in advance. In addition, the current location is periodically accepted from the robot 150. Further, it is assumed that the explanation that each functional unit performs the transmission / reception of various information of the map correction device 110 is performed via the communication unit 112.

ステップS100では、端末140がロボット150の制御入力データを地図補正装置110に送信する。制御入力データにおいては特定のロボット150が指定されている。 In step S100, the terminal 140 transmits the control input data of the robot 150 to the map correction device 110. A specific robot 150 is specified in the control input data.

ステップS102では、経路生成部114が、制御入力データに従って、記憶部120の指定されたロボット150に対応した三次元地図における経路を生成し、経路を含む制御情報を生成する。 In step S102, the route generation unit 114 generates a route in the three-dimensional map corresponding to the designated robot 150 of the storage unit 120 according to the control input data, and generates control information including the route.

ステップS104では、経路生成部114が、制御情報をロボット150に送信する。 In step S104, the route generation unit 114 transmits control information to the robot 150.

ステップS106では、ロボット150が、受け付けた参照エリアを含む制御情報に従って、自己位置推定を行いつつ移動する。 In step S106, the robot 150 moves while performing self-position estimation according to the control information including the received reference area.

ステップS108では、ロボット150が、自己位置推定結果を地図補正装置110に送信する。 In step S108, the robot 150 transmits the self-position estimation result to the map correction device 110.

ステップS110では、検出部116が、記憶部120の三次元地図と、ロボット150から受信した自己位置推定結果とを用いて、差異又は誤差を検出する。 In step S110, the detection unit 116 detects a difference or an error using the three-dimensional map of the storage unit 120 and the self-position estimation result received from the robot 150.

ステップS112では、地図補正部118が、ステップS110の検出結果を用いて、記憶部120の三次元地図を補正する。 In step S112, the map correction unit 118 corrects the three-dimensional map of the storage unit 120 by using the detection result of step S110.

ステップS114では、経路生成部114が、補正された三次元地図を用いて、経路を再生成し、経路を含む制御情報をロボット150に送信する。以降、ロボット150が目的地に到着するまでステップS106からの処理に移行して地図補正処理を行う。 In step S114, the route generation unit 114 regenerates the route using the corrected three-dimensional map, and transmits control information including the route to the robot 150. After that, the process proceeds from step S106 to perform map correction processing until the robot 150 arrives at the destination.

以上、説明したように、本発明の実施形態に係る地図補正システム100によれば、実空間の状況を反映して地図データの精度を向上させることを可能とする。 As described above, according to the map correction system 100 according to the embodiment of the present invention, it is possible to improve the accuracy of the map data by reflecting the situation in the real space.

なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the gist of the present invention.

例えば、実空間と、三次元地図の空間とに差異又は誤差があることを検出した場合には、構造物の三次元的形状を精緻に捉えた補正を行うために、他の作業が空いているロボットに対して、構造物の形状を推定するための計測を指示するようにしてもよい。なぜならば、上記のロボットは自身の作業の移動における自己位置推定の結果として、構造物を付随的に捕捉しているに過ぎず、一部の状況しか捕捉できない場合も想定されるからである。指示を受けたロボット150は、差異又は周囲を巡回するように移動を行い、自己位置推定結果を地図補正装置110に送信する。地図補正装置110では、上記の制つめ意図同様の検出部116及び地図補正部118の処理を行い、構造物の形状を捉えた三次元地図の補正を行う。以上のように、差異又は誤差の検出された構造物の全体像を捉えるための作業を他のロボットに行わせることで、実空間における構造物の状況を正確に三次元地図に反映することができるようになる。 For example, if it is detected that there is a difference or error between the real space and the space of the 3D map, other work is available to make corrections that accurately capture the 3D shape of the structure. You may instruct the robot to make measurements to estimate the shape of the structure. This is because it is assumed that the above-mentioned robot only incidentally captures the structure as a result of self-position estimation in the movement of its own work, and can capture only a part of the situation. Upon receiving the instruction, the robot 150 moves so as to circulate around the difference or the surroundings, and transmits the self-position estimation result to the map correction device 110. The map correction device 110 performs the processing of the detection unit 116 and the map correction unit 118 similar to the above-mentioned control intention, and corrects the three-dimensional map that captures the shape of the structure. As described above, by having other robots perform the work to capture the whole image of the structure in which the difference or error is detected, it is possible to accurately reflect the situation of the structure in the real space on the 3D map. become able to.

100 地図補正システム
110 地図補正装置
112 通信部
114 経路生成部
116 検出部
118 地図補正部
120 記憶部
140 端末
150 ロボット
100 Map correction system 110 Map correction device 112 Communication unit 114 Route generation unit 116 Detection unit 118 Map correction unit 120 Storage unit 140 Terminal 150 Robot

Claims (4)

空間における構造物に応じたロボットの移動可能範囲を規定した三次元又は二次元の地図と、ロボットによる構造物の位置との照合結果による自己位置推定結果とを用いて、前記地図と実空間との差異又は誤差を検出し、
検出結果を用いて、前記地図について、前記構造物の状況を反映するように補正する、
地図補正システム。
Using a three-dimensional or two-dimensional map that defines the movable range of the robot according to the structure in space and the self-position estimation result based on the collation result with the position of the structure by the robot, the map and the real space Detects differences or errors in
Using the detection result, the map is corrected to reflect the situation of the structure.
Map correction system.
前記補正は、前記構造物の形状を反映するように補正する請求項1に記載の地図補正システム。 The map correction system according to claim 1, wherein the correction is made so as to reflect the shape of the structure. 前記構造物の形状を特定するために、他のロボットに前記構造物の形状を検出するように指示を行う請求項1又は請求項2に記載の地図補正システム。 The map correction system according to claim 1 or 2, wherein in order to specify the shape of the structure, another robot is instructed to detect the shape of the structure. 空間における構造物に応じたロボットの移動可能範囲を規定した三次元又は二次元の地図と、ロボットによる構造物の位置との照合結果による自己位置推定結果とを用いて、前記地図と実空間との差異又は誤差を検出し、
検出結果を用いて、前記地図について、前記構造物の状況を反映するように補正する、
処理をコンピュータに実行させる地図補正プログラム。
Using a three-dimensional or two-dimensional map that defines the movable range of the robot according to the structure in space and the self-position estimation result based on the collation result with the position of the structure by the robot, the map and the real space Detects differences or errors in
Using the detection result, the map is corrected to reflect the situation of the structure.
A map correction program that causes a computer to perform processing.
JP2020102659A 2020-06-12 2020-06-12 Map correction system, and map correction program Pending JP2021196489A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020102659A JP2021196489A (en) 2020-06-12 2020-06-12 Map correction system, and map correction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020102659A JP2021196489A (en) 2020-06-12 2020-06-12 Map correction system, and map correction program

Publications (1)

Publication Number Publication Date
JP2021196489A true JP2021196489A (en) 2021-12-27

Family

ID=79197934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020102659A Pending JP2021196489A (en) 2020-06-12 2020-06-12 Map correction system, and map correction program

Country Status (1)

Country Link
JP (1) JP2021196489A (en)

Similar Documents

Publication Publication Date Title
US11373395B2 (en) Methods and systems for simultaneous localization and calibration
KR102342152B1 (en) Methods and systems for creating and aligning environment maps
JP6811258B2 (en) Position measurement of robot vehicle
EP3610284B1 (en) Determination of localization viability metrics for landmarks
JP6853832B2 (en) Position measurement using negative mapping
US6496755B2 (en) Autonomous multi-platform robot system
CN108958250A (en) Multisensor mobile platform and navigation and barrier-avoiding method based on known map
JP5429901B2 (en) Robot and information processing apparatus program
KR20190003970A (en) Multi-agent coordination under sparse networking
JP2021196489A (en) Map correction system, and map correction program
JP7503426B2 (en) Map conversion system and map conversion program
CN114571460A (en) Robot control method, device and storage medium
US20230419546A1 (en) Online camera calibration for a mobile robot
Skrzypczyński Uncertainty models of vision sensors in mobile robot positioning
JP2021196488A (en) Map update system and map update program
JP2022065749A (en) Control system for movable body
Schmitt et al. Virtual reality-based navigation of a mobile robot
Schmitt et al. A mobile robot control centre for mission and data management
Harris et al. Assessment of a visually guided autonomous exploration robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241011