JP2017198517A - Three dimensional map generation system - Google Patents

Three dimensional map generation system Download PDF

Info

Publication number
JP2017198517A
JP2017198517A JP2016088826A JP2016088826A JP2017198517A JP 2017198517 A JP2017198517 A JP 2017198517A JP 2016088826 A JP2016088826 A JP 2016088826A JP 2016088826 A JP2016088826 A JP 2016088826A JP 2017198517 A JP2017198517 A JP 2017198517A
Authority
JP
Japan
Prior art keywords
map
dimensional
matching
data
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016088826A
Other languages
Japanese (ja)
Inventor
サイキ ルイス ヨウイチ モラレス
Saiki Luis Yoichi Morales
サイキ ルイス ヨウイチ モラレス
ヤニ エヴァン
Even Jani
ヤニ エヴァン
フローラン フェレリ
Flolan Ferreri
フローラン フェレリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2016088826A priority Critical patent/JP2017198517A/en
Publication of JP2017198517A publication Critical patent/JP2017198517A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a three dimensional map.SOLUTION: A three dimensional map generation system 10 includes a robot 12 and a remote control device 14, and while moving the robot by using the remote control device, and scans its circumference by using a three dimensional laser ranging system 28, so as to obtain scanned data (data set). The three dimensional map generation system generates a two dimensional grid map by using a plurality of data sets (S1), matches the two dimensional grid map with a prescribed three dimensional coordinate system (S5), corrects positional deviations in the three dimensional coordinate system of all the points in the data set, and plots each point of a three dimensional map of a voxel form (S41). Then a three dimensional map is generated.SELECTED DRAWING: Figure 1

Description

この発明は、3次元地図生成システムに関し、特に、たとえば移動ロボットに搭載した3次元レーザ距離計で獲得した3次元スキャンデータを用いて3次元地図を生成する、3次元地図生成システムに関する。   The present invention relates to a three-dimensional map generation system, and more particularly to a three-dimensional map generation system that generates a three-dimensional map using, for example, three-dimensional scan data acquired by a three-dimensional laser rangefinder mounted on a mobile robot.

特許文献1には、レーザレンジファインダ(LRF:Laser Range Finder)のようなレーザ距離計による距離データを、計測時の移動体の位置および向きを基準とする位置データに変換し、その位置データを所定のルールに従って複数のクラスタにクラスタリングし、条件を満たさないクラスタを消去することによって、不要な位置データを消去して、必要な位置データだけで地図を作成する方法が開示されている。   In Patent Document 1, distance data obtained by a laser rangefinder such as a laser range finder (LRF) is converted into position data based on the position and orientation of a moving body at the time of measurement, and the position data is converted into position data. A method of creating a map with only necessary position data by erasing unnecessary position data by clustering into a plurality of clusters according to a predetermined rule and erasing clusters that do not satisfy the conditions is disclosed.

特開2014‐174275 [G09B 29/00 G06T 11/60 …]JP 2014-174275 [G09B 29/00 G06T 11/60 ...]

特許文献1では、3次元地図については考慮されていない。   In Patent Document 1, a three-dimensional map is not considered.

それゆえに、この発明の主たる目的は、新規な、3次元地図生成システムを提供することである。   Therefore, a main object of the present invention is to provide a novel three-dimensional map generation system.

この発明の他の目的は、3次元地図を容易に生成できる、3次元地図生成システムを提供することである。   Another object of the present invention is to provide a 3D map generation system that can easily generate a 3D map.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、移動体、移動体に搭載される全方位レーザ距離計、全方位レーザ距離計によるスキャンで得られるデータセットに基づいて2次元グリッド地図を生成する2次元地図生成手段、2次元グリッド地図を所定の3次元座標系に整合する整合手段、データセットの各点を移動体の位置および方向に基づいて3次元座標系に変換する変換手段、3次元座標系に変換された各点を時系列のデータセットに従ってマッチングするマッチング手段、およびマッチングした各点をボクセル地図に書き込んで3次元地図を生成する生成手段を備える、3次元地図生成システムである。   The first invention is a mobile object, an omnidirectional laser distance meter mounted on the mobile object, a two-dimensional map generation means for generating a two-dimensional grid map based on a data set obtained by scanning with the omnidirectional laser distance meter, Matching means for matching the three-dimensional grid map with a predetermined three-dimensional coordinate system, conversion means for converting each point of the data set into a three-dimensional coordinate system based on the position and direction of the moving body, and each of the points converted into the three-dimensional coordinate system A 3D map generation system comprising: matching means for matching points according to a time-series data set; and generation means for writing each matched point to a voxel map to generate a 3D map.

第1の発明では、3次元地図生成システム(10:実施例において相当する部分を例示する参照符号。以下同様。)は、たとえば遠隔操作装置(14)によって移動を制御される移動体(12)を備え、その移動体にたとえば全方位レーザレンジファインダのような全方位レーザ距離計(28)が搭載される。移動体が移動されるとき、全方位レーザ距離計によるスキャンが行われ、それによって得られるデータセットに基づいて、2次元地図生成手段(30、S1)が2次元グリッド地図を生成する。整合手段(30、S5)が、2次元グリッド地図を所定の3次元座標系に整合する。変換手段(30、S25)が、データセットの各点を移動体の位置および方向に基づいて3次元座標系に変換する。マッチング手段(30、S27‐S39)が3次元座標系に変換された各点を時系列のデータセットに従ってマッチングする。それによって、各点(Pj)が3次元座標系の正しい位置に位置合わせされる。生成手段(30、S41)が、マッチングした各点をボクセル地図に書き込んで3次元地図を生成する。   In the first invention, the three-dimensional map generation system (10: reference numerals exemplifying corresponding parts in the embodiment; the same applies hereinafter) is a moving body (12) whose movement is controlled by, for example, a remote control device (14). The omnidirectional laser rangefinder (28) such as an omnidirectional laser range finder is mounted on the moving body. When the moving body is moved, scanning with an omnidirectional laser rangefinder is performed, and the two-dimensional map generation means (30, S1) generates a two-dimensional grid map based on the data set obtained thereby. The matching means (30, S5) matches the two-dimensional grid map with a predetermined three-dimensional coordinate system. The conversion means (30, S25) converts each point of the data set into a three-dimensional coordinate system based on the position and direction of the moving object. A matching means (30, S27-S39) matches each point converted to the three-dimensional coordinate system according to a time-series data set. Thereby, each point (Pj) is aligned with the correct position in the three-dimensional coordinate system. A generation means (30, S41) writes each matched point on the voxel map to generate a three-dimensional map.

第1の発明によれば、全方位レーザ距離計のスキャンデータから、容易に、3次元地図が生成できる。   According to the first invention, a three-dimensional map can be easily generated from scan data of an omnidirectional laser rangefinder.

第2の発明は、第1の発明に従属し、マッチング手段は、3次元座標系における平面内に含まれる特定の点のマッチングを行い、その結果に従って残りの点をマッチングする、3次元地図生成システムである。   A second invention is dependent on the first invention, and the matching means matches a specific point included in a plane in a three-dimensional coordinate system, and matches the remaining points according to the result. System.

第2の発明では、マッチング手段(S27‐S39)は、3次元座標系における平面内に含まれる特定の点(Pl,Pk)のマッチングを行い(S27‐S37)、その結果に従って残りの点をマッチングする(S39)。   In the second invention, the matching means (S27-S39) performs matching of specific points (P1, Pk) included in the plane in the three-dimensional coordinate system (S27-S37), and the remaining points are determined according to the result. Matching is performed (S39).

第2の発明によれば、まず特定の点だけを用いてマッチングを行うことによって、所要時間を短縮できるだけでなく、マッチングの精度が向上する。   According to the second invention, by first performing matching using only a specific point, not only the required time can be shortened, but also the matching accuracy is improved.

第3の発明は、第1または第2の発明に従属し、3次元地図のデータを蓄積する蓄積手段、および蓄積手段によって蓄積している複数の3次元地図に基づいて合成3次元地図を生成する合成地図生成手段をさらに備える、3次元地図生成システムである。   A third invention is dependent on the first or second invention, and generates a synthesized three-dimensional map based on a storage means for storing data of a three-dimensional map and a plurality of three-dimensional maps stored by the storage means A three-dimensional map generation system further comprising a synthetic map generation means.

第3の発明では、蓄積手段(72)が、生成手段(S41)が生成した3次元地図のデータを蓄積しておき、合成地図生成手段(30、S11、S13、S51‐S61)は、典型的には時系列に従った順次の3次元地図に基づいて、合成3次元地図を生成する。   In the third invention, the storage means (72) stores the three-dimensional map data generated by the generation means (S41), and the composite map generation means (30, S11, S13, S51-S61) Specifically, a composite three-dimensional map is generated based on a sequential three-dimensional map according to a time series.

第3の発明によれば、合成3次元地図が生成できる。   According to the third aspect of the invention, a synthetic 3D map can be generated.

第4の発明は、移動体および移動体に搭載される全方位レーザ距離計を備える3次元地図生成システムのコンピュータによって実行され、コンピュータを、全方位レーザ距離計によるスキャンで得られるデータセットに基づいて2次元グリッド地図を生成する2次元地図生成手段、2次元グリッド地図を所定の3次元座標系に整合する整合手段、
データセットの各点を移動体の位置および方向に基づいて3次元座標系に変換する変換手段、3次元座標系に変換された各点を時系列のデータセットに従ってマッチングするマッチング手段、およびマッチングした各点をボクセル地図に書き込んで3次元地図を生成する生成手段して機能させる、3次元地図生成プログラムである。
4th invention is performed by the computer of the three-dimensional map production | generation system provided with the moving body and the omnidirectional laser rangefinder mounted in a moving body, and a computer is based on the data set obtained by the scan by an omnidirectional laser rangefinder. A two-dimensional map generating means for generating a two-dimensional grid map and a matching means for matching the two-dimensional grid map with a predetermined three-dimensional coordinate system;
Conversion means for converting each point of the data set to a three-dimensional coordinate system based on the position and direction of the moving body. Matching means for matching each point converted to the three-dimensional coordinate system according to a time-series data set, and matching It is a 3D map generation program that causes each point to be written on a voxel map and functions as a generation unit that generates a 3D map.

第4の発明によれば、第1の発明と同様の効果が期待できる。   According to the fourth invention, the same effect as that of the first invention can be expected.

この発明によれば、3次元レーザ距離計のスキャンデータ(データセット)を用いて3次元地図を容易に生成することができる。   According to the present invention, a three-dimensional map can be easily generated using scan data (data set) of a three-dimensional laser rangefinder.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例である3次元地図生成システムを示すブロック図である。FIG. 1 is a block diagram showing a three-dimensional map generation system according to an embodiment of the present invention. 図2は図1実施例の移動ロボットの電気的構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the electrical configuration of the mobile robot of FIG. 1 embodiment. 図3は図1実施例の3次元地図生成システムを実験した場所の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a place where the 3D map generation system of FIG. 1 embodiment is experimented. 図4は移動ロボットに搭載した全方位レーザ距離計の実際のスキャンデータの一例を示す図解図である。FIG. 4 is an illustrative view showing an example of actual scan data of an omnidirectional laser rangefinder mounted on a mobile robot. 図5は全方位レーザ距離計のスキャンデータに基づいて作成される2次元グリッド地図の一例を示す図解図である。FIG. 5 is an illustrative view showing an example of a two-dimensional grid map created based on scan data of an omnidirectional laser rangefinder. 図6は3次元ボクセル地図の一例を示す図解図である。FIG. 6 is an illustrative view showing one example of a three-dimensional voxel map. 図7は図1実施例における遠隔操作装置のメモリのメモリマップの一例を示す図解図である。FIG. 7 is an illustrative view showing one example of a memory map of a memory of the remote control device in FIG. 1 embodiment. 図8は3次元合成地図を作成する動作の一例を示すフロー人図である。FIG. 8 is a flow chart showing an example of an operation for creating a three-dimensional composite map. 図9は図8実施例において3次元地図を生成する動作の一例を示すフロー図である。FIG. 9 is a flowchart showing an example of an operation for generating a three-dimensional map in the embodiment of FIG. 図10は図8で生成した3次元地図によって3次元合成地図を更新する動作の一例を示すフロー図である。FIG. 10 is a flowchart showing an example of the operation of updating the three-dimensional composite map with the three-dimensional map generated in FIG.

図1を参照して、この実施例の3次元地図生成システム(以下、単に「地図生成システム」ということがある。)10は、移動体としての移動ロボット(以下、単に「ロボット」ということがある。)12およびそのロボット12の移動を制御する遠隔制御装置14を含む。ロボット12と遠隔制御装置14は、ネットワーク16を介して、相互に通信できる。   Referring to FIG. 1, a three-dimensional map generation system (hereinafter simply referred to as “map generation system”) 10 of this embodiment is a mobile robot (hereinafter simply referred to as “robot”) as a moving body. And a remote control 14 that controls the movement of the robot 12. The robot 12 and the remote control device 14 can communicate with each other via the network 16.

ロボット12は、図1に示すように本体20を載せるベース18を含み、このベース18に、ロボット12を移動するための車輪22が設けられる。本体20の上に支持部24が設けられ、その支持部24に、RGBカメラ26が前方に向けて設けられるとともに、その支持部の上端に全方位レーザ距離計28が設けられる。全方位レーザ距離計28は、たとえば、水平を基準として上下40°(+30°‐−10°)の検知角度(垂直視野角)を有する3次元レーザ距離計である。この3次元全方位レーザ距離計(以下、単に「レーザ距離計」ということがある。)28は、たとえば0.1秒に1回転して、およそ100mまでの距離を計測する。実験では、レーザ距離計28として、Velodine社製のイメージングユニットLiDAR(HDL‐32e)(商品名)を用いた。このようなロボット12は、遠隔操作装置14によって、その移動が制御される。   As shown in FIG. 1, the robot 12 includes a base 18 on which the main body 20 is placed, and the base 18 is provided with wheels 22 for moving the robot 12. A support part 24 is provided on the main body 20, and an RGB camera 26 is provided on the support part 24 facing forward, and an omnidirectional laser rangefinder 28 is provided on the upper end of the support part. The omnidirectional laser rangefinder 28 is, for example, a three-dimensional laser rangefinder having a detection angle (vertical viewing angle) of 40 ° up and down (+ 30 ° −−10 °) with respect to the horizontal. The three-dimensional omnidirectional laser rangefinder (hereinafter, simply referred to as “laser rangefinder”) 28 measures a distance of up to about 100 m, for example, by making one revolution per 0.1 second. In the experiment, an imaging unit LiDAR (HDL-32e) (trade name) manufactured by Velodine was used as the laser distance meter 28. The movement of the robot 12 is controlled by the remote operation device 14.

遠隔操作装置14は、コンピュータ30を含み、このコンピュータ30に接続された操作卓32に設けられる操作キーやジョイスティック(図示せず)をオペレータが操作することによって、その操作入力に応じて、コンピュータ30がロボット12の車輪22すなわちロボット12の移動を制御する。   The remote operation device 14 includes a computer 30. When an operator operates an operation key or a joystick (not shown) provided on an operation console 32 connected to the computer 30, the computer 30 is operated according to the operation input. Controls the wheel 22 of the robot 12, that is, the movement of the robot 12.

コンピュータ30にはメモリ34が連結されるとともに、表示器36が接続される。メモリ34は、後述のように、地図生成のためのプログラムの他、上述のレーザ距離計28が取得するスキャンデータ(データセット)を記憶するだけでなく、2次元地図データや3次元地図データさらには、合成地図データ等を記憶する。表示器36は、ロボット12の移動を安全に行うために、ロボット12の移動状態やカメラ26で撮影した画像を表示して、オペレータに見せる。   A memory 34 is connected to the computer 30 and a display 36 is connected. As will be described later, the memory 34 stores not only a program for generating a map, but also scan data (data set) acquired by the laser distance meter 28 described above, as well as two-dimensional map data and three-dimensional map data. Stores composite map data and the like. The display unit 36 displays the moving state of the robot 12 and an image taken by the camera 26 to show to the operator in order to safely move the robot 12.

コンピュータ30には、無線通信モジュール38が付属され、コンピュータ30はネットワーク16を経由して、ロボット12の無線通信モジュール40(図2)を通して、コンピュータ42と無線通信を行うことができる。   A wireless communication module 38 is attached to the computer 30, and the computer 30 can perform wireless communication with the computer 42 through the network 16 and through the wireless communication module 40 (FIG. 2) of the robot 12.

ロボット12のコンピュータ42には、バス44を介して、メモリ46が接続されるとともに、センサインタフェース48およびモータドライバ50が接続される。センサインタフェース48には、前述のRGBカメラ26およびレーザ距離計28が連結され、センサインタフェース48は、カメラ26からの画像データおよびレーザ距離計28からのセンサデータを受け、コンピュータ42の制御の下、無線通信モジュール40、ネットワーク16、無線通信モジュール38を通して、コンピュータ30(図1)に送る。   A memory 46 is connected to the computer 42 of the robot 12 via a bus 44, and a sensor interface 48 and a motor driver 50 are connected to the computer 42. The RGB interface 26 and the laser distance meter 28 are connected to the sensor interface 48. The sensor interface 48 receives the image data from the camera 26 and the sensor data from the laser distance meter 28, and is controlled by the computer 42. The data is sent to the computer 30 (FIG. 1) through the wireless communication module 40, the network 16, and the wireless communication module 38.

他方、遠隔操作装置14からの操作データが、無線通信モジュール38、ネットワーク16、無線通信モジュール40を通して、コンピュータ42に送られ、コンピュータ42からモータドライバ50に与えられる。したがって、車輪モータ52が駆動され、ロボット12が遠隔操作によって移動される。   On the other hand, operation data from the remote operation device 14 is sent to the computer 42 through the wireless communication module 38, the network 16, and the wireless communication module 40, and is given from the computer 42 to the motor driver 50. Therefore, the wheel motor 52 is driven and the robot 12 is moved by remote operation.

このような地図生成システム10のロボット12は、たとえば図3に示すような場所において移動されながら、レーザ距離計28によってスキャンデータを取得する。図3に例示する場所は発明者等がこの地図生成システム10の実験のために利用した商業施設の2階の一部である。実験では、ロボット12は、1回の走行において、商業施設のこの場所を約25分かけて約530m移動し、およそ1億8200万の点群の位置データ(データセット)を出力する。そして、1つの3次元地図を生成するために、同じ場所を、一例として7回走行させて、7回分のデータセットを取得した。   The robot 12 of such a map generation system 10 acquires scan data by the laser distance meter 28 while moving in a place as shown in FIG. The place illustrated in FIG. 3 is a part of the second floor of a commercial facility used by the inventors for the experiment of the map generation system 10. In the experiment, the robot 12 moves about 530 m in this commercial facility for about 25 minutes in one run, and outputs position data (data set) of about 182 million point clouds. And in order to produce | generate one 3D map, the same place was run 7 times as an example, and the data set for 7 times was acquired.

図4がレーザ距離計28で取得した代表的な3次元スキャンデータ54を示し、この図4の中の円弧状の線がレーザ距離計28がスキャンしている様子を模式的に示す。図4に示すように、スキャンデータは、壁や床などのような静的オブジェクトだけでなく、人間のような動的オブジェクトからのデータを含む。他方、図4ではわからないが、実際のスキャンデータでは、高さ方向に色付けされていて、低い位置が赤色で、高い位置が青色でそれぞれ表現される。   FIG. 4 shows representative three-dimensional scan data 54 acquired by the laser distance meter 28, and the arc-shaped line in FIG. 4 schematically shows how the laser distance meter 28 is scanning. As shown in FIG. 4, the scan data includes not only static objects such as walls and floors, but also data from dynamic objects such as humans. On the other hand, although not understood in FIG. 4, the actual scan data is colored in the height direction, and the low position is expressed in red and the high position is expressed in blue.

このようなスキャンデータ54は上述のように、遠隔操作装置14のコンピュータ30のメモリ34に記憶される。そして、コンピュータ30は、1走行で得られた1億8200万の点群の位置データを示すデータセットを用いて、図5に示す2次元地図56を作る。図5に示すように、この2次元地図56は、たとえば10cmのグリッド地図である。この地図を作成する際、データセットに含まれる各点をその10cmグリッドに落とし込む(ダウンサンプリングする)。   Such scan data 54 is stored in the memory 34 of the computer 30 of the remote control device 14 as described above. Then, the computer 30 creates a two-dimensional map 56 shown in FIG. 5 using a data set indicating position data of 182 million point clouds obtained in one run. As shown in FIG. 5, this two-dimensional map 56 is a grid map of 10 cm, for example. When creating this map, each point included in the data set is dropped into the 10 cm grid (downsampled).

図5の2次元グリッド地図56において、灰色の部分はロボット12のレーザ距離計28がスキャンできなかった場所であり、白色部分がレーザ距離計28でスキャンした場所である。   In the two-dimensional grid map 56 of FIG. 5, the gray portion is a location where the laser distance meter 28 of the robot 12 could not be scanned, and the white portion is a location scanned by the laser distance meter 28.

その後、3次元地図を生成する。この3次元地図は、図6に示すような、10cmのボクセル(voxel)で表わす地図である。このボクセル地図は、図5のような2次元グリッド地図を生成した後に、3次元座標系のロボット12の正確な位置と向き(position, orientation)を利用して、図4に示すようなロボット12の1走行毎の2次元グリッド地図に基づいて、生成される。詳しくしは後述するが、2次元地図のグリッドに対応する平面の高さ方向にもボクセルが配置され、その2次元地図のグリッドにオブジェクトが存在すると、対応のボクセルに「1」が書き込まれる。たとえばロボット12の7走行の結果の7枚の2次元地図のすべてにおいて同じグリッドにあるオブジェクトは、3次元地図において、図6のように、その「1」が累積され、高さ情報を持つ3次元地図が生成される。   Thereafter, a three-dimensional map is generated. This three-dimensional map is a map represented by 10 cm voxel as shown in FIG. This voxel map is generated by generating a two-dimensional grid map as shown in FIG. 5 and then using the exact position and orientation of the robot 12 in the three-dimensional coordinate system, as shown in FIG. Is generated based on a two-dimensional grid map for each run. As will be described in detail later, when voxels are arranged in the height direction of the plane corresponding to the grid of the two-dimensional map and an object exists in the grid of the two-dimensional map, “1” is written in the corresponding voxel. For example, an object that is on the same grid in all seven two-dimensional maps as a result of seven runs of the robot 12 has its “1” accumulated in the three-dimensional map as shown in FIG. A dimension map is generated.

ここで、図1の遠隔操作装置14のコンピュータ30のメモリ34は、たとえば図7に示すように、プログラム記憶領域60およびデータ記憶領域62を含む。   Here, the memory 34 of the computer 30 of the remote control device 14 of FIG. 1 includes a program storage area 60 and a data storage area 62 as shown in FIG. 7, for example.

プログラム記憶領域60には、OSなどの必要なプログラムの他、ロボット12の移動を制御するための移動制御プログラム64および後に図8‐図10を参照して詳細に説明する地図作成プログラム66などが予め設定されている。   The program storage area 60 includes a necessary control program such as an OS, a movement control program 64 for controlling the movement of the robot 12, and a map creation program 66 described in detail later with reference to FIGS. It is set in advance.

データ記憶領域62は、レーザ距離計28から得られるスキャンデータ54(データセット)を一時的に記憶するための計測データバッファ68、図5に示す2次元グリッド地図のデータを記憶する2次元地図データ記憶領域70、図6に示すような3次元ボクセル地図58のデータを記憶する3次元地図データ記憶領域72、2以上の3次元地図を合成した合成地図のデータ記憶するための合成地図データ記憶領域74等を含む。   The data storage area 62 is a measurement data buffer 68 for temporarily storing scan data 54 (data set) obtained from the laser rangefinder 28, and two-dimensional map data for storing data of the two-dimensional grid map shown in FIG. A storage area 70, a 3D map data storage area 72 for storing data of a 3D voxel map 58 as shown in FIG. 6, and a composite map data storage area for storing data of a composite map obtained by combining two or more 3D maps 74 etc. are included.

図1に示す遠隔操作装置14のコンピュータ30は、移動制御プログラム64に従って、オペレータが操作する操作卓32からの操作データに基づいて、ロボット12をたとえば図3で示すような場所を走行させる。そのロボット12の1走行で得られたスキャンデータ(計測データのデータセット)が、メモリ34の計測データバッファ68に記憶される。   The computer 30 of the remote operation device 14 shown in FIG. 1 causes the robot 12 to travel in a place as shown in FIG. 3, for example, based on operation data from the console 32 operated by the operator according to the movement control program 64. Scan data (data set of measurement data) obtained by one run of the robot 12 is stored in the measurement data buffer 68 of the memory 34.

そして、地図作成プログラム66(図7)によって規定されている、図8の最初のステップS1では、コンピュータ30は、計測データバッファ68に蓄積されている1走行分のスキャンデータ(データセット)に基づいて、図5に示すような2次元グリッド地図を生成する。その2次元地図のデータは、2次元地図データ領域70(図7)に保存される。   Then, in the first step S1 of FIG. 8 defined by the map creation program 66 (FIG. 7), the computer 30 is based on scan data (data set) for one run stored in the measurement data buffer 68. Then, a two-dimensional grid map as shown in FIG. 5 is generated. The data of the two-dimensional map is stored in the two-dimensional map data area 70 (FIG. 7).

続くステップS3でコンピュータ30は、その2次元地図が最初のものかどうか判断する。“YES”なら、次のステップS5で、コンピュータ30は、その最初の2次元地図上の位置および向きを、所定の3次元座標系に整合する。その後、またはステップS3で“NO”のとき、すなわち2次元地図が最初のものではないとき、ステップS7に進む。   In subsequent step S3, the computer 30 determines whether or not the two-dimensional map is the first one. If “YES”, in the next step S5, the computer 30 matches the position and orientation on the first two-dimensional map with a predetermined three-dimensional coordinate system. Thereafter, or when “NO” in the step S3, that is, when the two-dimensional map is not the first one, the process proceeds to a step S7.

ステップS7は、具体的には、図9のようなサブルーチンで構成される。   Step S7 is specifically composed of a subroutine as shown in FIG.

地図作成プログラム66(図7)によって規定されている、図9の最初のステップS21では、スキャン(走行)数を示す変数iをi=0とする。したがって、i番目のスキャン(走行)で計測したデータセットは、Si(S0,S1,…Si,…Sn)で表現される。続くステップS23では、点位置を示す変数jをj=0とする。したがって、i番目のデータセットにおけるj番目の点が、SiPjと表現される。つまり、Si={P1, P2, …Pj, …PN}である。   In the first step S21 of FIG. 9 defined by the map creation program 66 (FIG. 7), a variable i indicating the number of scans (running) is set to i = 0. Therefore, the data set measured in the i-th scan (running) is represented by Si (S0, S1,... Si,... Sn). In the subsequent step S23, a variable j indicating the point position is set to j = 0. Therefore, the j-th point in the i-th data set is expressed as SiPj. That is, Si = {P1, P2,... Pj,.

ステップS25では、コンピュータ30は、RPi(Siのときのロボット12の2次元地図上の位置および向き)を用いて、点位置Pjを、ステップS5で整合させた2次元地図上の3次元座標に変換する。   In step S25, the computer 30 uses the RPi (position and orientation on the two-dimensional map of the robot 12 when Si is used) to convert the point position Pj into the three-dimensional coordinates on the two-dimensional map matched in step S5. Convert.

次のステップS27で、コンピュータ30は、その点Pjの周囲の距離Rの範囲内のすべての点を使って、局所平面(local plan)を当てはめる。つまり、このステップS27では、点Pjを含む局所平面を推定する。   In the next step S27, the computer 30 applies a local plan using all points within the distance R around the point Pj. That is, in this step S27, a local plane including the point Pj is estimated.

そして、ステップS29では、コンピュータ30は、平面度αを、α=局所平面内の点の数÷距離R内の点の数として計算する。つまり、点Pjの近傍の点のどの程度がステップS27で推定した局所平面内にあるかを計算する。したがって、α=1であれば、Pjの周りの距離R内のすべての点が同じ局所平面にあることを意味する。つまり、αが「1」に近いほど平面に近いといえる。   In step S29, the computer 30 calculates the flatness α as α = number of points in the local plane ÷ number of points in the distance R. That is, how much of the points in the vicinity of the point Pj is within the local plane estimated in step S27 is calculated. Therefore, if α = 1, it means that all points within the distance R around Pj are in the same local plane. In other words, the closer α is to “1”, the closer to the plane.

このようにして計算した平面度αおよびその局所平面の法線(Normal)を使って、点Pjを、Pj(xj,yj,zj,Nj,αj)と定義する。   The point Pj is defined as Pj (xj, yj, zj, Nj, αj) using the flatness α thus calculated and the normal (Normal) of the local plane.

ステップS31では、コンピュータ30は、データセットSiの中のすべての点についてステップS25‐S29の処理が終了したかどうか(j<NPSi)、判断する。“NO”ならステップS33で点番号jをインクリメントして、ステップS25に戻る。   In step S31, the computer 30 determines whether or not the processing in steps S25 to S29 has been completed for all points in the data set Si (j <NPSi). If “NO”, the point number j is incremented in step S33, and the process returns to step S25.

このようにして、データセットSiのすべての点Pについて、3次元座標上での定義が終了したなら、ステップS31で“YES”となり、コンピュータ30は、次のステップS35で、データセットの番号iが「0」かどうか、つまり、最初のデータセットについての上述の処理が終了したかどうか判断する。   In this way, when the definition on the three-dimensional coordinates is completed for all the points P of the data set Si, “YES” is determined in the step S31, and the computer 30 determines the data set number i in the next step S35. Is “0”, that is, whether or not the above-described processing for the first data set is completed.

ステップS35で“NO”なら、次のステップS37でコンピュータ30は、今回のデータセットSiの中で前述の平面度αが閾値T(実施例では、一例として、0.9とした。)を超える点Pl(ピーエル)({Pl∈Si/Pl.α>T})と、前回のデータセットSi−1の中で前述の平面度αが閾値Tを超える点Pk{Pk∈Si−1/Pk.α>T})とのスキャンマッチングを実行する。なお、スキャンマッチングとは、ICP(Interactive Closest Point)に類似した手法で、異なるデータセット(スキャン)の対応する点どうしのずれを検出することである。   If “NO” in the step S35, the computer 30 in the next step S37, the flatness α described above in the current data set Si exceeds the threshold T (in the embodiment, 0.9 is taken as an example). A point Pl (Pl) ({PlεSi / Pl.α> T}) and a point Pk {PkεSi−1 / Pk where the flatness α exceeds the threshold T in the previous data set Si−1. .α> T}). Note that scan matching is to detect a shift between corresponding points in different data sets (scans) by a method similar to ICP (Interactive Closest Point).

このようにスキャンマッチングを行う際、ステップS29で計算した平面度αが閾値Tたとえば0.9を超えた点PlおよびPkだけを用いてスキャンマッチングを行うことによって、所要時間を短縮できるだけでなく、それぞれの点が平面上にあると推定されるので、マッチングの精度が向上する、という利点がある。   When performing scan matching in this way, not only can the required time be shortened by performing scan matching using only the points Pl and Pk at which the flatness α calculated in step S29 exceeds a threshold T, for example, 0.9, Since each point is estimated to be on a plane, there is an advantage that the accuracy of matching is improved.

ステップS37で実行したスキャンマッチングの結果を用いて、ステップS39で、コンピュータ30は、データセットSiのすべての点について、位置合わせ(ずれ補正)を行う。それによって、Si={P1, P2, …Pj, …PN}のすべての点が、3次元座標系上で、正しい位置に配置される。   Using the result of the scan matching executed in step S37, in step S39, the computer 30 performs alignment (shift correction) for all points in the data set Si. Thereby, all the points of Si = {P1, P2,... Pj,... PN} are arranged at correct positions on the three-dimensional coordinate system.

ステップS39の後、またはステップS35で“YES”のとき、ステップS41に進む。このステップS41では、コンピュータ30は、データセットSiのすべての点を図6に示したようなボクセル形式の3次元地図に加入する。   After step S39 or if “YES” in the step S35, the process proceeds to a step S41. In step S41, the computer 30 joins all the points of the data set Si to a voxel-type three-dimensional map as shown in FIG.

このように、図8のステップS1でデータセットSiを用いて2次元グリッド地図(図5)を生成し、ステップS5でその2次元地図を所定の3次元座標系に整合(align)させ、データセットSi中のすべての点の3次元座標系での位置ずれを補正した上で、各点をボクセル形式の3次元地図にプロットすることによって、3次元地図が生成される。   In this manner, a two-dimensional grid map (FIG. 5) is generated using the data set Si in step S1 of FIG. 8, and the two-dimensional map is aligned with a predetermined three-dimensional coordinate system in step S5 to obtain data. A three-dimensional map is generated by correcting the positional shift in the three-dimensional coordinate system of all the points in the set Si and plotting each point on a three-dimensional map in the voxel format.

ただし、位置ずれを補正する際には、上述した理由で、データセットから抽出した特定の点でまず位置ずれを検出し、検出した位置ずれの情報(スキャンマッチングの結果)を用いて全部の点の位置ずれを補正する。   However, when correcting the misalignment, for the reasons described above, the misalignment is first detected at a specific point extracted from the data set, and all the points are detected using the detected misalignment information (scan matching result). Correct the misalignment.

ステップS41で3次元地図が生成されると、ステップS43でコンピュータ30は、スキャン番号すなわちデータセットの数iが全データセット数NSに達していないか判断する。“YES”ならステップS45で変数iをインクリメントした後に、ステップS23に戻って上述の処理を繰り返し実行する。つまり、すべてのデータセット(前述した発明者等の実験では7セット)を使って1つの3次元地図を生成する。この3次元地図のデータは、図7の3次元地図データ記憶領域72に記憶される。   When the three-dimensional map is generated in step S41, the computer 30 determines in step S43 whether the scan number, that is, the number of data sets i has reached the total number of data sets NS. If “YES”, after the variable i is incremented in step S45, the process returns to step S23 and the above-described processing is repeatedly executed. That is, one three-dimensional map is generated using all data sets (seven sets in the above-described experiments by the inventors). This 3D map data is stored in the 3D map data storage area 72 of FIG.

このようにして、図8のステップS7で3次元地図を生成した後、続くステップS9で、コンピュータ30は、ステップS7で作った3次元地図が最初のものかどうか判断する。“YES”であれば、ステップS11で合成地図(Composite map)初期化する。ここで、合成地図とは、異なる時間に作成した3次元地図からの情報の組み合わせであり、複数の3次元地図の情報を結合または統合することによって生成される3次元地図を意味する。このステップS11では、ステップS7で生成した3次元地図のデータを、図7に示す構成地図データ領域74に複写する。ここで、元の3次元地図のデータは3次元地図データ領域72に記憶されたままである。つまり、3次元地図データはそれが生成されると、3次元地図データ領域72に順次蓄積される。合成地図は、このようにして蓄積された3次元地図を合成することによって生成する。
図10は、図7の地図作成プログラム66に含まれる、合成地図の更新方法を示すフロー図であり、簡単に言うとこの更新処理では、n番目の3次元地図Mnを直前の合成地図CMn−1を結合して合成地図CMnを作ることである。ただし、直前の合成地図CMn−1は、3次元地図M1,M2,…,Mn−1を合成した3次元ボクセル地図である。また、3次元地図MnはJnのボクセルを含み、直前の合成地図CMn−1は、In−1のボクセルを含む。
In this way, after the three-dimensional map is generated in step S7 of FIG. 8, in step S9, the computer 30 determines whether the three-dimensional map created in step S7 is the first one. If “YES”, the composite map is initialized in step S11. Here, the composite map is a combination of information from three-dimensional maps created at different times, and means a three-dimensional map generated by combining or integrating information of a plurality of three-dimensional maps. In step S11, the three-dimensional map data generated in step S7 is copied to the configuration map data area 74 shown in FIG. Here, the original three-dimensional map data is still stored in the three-dimensional map data area 72. That is, as the 3D map data is generated, it is sequentially stored in the 3D map data area 72. The composite map is generated by combining the three-dimensional maps accumulated in this way.
FIG. 10 is a flowchart showing a method of updating the composite map included in the map creation program 66 of FIG. 7. In brief, in this update process, the nth three-dimensional map Mn is replaced with the immediately preceding composite map CMn−. 1 is combined to create a synthetic map CMn. However, the immediately preceding synthetic map CMn-1 is a three-dimensional voxel map obtained by synthesizing the three-dimensional maps M1, M2,. The three-dimensional map Mn includes Jn voxels, and the immediately preceding composite map CMn-1 includes In-1 voxels.

この図10のステップS51‐S55において、コンピュータ30はまず、合成地図CMn(今回更新した結果得られる合成地図)のすべてのボクセルに、直前の合成地図CMn−1の対応するすべてのボクセルを設定する。   In steps S51 to S55 of FIG. 10, the computer 30 first sets all the voxels corresponding to the immediately preceding composite map CMn-1 to all the voxels of the composite map CMn (the composite map obtained as a result of updating this time). .

そして、ステップS57‐S61において、今回の合成地図の各ボクセルに、今回の3次元地図Mnの対応するボクセルを書き込む。つまり、今回の3次元地図の該当するボクセル(j)が「1」である場合、対応する合成地図CMnのボクセル(j)に「1」を加える(投票する)。ただし、今回の3次元地図の該当するボクセル(j)が「0」である場合、対応する合成地図CMnのボクセル(j)には投票しない。   In steps S57 to S61, the corresponding voxel of the current three-dimensional map Mn is written in each voxel of the current composite map. That is, when the corresponding voxel (j) of the current three-dimensional map is “1”, “1” is added to the voxel (j) of the corresponding composite map CMn (voting). However, if the corresponding voxel (j) in the current three-dimensional map is “0”, the voxel (j) of the corresponding composite map CMn is not voted.

このようにして、蓄積した複数の3次元地図のデータを合成して、合成3次元地図を生成することができる。   In this manner, a plurality of accumulated three-dimensional map data can be combined to generate a combined three-dimensional map.

発明者等は、図3のような商業施設でロボット12を巡回させて、毎日1回あるいは数回、3次元地図を生成して蓄積することを提案している。その意味で、図8のステップS15は不要であるが、図8の処理を終了するために、ステップS15で最後かどうか判断し、“NO”であればステップS1に戻り、“YES”データあれば合成地図作成動作を終了する。   The inventors have proposed that a robot 12 is circulated in a commercial facility as shown in FIG. 3 to generate and store a three-dimensional map once or several times daily. In that sense, step S15 in FIG. 8 is unnecessary, but in order to end the process in FIG. 8, it is determined whether or not it is the last in step S15. If “NO”, the process returns to step S1, and “YES” data is present. Then, the synthetic map creation operation is terminated.

上述の実施例では、順次生成される3次元地図のデータに従って合成地図を更新することによって、合成地図を生成した。しかしながら、蓄積手段として作用するたとえば3次元地図データ記憶領域72に蓄積された複数の3次元地図の内の任意のものを用いて合成地図を生成することができる。任意の複数の3次元地図データを用いて合成地図を生成する手順は、図8‐図10で説明した手順と同様で、たとえば時間的に最先の3次元地図をステップS11で最初の合成地図として設定し、その後、各3次元地図に従ってステップS13のように合成地図を更新すればよい。   In the above-described embodiment, the composite map is generated by updating the composite map according to the data of the three-dimensional map that is sequentially generated. However, a composite map can be generated using any one of a plurality of three-dimensional maps stored in, for example, the three-dimensional map data storage area 72 acting as storage means. The procedure for generating a composite map using a plurality of arbitrary three-dimensional map data is the same as the procedure described with reference to FIGS. 8 to 10. For example, the earliest three-dimensional map is converted to the first composite map in step S11. Then, the composite map may be updated as in step S13 according to each three-dimensional map.

たとえば3次元地図データ記憶領域72に記憶する3次元地図データにタイムスタンプのようにメタデータを付加しておけば、ユーザはそれを見て、任意の3次元地図を選択することができる。そうすれば、毎日1回蓄積した複数の3次元地図を、単に時系列的に合成することによってだけでなく、たとえば特定の曜日ごとの合成地図を簡単に作成することができる。そして、そのような合成地図では、3次元地図の対応するボクセルからの投票(ヒット)数が多い物体(オブジェクト)は静止物体である可能性が高い。なぜなら、どの3次元地図でもそのボクセルに存在するものだから。逆に、3次元地図の対応するボクセルからの投票(ヒット)数が少ない物体(オブジェクト)は移動物体である可能性が高い。たとえば、特定の曜日、たとえば日曜日に通路で行われるワゴンセールのワゴンや、顧客誘因のための看板(サイネージ)などが典型的である。   For example, if metadata such as a time stamp is added to the 3D map data stored in the 3D map data storage area 72, the user can see it and select an arbitrary 3D map. Then, it is possible not only to simply synthesize a plurality of three-dimensional maps accumulated once a day in time series, but also to easily create a composite map for each specific day of the week, for example. In such a composite map, an object (object) with a large number of votes (hits) from the corresponding voxel in the three-dimensional map is likely to be a stationary object. Because any 3D map exists in that voxel. Conversely, an object (object) with a small number of votes (hits) from the corresponding voxel on the three-dimensional map is likely to be a moving object. For example, a wagon of a wagon sale performed in a passage on a specific day of the week, for example, Sunday, or a signage (signage) for customer incentive is typical.

なお、上で挙げた具体的な材料や寸法などの具体的数値はいずれも単なる一例であり、製品の仕様などの必要に応じて適宜変更可能である。   Note that the specific numerical values such as the specific materials and dimensions mentioned above are merely examples, and can be appropriately changed according to the needs of the product specifications and the like.

10 …3次元地図生成システム
12 …移動ロボット
14 …遠隔操作装置
28 …3次元レーザ距離計
30 …コンピュータ
66 …地図作成プログラム
DESCRIPTION OF SYMBOLS 10 ... Three-dimensional map production system 12 ... Mobile robot 14 ... Remote control device 28 ... Three-dimensional laser rangefinder 30 ... Computer 66 ... Map creation program

Claims (4)

移動体、
前記移動体に搭載される全方位レーザ距離計、
前記全方位レーザ距離計によるスキャンで得られるデータセットに基づいて2次元グリッド地図を生成する2次元地図生成手段、
前記2次元グリッド地図を所定の3次元座標系に整合する整合手段、
前記データセットの各点を移動体の位置および方向に基づいて3次元座標系に変換する変換手段、
前記3次元座標系に変換された各点を時系列のデータセットに従ってマッチングするマッチング手段、および
マッチングした各点をボクセル地図に書き込んで3次元地図を生成する生成手段を備える、3次元地図生成システム。
Moving body,
An omnidirectional laser rangefinder mounted on the moving body,
2D map generation means for generating a 2D grid map based on a data set obtained by scanning with the omnidirectional laser rangefinder;
A matching means for matching the two-dimensional grid map with a predetermined three-dimensional coordinate system;
Conversion means for converting each point of the data set into a three-dimensional coordinate system based on the position and direction of the moving object;
A three-dimensional map generation system comprising: matching means for matching each point converted into the three-dimensional coordinate system according to a time-series data set; and generation means for writing each matched point to a voxel map to generate a three-dimensional map .
前記マッチング手段は、前記3次元座標系における平面内に含まれる特定の点のマッチングを行い、その結果に従って残りの点をマッチングする、請求項1記載の3次元地図生成システム。   The three-dimensional map generation system according to claim 1, wherein the matching unit performs matching of specific points included in a plane in the three-dimensional coordinate system, and matches the remaining points according to the result. 前記3次元地図のデータを蓄積する蓄積手段、および
前記蓄積手段によって蓄積している複数の3次元地図に基づいて合成3次元地図を生成する合成地図生成手段をさらに備える、請求項1または2記載の3次元地図生成システム。
The storage means which accumulate | stores the data of the said 3D map, The synthetic | combination map production | generation means which produces | generates a synthetic | combination 3D map based on the some 3D map accumulate | stored by the said accumulation | storage means is further provided. 3D map generation system.
移動体および前記移動体に搭載される全方位レーザ距離計を備える3次元地図生成システムのコンピュータによって実行され、前記コンピュータを、
前記全方位レーザ距離計によるスキャンで得られるデータセットに基づいて2次元グリッド地図を生成する2次元地図生成手段、
前記2次元グリッド地図を所定の3次元座標系に整合する整合手段、
前記データセットの各点を移動体の位置および方向に基づいて3次元座標系に変換する変換手段、
前記3次元座標系に変換された各点を時系列のデータセットに従ってマッチングするマッチング手段、および
マッチングした各点をボクセル地図に書き込んで3次元地図を生成する生成手段
として機能させる、3次元地図生成プログラム。
Executed by a computer of a three-dimensional map generation system comprising a moving body and an omnidirectional laser rangefinder mounted on the moving body,
2D map generation means for generating a 2D grid map based on a data set obtained by scanning with the omnidirectional laser rangefinder;
A matching means for matching the two-dimensional grid map with a predetermined three-dimensional coordinate system;
Conversion means for converting each point of the data set into a three-dimensional coordinate system based on the position and direction of the moving object;
3D map generation that functions as a matching means for matching each point converted to the 3D coordinate system according to a time-series data set, and a generating means for writing each matched point to a voxel map to generate a 3D map program.
JP2016088826A 2016-04-27 2016-04-27 Three dimensional map generation system Pending JP2017198517A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016088826A JP2017198517A (en) 2016-04-27 2016-04-27 Three dimensional map generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016088826A JP2017198517A (en) 2016-04-27 2016-04-27 Three dimensional map generation system

Publications (1)

Publication Number Publication Date
JP2017198517A true JP2017198517A (en) 2017-11-02

Family

ID=60237729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016088826A Pending JP2017198517A (en) 2016-04-27 2016-04-27 Three dimensional map generation system

Country Status (1)

Country Link
JP (1) JP2017198517A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108724188A (en) * 2018-06-14 2018-11-02 西安电子科技大学 A kind of multirobot cooperative motion control method
US10611028B1 (en) 2018-11-30 2020-04-07 NextVPU (Shanghai) Co., Ltd. Map building and positioning of robot
JP2020087415A (en) * 2018-11-30 2020-06-04 ネクストヴイピーユー(シャンハイ)カンパニー リミテッドNextvpu(Shanghai)Co.,Ltd. Map construction and positioning of robot
CN111552764A (en) * 2020-05-15 2020-08-18 弗徕威智能机器人科技(上海)有限公司 Parking space detection method, device and system, robot and storage medium
JP2021504715A (en) * 2017-11-28 2021-02-15 深▲せん▼市杉川机器人有限公司Shenzhen 3Irobotix Co., Ltd. Area contouring methods, devices and computer-readable storage media
CN112526993A (en) * 2020-11-30 2021-03-19 广州视源电子科技股份有限公司 Grid map updating method and device, robot and storage medium
CN113340266A (en) * 2021-06-02 2021-09-03 江苏豪杰测绘科技有限公司 Indoor space surveying and mapping system and method
KR20220021158A (en) * 2020-08-13 2022-02-22 한국전력공사 Apparatus for generating flight path of unmanned aerial vehicle and method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007069721A1 (en) * 2005-12-16 2007-06-21 Ihi Corporation Three-dimensional shape data storing/displaying method and device, and three-dimensional shape measuring method and device
WO2015151770A1 (en) * 2014-03-31 2015-10-08 株式会社日立産機システム Three-dimensional map generation system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007069721A1 (en) * 2005-12-16 2007-06-21 Ihi Corporation Three-dimensional shape data storing/displaying method and device, and three-dimensional shape measuring method and device
WO2015151770A1 (en) * 2014-03-31 2015-10-08 株式会社日立産機システム Three-dimensional map generation system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
塩澤秀門 外3名: ""Velodyneレーザスキャナを用いた上空からの三次元再構成"", 日本ロボット学会誌, vol. Volume 31,Number 10, JPN6018048132, 15 December 2013 (2013-12-15), JP, pages 992 - 1000, ISSN: 0004248592 *
尾崎 宏樹: "小型無人移動体を用いた3次元地図の自動生成", 情報処理学会研究報告 2011(平成23)年度, JPN6020012928, 15 April 2012 (2012-04-15), pages 1 - 6, ISSN: 0004248591 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021504715A (en) * 2017-11-28 2021-02-15 深▲せん▼市杉川机器人有限公司Shenzhen 3Irobotix Co., Ltd. Area contouring methods, devices and computer-readable storage media
US11275178B2 (en) 2017-11-28 2022-03-15 Shenzhen 3Irobotix Co., Ltd. Method and device for drawing region outline and computer readable storage medium
CN108724188B (en) * 2018-06-14 2022-02-25 西安电子科技大学 Multi-robot cooperative motion control method
CN108724188A (en) * 2018-06-14 2018-11-02 西安电子科技大学 A kind of multirobot cooperative motion control method
US10611028B1 (en) 2018-11-30 2020-04-07 NextVPU (Shanghai) Co., Ltd. Map building and positioning of robot
JP2020087415A (en) * 2018-11-30 2020-06-04 ネクストヴイピーユー(シャンハイ)カンパニー リミテッドNextvpu(Shanghai)Co.,Ltd. Map construction and positioning of robot
CN111552764A (en) * 2020-05-15 2020-08-18 弗徕威智能机器人科技(上海)有限公司 Parking space detection method, device and system, robot and storage medium
CN111552764B (en) * 2020-05-15 2023-07-25 汇智机器人科技(深圳)有限公司 Parking space detection method, device, system, robot and storage medium
KR102454053B1 (en) 2020-08-13 2022-10-14 한국전력공사 Apparatus for generating flight path of unmanned aerial vehicle
KR20220021158A (en) * 2020-08-13 2022-02-22 한국전력공사 Apparatus for generating flight path of unmanned aerial vehicle and method thereof
KR102436589B1 (en) 2020-08-13 2022-08-29 한국전력공사 Apparatus for generating flight path of unmanned aerial vehicle and method thereof
KR20220122942A (en) * 2020-08-13 2022-09-05 한국전력공사 Apparatus for generating flight path of unmanned aerial vehicle
KR20220122943A (en) * 2020-08-13 2022-09-05 한국전력공사 Apparatus for generating flight path of unmanned aerial vehicle
KR20220123189A (en) * 2020-08-13 2022-09-06 한국전력공사 Apparatus for generating flight path of unmanned aerial vehicle
KR20220123188A (en) * 2020-08-13 2022-09-06 한국전력공사 Apparatus for generating flight path of unmanned aerial vehicle
KR102454054B1 (en) 2020-08-13 2022-10-14 한국전력공사 Apparatus for generating flight path of unmanned aerial vehicle
KR102454051B1 (en) 2020-08-13 2022-10-14 한국전력공사 Apparatus for generating flight path of unmanned aerial vehicle
KR102454052B1 (en) 2020-08-13 2022-10-14 한국전력공사 Apparatus for generating flight path of unmanned aerial vehicle
CN112526993A (en) * 2020-11-30 2021-03-19 广州视源电子科技股份有限公司 Grid map updating method and device, robot and storage medium
CN112526993B (en) * 2020-11-30 2023-08-08 广州视源电子科技股份有限公司 Grid map updating method, device, robot and storage medium
CN113340266A (en) * 2021-06-02 2021-09-03 江苏豪杰测绘科技有限公司 Indoor space surveying and mapping system and method

Similar Documents

Publication Publication Date Title
JP2017198517A (en) Three dimensional map generation system
US20200388080A1 (en) Displaying content in an augmented reality system
US11227434B2 (en) Map constructing apparatus and map constructing method
US20190064832A1 (en) Self-propelled robot path planning method, self-propelled robot and storage medium
US8892358B2 (en) System and method for distortion correction in three-dimensional environment visualization
US11043023B2 (en) Surround monitoring system for vehicles
CN108319655A (en) Method and apparatus for generating grating map
US9020301B2 (en) Method and system for three dimensional mapping of an environment
US11209277B2 (en) Systems and methods for electronic mapping and localization within a facility
JP2020516853A (en) Video-based positioning and mapping method and system
US10976734B2 (en) Augmented reality (AR) display of pipe inspection data
CN111123949A (en) Obstacle avoidance method and device for robot, robot and storage medium
CN104574267A (en) Guiding method and information processing apparatus
JP6310149B2 (en) Image generation apparatus, image generation system, and image generation method
JP6891954B2 (en) Object detection device, object detection method, and program
JP6884018B2 (en) Road facility management support device and road facility management support program
CN110260866A (en) A kind of robot localization and barrier-avoiding method of view-based access control model sensor
US20200286290A1 (en) Method for displaying object on three-dimensional model
JP6380647B2 (en) Information providing method, information providing program, information providing apparatus, information processing apparatus, and information providing system
Fu et al. Costmap construction and pseudo-lidar conversion method of mobile robot based on monocular camera
WO2023106324A1 (en) Display system, and display method
Chi et al. A crash avoidance framework for heavy equipment control systems using 3D imaging sensors
Ekanayake Improving automation in computer vision based indoor construction progress monitoring: A deep learning approach
JPH07146752A (en) Environmental model preparing device
JP2021173801A (en) Information processing device, control method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201208