JP2020149186A - Position attitude estimation device, learning device, mobile robot, position attitude estimation method, and learning method - Google Patents
Position attitude estimation device, learning device, mobile robot, position attitude estimation method, and learning method Download PDFInfo
- Publication number
- JP2020149186A JP2020149186A JP2019044580A JP2019044580A JP2020149186A JP 2020149186 A JP2020149186 A JP 2020149186A JP 2019044580 A JP2019044580 A JP 2019044580A JP 2019044580 A JP2019044580 A JP 2019044580A JP 2020149186 A JP2020149186 A JP 2020149186A
- Authority
- JP
- Japan
- Prior art keywords
- image
- orientation
- unit
- learning
- construction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 20
- 238000010276 construction Methods 0.000 claims abstract description 86
- 238000004364 calculation method Methods 0.000 claims abstract description 14
- 230000033001 locomotion Effects 0.000 claims description 10
- 230000036544 posture Effects 0.000 description 39
- 238000007726 management method Methods 0.000 description 26
- 238000003384 imaging method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 239000004566 building material Substances 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000011960 computer-aided design Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Abstract
Description
本発明は、位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法に関する。 The present invention relates to a position / posture estimation device, a learning device, a mobile robot, a position / posture estimation method, and a learning method.
建設現場の生産性向上のため、日々の出来形管理などにLIDAR(Light Detection and Ranging)を用いたSLAM (Simultaneous Localization and Mapping)技術、あるいはカメラを用いたVisual SLAM技術などといった、自己位置姿勢推定および現場管理方法が活用されつつある。
LIDARは、直接距離を測定することができるため、写真測量(Structure from Motion)技術に比べて形状の精度が高いことが利点である。
例えば、LIDARによって、毎日あるいは数日毎に、建設現場内の施工対象物の形状を測定することで、測定時において施工対象物がどのような段階まで施工されているか、また、施工状況がどのような状態であるかを把握することができる。これにより、施工の進捗管理をすることができ、また、施工状況に基づく出来形を推定することで出来形を管理することができる。
自己位置姿勢推定技術を、例えば、建設現場内において用いられる自動走行ロボットの現在位置および姿勢の推定に適用した位置姿勢推定装置がある(例えば特許文献1)。
Self-position posture estimation such as SLAM (Simultaneus Localization and Mapping) technology using LIDAR (Light Detection and Ranger) or Visual SLAM technology using a camera to improve the productivity of construction sites. And site management methods are being utilized.
Since LIDAR can directly measure the distance, it has an advantage that the shape accuracy is high as compared with the photogrammetry (Structure from Motion) technique.
For example, by measuring the shape of the construction object in the construction site every day or every few days with LIDAR, to what stage the construction object is constructed at the time of measurement and how the construction status is. It is possible to grasp whether it is in such a state. As a result, the progress of construction can be managed, and the finished shape can be managed by estimating the finished shape based on the construction status.
There is a position / posture estimation device that applies the self-position / posture estimation technique to, for example, the estimation of the current position and posture of an automatic traveling robot used in a construction site (for example, Patent Document 1).
しかしながら、LIDARは、機器が一般的に高価で重いため、軽量なロボット(例えば小型のロボットやドローン)などに搭載することができない。
また、LIDARは、取得した点群のRGB情報が含まれていない欠点がある。
However, LIDAR cannot be mounted on a lightweight robot (for example, a small robot or a drone) because the equipment is generally expensive and heavy.
In addition, LIDAR has a drawback that it does not include RGB information of the acquired point cloud.
一方、Visual SLAMは、RGB情報が含まれているが、視差による測量であるため、LIDARに比べて一般的に測定精度が悪いという欠点がある。 On the other hand, Visual SLAM contains RGB information, but has a drawback that the measurement accuracy is generally lower than that of LIDAR because it is a survey by parallax.
施工状況の管理や出来形管理を行うために、施工対象物の形状測定を移動ロボットに行わせようとすると、自己の位置姿勢を精度良く推定する必要がある。すなわち、自己位置姿勢の推定精度が低い場合には、出来形管理の精度も低下してしまう。また、移動ロボットが移動するためには、機体の重量が増大しないことが望ましい。 When a mobile robot is to measure the shape of a construction object in order to manage the construction status and the finished shape, it is necessary to accurately estimate its own position and orientation. That is, when the estimation accuracy of the self-position posture is low, the accuracy of the finished product management is also lowered. Further, in order for the mobile robot to move, it is desirable that the weight of the machine body does not increase.
本発明は、このような課題に鑑みてなされたものであり、重量の増大を抑えつつ、かつ、精度よく建設現場における位置姿勢を求めることができる位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法を提供することにある。 The present invention has been made in view of such a problem, and is a position / posture estimation device, a learning device, a mobile robot, and a position capable of accurately obtaining a position / posture at a construction site while suppressing an increase in weight. The purpose is to provide a posture estimation method and a learning method.
上述した課題を解決するために、本発明の一態様は、建設現場内における何れかの位置姿勢において撮影された画像データを取得する撮像画像取得部と、前記建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢と当該位置姿勢から一人称視点で見たときの画像との関係を学習した学習済みモデルを用いて、前記画像データに対応する位置姿勢情報を求める位置姿勢情報算出部と、を有する位置姿勢推定装置である。 In order to solve the above-mentioned problems, one aspect of the present invention is a three-dimensional image acquisition unit that acquires image data taken at any position or posture in a construction site, and a construction object at the construction site. Positions for obtaining position / orientation information corresponding to the image data using a learned model that has learned the relationship between the position / orientation of any of the construction sites and the image when viewed from the first-person viewpoint from the position / orientation in the model data. It is a position / posture estimation device having a posture information calculation unit.
また、本発明の一態様は、建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢を表す位置姿勢情報を取得する位置姿勢情報取得部と、一人称視点で前記三次元モデルデータにおいて前記位置姿勢から見たときの画像を取得する画像取得部と、前記位置姿勢情報と前記画像との関係性を表す条件を学習する学習部と、を有する学習装置である。 Further, one aspect of the present invention includes a position / orientation information acquisition unit that acquires position / orientation information representing the position / orientation of any of the construction sites in the three-dimensional model data of the construction object at the construction site, and the tertiary from the first-person viewpoint. It is a learning device having an image acquisition unit that acquires an image when viewed from the position / orientation in the original model data, and a learning unit that learns a condition indicating a relationship between the position / orientation information and the image.
また、本発明の一態様は、上述の位置姿勢推定装置と、回避対象を表す回避対象画像データと回避対象であるか否かを識別する識別情報との関係を学習した学習済みモデルを用いて、前記撮像画像取得部によって取得された画像に回避対象である物体が含まれているか否かを判定する判定部と、前記取得された画像に、前記回避対象画像に対応する物体が含まれている場合には、当該を迂回する経路である迂回経路を生成する経路生成部と、前記位置姿勢情報算出部によって求められた位置姿勢情報が前記生成された迂回経路に沿うように移動する移動制御部と、を有する移動ロボットである。 Further, one aspect of the present invention uses the above-mentioned position / orientation estimation device and a trained model in which the relationship between the avoidance target image data representing the avoidance target and the identification information for identifying whether or not the avoidance target is learned is used. A determination unit for determining whether or not the image acquired by the captured image acquisition unit includes an object to be avoided, and the acquired image includes an object corresponding to the avoidance target image. If so, a route generation unit that generates a detour route that bypasses the relevant route and a movement control that moves the position / attitude information obtained by the position / orientation information calculation unit along the generated detour route. It is a mobile robot having a unit and.
また、本発明の一態様は、撮像画像取得部が、建設現場内における何れかの位置姿勢において撮影された画像データを取得し、位置姿勢情報算出部が、前記建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢と当該位置姿勢から一人称視点で見たときの画像との関係を学習した学習済みモデルを用いて、前記画像データに対応する位置姿勢情報を求める位置姿勢推定方法である。 Further, in one aspect of the present invention, the captured image acquisition unit acquires image data taken at any position and orientation in the construction site, and the position and orientation information calculation unit is a tertiary of the construction object at the construction site. Obtain the position / orientation information corresponding to the image data by using the trained model in which the relationship between the position / orientation of any of the construction sites and the image when viewed from the first-person viewpoint is learned in the original model data. This is a position / orientation estimation method.
また、本発明の一態様は、位置姿勢情報取得部が、建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢を表す位置姿勢情報を取得し、画像取得部が、一人称視点で前記三次元モデルデータにおいて前記位置姿勢から見たときの画像を取得し、学習部が、前記位置姿勢情報と前記画像との関係性を表す条件を学習する学習方法である。 Further, in one aspect of the present invention, the position / orientation information acquisition unit acquires the position / orientation information indicating the position / orientation of any of the construction sites in the three-dimensional model data of the construction object at the construction site, and the image acquisition unit This is a learning method in which an image viewed from the position / orientation in the three-dimensional model data is acquired from the first-person viewpoint, and the learning unit learns a condition representing the relationship between the position / orientation information and the image.
以上説明したように、この発明によれば、位置姿勢情報を推定するために必要な機器の重量が増大してしまうことを抑えつつ、かつ、精度よく建設現場における位置姿勢を求めることができる。 As described above, according to the present invention, it is possible to accurately obtain the position / orientation at the construction site while suppressing the increase in the weight of the device required for estimating the position / attitude information.
以下、本発明の一実施形態による位置姿勢推定装置を用いた状況管理システム1について図面を参照して説明する。
図1は、この発明の一実施形態による状況管理システム1の構成を示す概略ブロック図である。
状況管理システム1は、三次元モデル画像生成装置10、一人称視点画像データベース20、学習装置30、自律移動ロボット40、状況管理装置50を有する。
Hereinafter, the situation management system 1 using the position / orientation estimation device according to the embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic block diagram showing a configuration of a situation management system 1 according to an embodiment of the present invention.
The situation management system 1 includes a three-dimensional model
三次元モデル画像生成装置10は、建設現場の施工対象物の三次元モデルデータを記憶している。三次元モデル画像生成装置10は、建設現場の施工対象物の三次元モデルデータを用い、当該建設現場のいずれかの位置姿勢から一人称視点で見たときの画像を生成する。一人称視点での画像は、建設現場内において異なる多数の地点において、それぞれ生成される。例えば、一人称視点での画像を生成する位置姿勢は、施工対象物において自律移動ロボット40が移動する経路となりうる位置姿勢であればいずれの位置姿勢であってもよい。施工対象物は、例えば構造物あるいは建築物であってもよい。施工対象物がビル等である場合には、あるフロアにおける種々の場所について一人称視点での画像を、各フロアのそれぞれにおいて生成する。
The three-dimensional model
三次元モデル画像生成装置10は、一人称視点での画像を生成する場合、施工途中の段階毎における三次元モデルデータのそれぞれにおいて、一人称視点での画像を生成する。これにより、施工途中において施工対象物がどのように見えるかを示した画像を生成することができる。
When the three-dimensional model
また、三次元モデル画像生成装置10は、画像を生成したときの一人称視点における位置姿勢を示す位置姿勢情報を生成する。この位置姿勢情報は、緯度、経度、高度、姿勢角を含む情報であり、一人称視点で見たときの建設現場における位置姿勢を特定することができる。
また、三次元モデル画像生成装置10は、例えば、緯度、経度、高度、姿勢角を表す座標系と、三次元モデルの座標系とを重ね合わせる機能を有しており、この重ね合わせを行うことで、三次元モデルにおける施工対象物におけるいずれの位置姿勢についても、緯度、経度、高度、姿勢角を把握できるようになっている。
In addition, the three-dimensional model
Further, the three-dimensional model
ここで生成される画像は、全天球が望ましいが、画角の広いカメラを模擬したものであっても良い。全天球あるいは画角の広いカメラを用いることで、自律移動ロボット40が撮影を行った向きがいずれの方向であっても位置姿勢を推定することが可能な画像を得ることができる。
The image generated here is preferably a spherical image, but may be a simulation of a camera having a wide angle of view. By using a spherical camera or a camera having a wide angle of view, it is possible to obtain an image capable of estimating the position and orientation regardless of the direction in which the autonomous
三次元モデル画像生成装置10は、当該建設現場のいずれかの位置姿勢から一人称視点で見たときの画像データと、当該画像を生成したときの一人称視点における位置姿勢を示す位置姿勢情報とを含む画像情報を出力する。
三次元モデル画像生成装置10は、三次元モデルデータとして、BIM(Building Information Modeling)によって表された三次元モデルデータまたはCAD(computer-aided design)によって表された三次元モデルデータを用いてもよい。
The three-dimensional model
The three-dimensional model
一人称視点画像データベース20は、三次元モデル画像生成装置10から出力される画像情報(画像データと位置姿勢情報との組み合わせ)を記憶する。
The first-person
学習装置30は、三次元モデル画像生成装置10によって、建設現場におけるあらゆる点における十分な量の画像が生成された後、深層学習技術により画像と当該画像の位置姿勢情報とを入力し、画像と位置姿勢(緯度・経度・高度・姿勢角)との関係性を表す条件を学習する。
学習装置30は、画像解析用ワークステーション、小型計算機等を組み合わせて構成されてもよい。
The
The
より具体的に、学習装置30は、画像情報取得部31、位置姿勢情報学習部32、回避対象学習部33、出力部34を有する。
画像情報取得部31は、一人称視点画像データベースから画像情報を取得する。この画像情報には、建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢を表す位置姿勢情報と、一人称視点で三次元モデルデータにおいて前記位置姿勢から見たときの画像データとが含まれる。この画像情報は、建設現場における様々な位置姿勢毎の画像データである。
位置姿勢情報学習部32は、画像情報取得部31によって取得された画像情報を用いて、学習アルゴリズムに基づいて、位置姿勢情報と画像との関係性を表す条件を学習し、学習済みモデルを生成する。
例えば、位置姿勢情報学習部32は、画像情報に含まれる画像データに対して画像処理を行い、画像データに含まれる物体(柱、梁、壁、床、天井、窓、設備、什器等)の形状(輪郭など)、色、サイズ、光の反射度合い等について解析することで、これらを特徴量(特徴データ)として取得する。位置姿勢情報学習部32は、この特徴量と位置姿勢情報との関係を学習し、学習済モデルを生成する。ここで、位置姿勢情報学習部32における学習は、例えば、特徴量と、位置姿勢情報との関係性を示す条件を学習するようにしてもよい。位置姿勢情報学習部32におけるこの条件とは、画像データと位置姿勢情報との相関性を表すモデル構造、あるいは、当該モデル構造を決定する種々のパラメータである。
More specifically, the
The image
The position / orientation
For example, the position / orientation
位置姿勢情報学習部32の学習は、どのような学習方式であってもよく、例えば、AI(Artificial Intelligence)技術を用いた、機械学習、強化学習、複数の中間層を含むニューラルネットワークによる深層学習技術(ディープラーニング)のうちいずれかを用いることができる。また、学習方式としては、教師あり学習であっても教師無し学習のいずれを用いるようにしてもよい。
位置姿勢情報学習部32は、教師なし学習を行う場合には、例えば、画像データの特徴量に基づいて、画像データに含まれる物体の形状、色、サイズ、光の反射度合い等の観点に基づくクラスタ分析を行なうことで、画像データを位置姿勢情報に応じて分類するようにしてもよい。
The learning of the position / orientation
When performing unsupervised learning, the position / orientation
例えば、位置姿勢情報学習部32は、学習の開始時においては、画像データの特徴量と位置姿勢情報との相関関係は未知であるが、学習を進めるに従い、徐々に特徴を識別して相関関係を解釈する。学習が進行することにより、位置姿勢情報学習部32は、画像データの特徴量(画像データに含まれる物体の形状(輪郭など)、色、サイズ、光の反射度合い等)と位置姿勢情報(緯度、経度、高度、姿勢角)の相関関係を表す条件を最適解に近づけることができる。なお、位置姿勢情報学習部32は、画像データの特徴量と位置姿勢情報との関係を学習するようにしたが、画像データの特徴量を用いずに、画像データと位置姿勢情報との関係性を表す条件を学習するようにしてもよい。この場合、位置姿勢情報学習部32は、例えば、画像データに含まれるそれぞれの画素と位置姿勢情報の関係性を表す条件を学習するようにしてもよい。
For example, the position / orientation
このようにして得られる学習済みモデルは、実際の現場で撮影した画像から位置姿勢を算出することができる。実際の現場で撮像した画像は、例えば、自律移動ロボットや飛行ロボットによって自律撮影された画像であってもよいし、現場内を巡回する作業員によって撮影された画像であってもよい。このように撮像された画像とその撮影された位置姿勢とを保存することができるため、簡単に状況管理をすることができる。 The trained model obtained in this way can calculate the position and orientation from the image taken at the actual site. The image captured at the actual site may be, for example, an image autonomously photographed by an autonomous mobile robot or a flying robot, or an image photographed by a worker patrolling the site. Since the image captured in this way and the captured position / posture can be saved, the situation can be easily managed.
回避対象学習部33は、回避対象を表す回避対象画像データと回避対象であるか否かを識別する識別情報との関係を学習することで、学習済みモデルを生成する。回避対象は、作業員、重機、建築資材等である。回避対象学習部33は、画像情報に含まれる画像データに対して画像処理を行い、画像データに含まれる回避対象である物体(作業員、重機、一時保管された建築資材等)の形状(輪郭など)、色、サイズ、光の反射度合い等について解析することで、これらを特徴量(特徴データ)として取得する。回避対象学習部33は、得られた特徴量と回避対象であるか否かを識別する識別情報との関係を学習する。例えば、作業員、重機、建築資材について回避対象であることを表す識別情報とを関係を学習する。回避対象画像データは、作業員、重機、一時保管された建築資材のそれぞれについて、種々の種類や、種々の角度から撮影された画像が用いられる。これにより、作業員、重機、一時保管された建築資材を精度よく識別可能な学習済みモデルを得ることができる。
また、回避対象学習部33は、回避対象ではないことを表す識別情報と、回避しなくてもよい物体の画像(作業員が床面を汚さずに歩行することができるように床面上に敷かれた養生シート等)との関係を学習してもよい。
回避対象学習部33の学習の方式等は、位置姿勢情報学習部32と共通するため説明を省略する。
The avoidance
Further, the avoidance
Since the learning method of the avoidance
出力部34は、位置姿勢情報学習部32によって生成された学習済みモデルと回避対象学習部33によって生成された学習済みモデルとを出力する。
The
自律移動ロボット40は、位置姿勢推定部41、撮像部42、判定部43、経路生成部44、駆動部45、移動制御部46、通信部47を有する。
位置姿勢推定部41は、撮像画像取得部411、位置姿勢情報算出部412、記憶部413、位置姿勢情報出力部414を有する。
撮像画像取得部411は、建設現場内における何れかの位置姿勢において撮影された画像データを取得する。例えば、撮像画像取得部411は、撮像部42によって撮像された画像データを取得する。この画像データは、施工対象物の内部における何れかの位置姿勢から一人称視点で見たときの画像である。また、この画像データは、少なくとも一部に建設現場の画像が含まれていればよく、施工対象物の内部から撮影された画像または施工対象物の外部から施工対象物を撮影した画像を用いることができる。
The autonomous
The position /
The captured
位置姿勢情報算出部412は、建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢と当該位置姿勢から一人称視点で見たときの画像との関係を学習した学習済みモデルを用いて、画像データに対応する位置姿勢情報を求める。このとき用いられる学習済みモデルは、学習装置30によって生成された学習済みモデルである。
The position / posture
記憶部413は、位置姿勢情報学習部32から出力された学習済みモデルと、回避対象学習部33から出力された学習済みモデルを記憶する。
The
位置姿勢情報出力部414は、位置姿勢情報算出部412によって得られた位置姿勢情報を出力する。
The position / attitude
撮像部42は、周囲を撮影し、撮像データ(画像データ)を出力する。撮像部42は、例えば、カメラである。
判定部43は、回避対象を表す回避対象画像データと回避対象であるか否かを識別する識別情報との関係を学習した学習済みモデルを用いて、撮像画像取得部によって取得された画像に回避対象である物体が含まれているか否かを判定する。判定部43が用いる学習済みモデルは、回避対象学習部33によって生成された学習済みモデルである。
経路生成部44は、自律移動ロボット40が建設現場内を移動する経路を示す経路情報を生成する。この経路情報は、例えば、建設現場の状況管理をする対象の位置姿勢を経由するルートである。
経路生成部44は、取得された画像に、回避対象画像に対応する物体が含まれている場合には、当該を迂回する経路である迂回経路を生成する。この迂回経路は、回避対象物を回避した後、経路情報が示す経路に戻るような経路である。
The
The
The
When the acquired image includes an object corresponding to the avoidance target image, the
駆動部45は、自律移動ロボット40の移動機構を駆動する。移動機構としては、自律移動ロボット40に取り付けられた車輪を回転駆動させることで、前後方向に移動させたり、操舵輪を操舵することで左右方向への走行方向を変える。
なお、自律移動ロボット40がドローンである場合、駆動部45は、ドローンに設けられたローターを回転駆動させたり、飛行方向を変更する。自律移動ロボット40は、無人航空機であればよく、ドローンの他にマルチコプターであってもよい。
The
When the autonomous
移動制御部46は、位置姿勢情報算出部412によって求められた位置姿勢情報が生成された迂回経路に沿うように移動する。
The
通信部47は、学習装置30や状況管理装置50と通信を行う。状況管理装置50に撮影された画像データと、当該画像データを撮影した位置姿勢情報とを送信する。また、通信部47は、これらの情報を送信する際に、画像データが撮像された日時を示す情報も送信することができる。
The
状況管理装置50は、自律移動ロボット40から送信された各種情報を記憶する。状況管理装置50に記憶された情報は、建設現場の管理者が利用する端末装置を利用することで、閲覧することができる。
The
上述の一人称視点画像データベース20、記憶部413、状況管理装置50に設けられた記憶部等については、記憶媒体、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、RAM(Random Access read/write Memory)、ROM(Read Only Memory)、またはこれらの記憶媒体の任意の組み合わせによって構成することができ、また、例えば不揮発性メモリを用いることができる。
Regarding the storage unit provided in the first-person
図2は、状況管理システム1の処理の流れを説明する図である。
三次元モデル画像生成装置10は、三次元モデルデータを用いて、施工対象物の内部側のいずれかの位置姿勢から一人称視点で見たときの画像を生成する。ここでは、位置姿勢を変えることで多数の画像を生成する。三次元モデル画像生成装置10は、生成された画像と、当該画像を生成した際の一人称視点の位置姿勢を示す位置姿勢情報とを画像情報として一人称視点画像データベース20に書き込む(ステップS10)。
また、ここでは回避対象画像データが所定の記憶領域に記憶される(ステップS11)。所定の記憶領域は、学習装置30の外部の記憶装置であってもよいし、状況管理装置50の記憶領域を用いるようにしてもよい。
学習装置30は、一人称視点で見たときの画像情報と回避対象画像データとを取得する(ステップS12)。そして、学習装置30は、位置姿勢情報学習部32によって画像情報を用いて学習済みモデルを生成し、回避対象学習部33によって回避対象画像データを用いて学習済みモデルを生成する(ステップS13)。これらの生成された学習済みモデルは、自律移動ロボット40の記憶部413に記憶される(ステップS14)。
FIG. 2 is a diagram illustrating a processing flow of the status management system 1.
The three-dimensional model
Further, here, the image data to be avoided is stored in a predetermined storage area (step S11). The predetermined storage area may be a storage device external to the
The
自律移動ロボット40は、建設現場内に配置された後、撮像部42によって周囲を撮像する(ステップS15)。この撮影は、撮影タイミングが到来する毎に行われる。撮影タイミングは、一定時間毎(数秒毎、数分毎等)であってもよいし、一定の距離を移動したことを検出したタイミングであってもよいし、撮影する対象の地点に到達したタイミングであってもよい。
After the autonomous
自律移動ロボット40は、位置姿勢情報学習部32によって生成された学習済みモデルを用いて(ステップS16)、撮像部42によって撮影された画像に対応する位置姿勢情報を得る(ステップS17)。自律移動ロボット40は、得られた位置姿勢情報が、予め定められた経路情報に沿うように駆動部45を駆動させる。また、自律移動ロボット40は、回避対象学習部33によって生成された学習済みモデルを用いて、撮像部42によって撮影された画像に回避対象があるか否かを判定し、回避対象がある場合には、回避経路を生成する(ステップS18)。
The autonomous
図3は、自律移動ロボット40の処理を説明するフローチャートである。
自律移動ロボット40は、建設現場の状況管理をする対象の位置姿勢を経由するルートを示す経路情報を経路生成部44によって生成し、その経路情報に沿って移動を開始する。そして自律移動ロボット40は、建設現場内において移動しつつ、撮像部42によって周囲を撮影し、画像データを得る(ステップS50)。自律移動ロボット40は、得られた画像データについて画像処理等を行うことで解析を行い(ステップS51)、学習済みモデルを用いて、位置姿勢情報を得る。ここで、位置姿勢情報算出部412は、得られた位置姿勢情報が、正しく認識できたか否かを判定する(ステップS52)。例えば、前回位置姿勢情報を算出した時刻から今回位置姿勢情報を算出した時刻までの時間と、前回得られた位置姿勢情報と今回得られた位置姿勢情報との間の距離と、から得られる速度が、自律移動ロボット40が移動する際の移動速度から一定以上超えている場合には、正しく認識されないと判断する。この場合、得られた位置姿勢情報が正しくないものとして採用しないようにすることができ、位置姿勢情報算出の精度が低下することを防止することができる。なお、ここでは、移動速度を基に判断するようにしたが、前回得られた位置姿勢情報と今回得られた位置姿勢情報との間の距離が一定以上の距離である場合には、正しく認識されないと判断するようにしてもよい。
一方、位置姿勢情報が正しく認識できた場合には、この位置姿勢情報の算出に用いた画像データに、回避対象である物体があるか否かを、回避対象学習部33によって得られた学習済みモデルを用いて認識する(ステップS54)。
FIG. 3 is a flowchart illustrating the processing of the autonomous
The autonomous
On the other hand, when the position / orientation information can be correctly recognized, whether or not there is an object to be avoided in the image data used for calculating the position / orientation information has been learned by the avoidance
経路生成部44は、回避対象があるか否かの認識結果と経路情報とを基に、移動ルート(経路情報)を生成する。ここでは、回避対象がない場合には、ステップS52において認識された現在位置姿勢から建設現場の状況管理をする対象の位置姿勢まで移動するための経路情報を生成する(ステップS55)。経路情報を生成する場合、例えば、BIMやCAD等の三次元モデルデータを用い、自律移動ロボット40の周囲の環境(通路や壁、柱等)を基に、移動可能な経路を生成する。一方、回避対象がある場合、経路生成部44は、回避対象を回避しつつ建設現場の状況管理をする対象の位置姿勢まで移動するための経路情報を生成する。これにより、三次元モデルデータには存在しない作業員・資材・重機などの画像が、画像データに含まれていたとしても、回避対象として認識し、回避するような迂回ルートを生成し、迂回することができる。
自律移動ロボット40は、経路情報が生成されると、生成された経路情報に沿って移動するように駆動することで位置姿勢制御をする(ステップS56)。
The
When the route information is generated, the autonomous
自律移動ロボット40は、このようにして、建設現場の状況管理をする対象の位置姿勢を複数箇所通過した後、スタート位置姿勢に戻り、撮影された画像データと、当該画像データを撮影した位置姿勢情報とを状況管理装置50に送信する。ここでは、画像データを撮像した日時を表す日時データも一緒に送信する。これにより、状況管理装置50は、自律移動ロボット40から得られた画像データと位置姿勢情報と、画像データが撮影された日時とを対応付けて記憶することができる。
In this way, the autonomous
以上説明した実施形態によれば、近年導入が進んでいるBIMを効果的に用いて位置姿勢情報を学習させることで、特殊な装置を必要とせず、また、安価なカメラと計算機を用いるだけで、深層学習技術の活用により位置姿勢情報の取得と現場進捗管理を同時に達成することができる。これにより、自律移動ロボットなどの導入も容易となり、建設業の生産性向上に貢献できる。 According to the embodiment described above, by effectively using BIM, which has been introduced in recent years, to learn the position / orientation information, no special device is required, and only an inexpensive camera and computer are used. By utilizing deep learning technology, it is possible to acquire position and attitude information and manage on-site progress at the same time. This facilitates the introduction of autonomous mobile robots and the like, and can contribute to improving the productivity of the construction industry.
また、本実施形態によれば、ロボットの移動などに必要な位置姿勢情報の取得、また進捗管理等に必要な位置姿勢情報が紐付けられた写真の取得が、軽量なシステムにより実現することができる。また、その結果をBIMに戻すことで、日々の出来形管理をすることが可能となり、より良い現場管理や、学習装置30の学習精度の向上に寄与させることが可能である。
Further, according to the present embodiment, it is possible to acquire the position / attitude information necessary for the movement of the robot and the photograph associated with the position / attitude information necessary for the progress management by the lightweight system. it can. Further, by returning the result to BIM, it is possible to manage the finished product on a daily basis, which can contribute to better on-site management and improvement of learning accuracy of the
また、従来において、LIDARやVisual SLAMは、シーケンシャルに位置姿勢を推定する手法であり、常に絶対的な位置姿勢を算出するものではない。また、いずれも建設現場の進捗管理(出来形管理)に用いることが行われているが、絶対的な自己位置姿勢推定と、進捗管理の両方を併せ持つ軽量なシステムとなっていない。 Further, conventionally, LIDAR and Visual SLAM are methods for sequentially estimating the position and orientation, and do not always calculate the absolute position and orientation. In addition, although all of them are used for progress management (finished form management) of construction sites, they are not lightweight systems that have both absolute self-position posture estimation and progress management.
これに対し、本実施形態では、近年導入が進んでいるBIM(Building Information Modeling)やCADデータより一人称視点画像を生成し、深層学習技術により位置姿勢情報を学習させ、現場内において軽量なカメラ画像から自己位置姿勢を推定するとともに、位置姿勢情報の紐付いた画像を保存することで、進捗管理を容易とすることができる。また、自己位置姿勢の推定に必要な機器の重量の増大を抑えることができることから、自己位置姿勢の推定に必要な機材を移動ロボット等に搭載することが可能となる。 On the other hand, in the present embodiment, a first-person viewpoint image is generated from BIM (Billing Information Modeling) and CAD data, which have been introduced in recent years, and position / orientation information is learned by deep learning technology, and a lightweight camera image is used in the field. Progress management can be facilitated by estimating the self-position / orientation from the above and saving the image associated with the position / orientation information. In addition, since it is possible to suppress an increase in the weight of the equipment required for estimating the self-position and posture, it is possible to mount the equipment necessary for estimating the self-position and posture on a mobile robot or the like.
また、建設現場の状況は、日々変化するため、学習装置30における学習は、数日毎に実施することが望ましい。また、状況管理装置50に画像データが蓄積されることで、この画像データを基に出来形を管理し、また、三次元モデルデータに反映させることで、学習モデルを利用した位置姿勢情報の推定精度も向上していくことが期待できる。
Further, since the situation at the construction site changes every day, it is desirable that the learning with the
なお、上述した位置姿勢推定部41は、自律移動ロボット40の内部に設けられた1つの機能として説明したが、自律移動ロボット40とは別の独立した装置として構成されるようにしてもよい。この場合、位置姿勢推定部41の機能を有する装置が、既存の自律移動ロボットに搭載することで、既存の自律移動ロボットであっても、上述の自律移動ロボット40として機能することができる。
Although the position /
上述した実施形態における学習装置30、位置姿勢推定部41をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
The
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and the design and the like within a range not deviating from the gist of the present invention are also included.
1…状況管理システム、10…三次元モデル画像生成装置、20…一人称視点画像データベース、30…学習装置、31…画像情報取得部、32…位置姿勢情報学習部、33…回避対象学習部、34…出力部、40…自律移動ロボット、41…位置姿勢推定部、42…撮像部、43…判定部、44…経路生成部、45…駆動部、46…移動制御部、47…通信部、50…状況管理装置、411…撮像画像取得部、412…位置姿勢情報算出部、413…記憶部、414…位置姿勢情報出力部 1 ... Situation management system, 10 ... Three-dimensional model image generator, 20 ... First-person viewpoint image database, 30 ... Learning device, 31 ... Image information acquisition unit, 32 ... Position / orientation information learning unit, 33 ... Avoidance target learning unit, 34 ... Output unit, 40 ... Autonomous mobile robot, 41 ... Position and orientation estimation unit, 42 ... Imaging unit, 43 ... Judgment unit, 44 ... Path generation unit, 45 ... Drive unit, 46 ... Movement control unit, 47 ... Communication unit, 50 ... Situation management device, 411 ... Captured image acquisition unit, 412 ... Position / orientation information calculation unit, 413 ... Storage unit, 414 ... Position / orientation information output unit
Claims (6)
前記建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢と当該位置姿勢から一人称視点で見たときの画像との関係を学習した学習済みモデルを用いて、前記画像データに対応する位置姿勢情報を求める位置姿勢情報算出部と、
を有する位置姿勢推定装置。 An image acquisition unit that acquires image data taken at any position and orientation within the construction site,
Using a trained model that learned the relationship between the position and orientation of any of the construction sites and the image when viewed from the first-person perspective from the position and orientation in the three-dimensional model data of the construction object at the construction site, the image The position / attitude information calculation unit that obtains the position / attitude information corresponding to the data,
Position and orientation estimation device.
請求項1記載の位置姿勢推定装置。 The position / orientation estimation device according to claim 1, wherein the image is an image when viewed from a first-person viewpoint from any position / orientation inside the construction object.
一人称視点で前記三次元モデルデータにおいて前記位置姿勢から見たときの画像を取得する画像取得部と、
前記位置姿勢情報と前記画像との関係性を表す条件を学習する学習部と、
を有する学習装置。 A position / attitude information acquisition unit that acquires position / attitude information indicating the position / orientation of any of the construction sites in the three-dimensional model data of the construction object at the construction site.
An image acquisition unit that acquires an image when viewed from the position and orientation in the three-dimensional model data from the first-person viewpoint,
A learning unit that learns conditions that represent the relationship between the position / posture information and the image,
Learning device with.
回避対象を表す回避対象画像データと回避対象であるか否かを識別する識別情報との関係を学習した学習済みモデルを用いて、前記撮像画像取得部によって取得された画像に回避対象である物体が含まれているか否かを判定する判定部と、
前記取得された画像に、前記回避対象である物体が含まれている場合には、当該物体を迂回する経路である迂回経路を生成する経路生成部と、
前記位置姿勢情報算出部によって求められた位置姿勢情報が前記生成された迂回経路に沿うように移動する移動制御部と、
を有する移動ロボット。 The position / orientation estimation device according to claim 1 or 2.
Using a trained model that has learned the relationship between the avoidance target image data representing the avoidance target and the identification information that identifies whether or not it is the avoidance target, the object that is the avoidance target in the image acquired by the captured image acquisition unit. A judgment unit that determines whether or not is included, and
When the acquired image includes the object to be avoided, a route generation unit that generates a detour route that is a route that bypasses the object, and a route generation unit.
A movement control unit that moves the position / attitude information obtained by the position / attitude information calculation unit along the generated detour route, and a movement control unit.
Mobile robot with.
位置姿勢情報算出部が、前記建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢と当該位置姿勢から一人称視点で見たときの画像との関係を学習した学習済みモデルを用いて、前記画像データに対応する位置姿勢情報を求める
位置姿勢推定方法。 The captured image acquisition unit acquires image data taken at any position and orientation in the construction site, and
The position / posture information calculation unit has learned the relationship between the position / posture of any of the construction sites and the image when viewed from the first person's viewpoint in the three-dimensional model data of the construction object at the construction site. A position / posture estimation method for obtaining position / posture information corresponding to the image data using a model.
画像取得部が、一人称視点で前記三次元モデルデータにおいて前記位置姿勢から見たときの画像を取得し、
学習部が、前記位置姿勢情報と前記画像との関係性を表す条件を学習する
学習方法。 The position / posture information acquisition unit acquires the position / posture information representing the position / posture of any of the construction sites in the three-dimensional model data of the construction object at the construction site.
The image acquisition unit acquires an image when viewed from the position and orientation in the three-dimensional model data from the first-person viewpoint.
A learning method in which a learning unit learns a condition representing a relationship between the position / posture information and the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019044580A JP2020149186A (en) | 2019-03-12 | 2019-03-12 | Position attitude estimation device, learning device, mobile robot, position attitude estimation method, and learning method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019044580A JP2020149186A (en) | 2019-03-12 | 2019-03-12 | Position attitude estimation device, learning device, mobile robot, position attitude estimation method, and learning method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020149186A true JP2020149186A (en) | 2020-09-17 |
Family
ID=72430109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019044580A Pending JP2020149186A (en) | 2019-03-12 | 2019-03-12 | Position attitude estimation device, learning device, mobile robot, position attitude estimation method, and learning method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020149186A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114029965A (en) * | 2021-09-18 | 2022-02-11 | 中铁建设集团有限公司 | Active management system of side station robot for auxiliary management of construction site |
WO2023037773A1 (en) * | 2021-09-09 | 2023-03-16 | 村田機械株式会社 | Traveling vehicle system and traveling vehicle |
JP7274782B1 (en) | 2021-12-10 | 2023-05-17 | 株式会社 Sai | STRUCTURE RECOGNITION SYSTEM IN BUILDING AND STRUCTURE RECOGNITION METHOD IN BUILDING |
-
2019
- 2019-03-12 JP JP2019044580A patent/JP2020149186A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023037773A1 (en) * | 2021-09-09 | 2023-03-16 | 村田機械株式会社 | Traveling vehicle system and traveling vehicle |
CN114029965A (en) * | 2021-09-18 | 2022-02-11 | 中铁建设集团有限公司 | Active management system of side station robot for auxiliary management of construction site |
JP7274782B1 (en) | 2021-12-10 | 2023-05-17 | 株式会社 Sai | STRUCTURE RECOGNITION SYSTEM IN BUILDING AND STRUCTURE RECOGNITION METHOD IN BUILDING |
JP2023086519A (en) * | 2021-12-10 | 2023-06-22 | 株式会社 Sai | Inside building structure recognition system and inside building structure recognition method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10102429B2 (en) | Systems and methods for capturing images and annotating the captured images with information | |
US20230054914A1 (en) | Vehicle localization | |
JP6896077B2 (en) | Vehicle automatic parking system and method | |
JP7204326B2 (en) | Information processing device, its control method and program, and vehicle driving support system | |
TWI827649B (en) | Apparatuses, systems and methods for vslam scale estimation | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
JP2020507072A (en) | Laser scanner with real-time online self-motion estimation | |
US10347001B2 (en) | Localizing and mapping platform | |
US20200042656A1 (en) | Systems and methods for persistent simulation | |
JP2020149186A (en) | Position attitude estimation device, learning device, mobile robot, position attitude estimation method, and learning method | |
KR20210029586A (en) | Method of slam based on salient object in image and robot and cloud server implementing thereof | |
CN110260866A (en) | A kind of robot localization and barrier-avoiding method of view-based access control model sensor | |
CN108459596A (en) | A kind of method in mobile electronic device and the mobile electronic device | |
EP4088884A1 (en) | Method of acquiring sensor data on a construction site, construction robot system, computer program product, and training method | |
CN108544494A (en) | A kind of positioning device, method and robot based on inertia and visual signature | |
US20230350418A1 (en) | Position determination by means of neural networks | |
Stowers et al. | Quadrotor Helicopter Flight Control Using Hough Transform and Depth Map from a Microsoft Kinect Sensor. | |
JP6725736B1 (en) | Image specifying system and image specifying method | |
JP7226553B2 (en) | Information processing device, data generation method, and program | |
CN114529585A (en) | Mobile equipment autonomous positioning method based on depth vision and inertial measurement | |
CN109901589B (en) | Mobile robot control method and device | |
WO2019202878A1 (en) | Recording medium, information processing apparatus, and information processing method | |
Zaslavskiy et al. | Method for automated data collection for 3d reconstruction | |
Qian et al. | An improved ORB-SLAM2 in dynamic scene with instance segmentation | |
JP2021047744A (en) | Information processing device, information processing method and information processing program |