JP7274782B1 - STRUCTURE RECOGNITION SYSTEM IN BUILDING AND STRUCTURE RECOGNITION METHOD IN BUILDING - Google Patents

STRUCTURE RECOGNITION SYSTEM IN BUILDING AND STRUCTURE RECOGNITION METHOD IN BUILDING Download PDF

Info

Publication number
JP7274782B1
JP7274782B1 JP2021201084A JP2021201084A JP7274782B1 JP 7274782 B1 JP7274782 B1 JP 7274782B1 JP 2021201084 A JP2021201084 A JP 2021201084A JP 2021201084 A JP2021201084 A JP 2021201084A JP 7274782 B1 JP7274782 B1 JP 7274782B1
Authority
JP
Japan
Prior art keywords
data
measured
imaging device
building
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021201084A
Other languages
Japanese (ja)
Other versions
JP2023086519A (en
Inventor
徹 伊藤
康文 福間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2021201084A priority Critical patent/JP7274782B1/en
Application granted granted Critical
Publication of JP7274782B1 publication Critical patent/JP7274782B1/en
Publication of JP2023086519A publication Critical patent/JP2023086519A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】建築途中の施工現場のように似たような特徴点が大量に存在する施工現場においても高精度で建屋内の構造物を認識することが可能な建屋内構造物認識システムを提供する。【解決手段】本発明による建屋内構造物認識システムは、少なくとも1つの測距センサと、少なくとも1つの撮像装置と、SLAM(Simultaneous Localization and Mapping)計測装置とを備え、前記SLAM計測装置は、第1の学習済モデルを用いて基準部材の認識を行う基準認識部と、第2の学習済モデルを用いて前記撮像装置の自己位置の認識を行う自己位置認識部と、第3の学習済モデルを用いて建屋内の被測定物の認識を行う被測定物認識部とを備える。【選択図】図1An object of the present invention is to provide an in-building structure recognition system capable of recognizing structures in a building with high accuracy even at a construction site where there are a large number of similar feature points, such as a construction site in the middle of construction. . A building structure recognition system according to the present invention includes at least one ranging sensor, at least one imaging device, and a SLAM (Simultaneous Localization and Mapping) measuring device, the SLAM measuring device comprising: A reference recognition unit that recognizes a reference member using a first learned model, a self-position recognition unit that recognizes the self-position of the imaging device using a second learned model, and a third learned model. and an object-to-be-measured recognition unit that recognizes the object to be measured in the building using the [Selection drawing] Fig. 1

Description

本発明は、建屋内構造物認識システムに関し、特に、ニューラルネットワークによる深層学習を用いてビル等の建築物の建屋内に配置された構造物を認識する建屋内構造物認識システム及び建屋内構造物認識方法に関するものである。 TECHNICAL FIELD The present invention relates to an intra-building structure recognition system, and more particularly, an intra-building structure recognition system and an intra-building structure that recognize structures placed inside a building such as a building using deep learning using a neural network. It relates to recognition methods.

SLAM(Simultaneous Localization and Mapping)とは、自己位置推定と環境地図作成を同時に行う技術であり、LiDER(Light Detection and Ranging)等のセンサやカメラを環境内で移動させながら環境地図の作成を行うと同時に、環境地図内での自己位置の推定を行うものである。 SLAM (Simultaneous Localization and Mapping) is a technology that performs self-location estimation and environment map creation at the same time. At the same time, it estimates its own position within the environment map.

SLAMの技術は、建築分野において建屋内の環境をセンシングし、建屋内の構造物のデータを得るために用いることも期待されている。移動式のSLAM技術を利用する方法では、建屋内でカメラや3次元スキャナを移動させながら建屋内を連続して測定し、カメラから得られる画像情報や3次元スキャナから得られる3次元情報を連続して取得する。そして、取得した連続情報をリアルタイムで、若しくは全てのデータ計測作業が終了した後に、繋げることにより、建屋内の3次元空間とその中に配置された構造物を把握する。 SLAM technology is also expected to be used for sensing the environment inside a building and obtaining data on structures inside the building in the construction field. In the method using mobile SLAM technology, the inside of the building is continuously measured while moving the camera and 3D scanner within the building, and the image information obtained from the camera and the 3D information obtained from the 3D scanner are continuously collected. to obtain. By linking the obtained continuous information in real time or after all the data measurement work is completed, the three-dimensional space inside the building and the structures arranged therein can be grasped.

しかしながら、従来の移動式のSLAM技術を建築途中の施工現場の状況を把握するために利用する場合等には、期待する精度が得られにくいという問題がある。建築途中の施工現場においては、非常に多くの部材が入り組んで配置されているため、似たようなパターンが続いたり、足場の悪さ等から予期せぬ移動による視線のズレが生じたりすることも多くなり、マッチングが取れないことによる誤認識が生じやすい。一度このような誤認識が生じると、誤認識された点を基準として次の認識が行われるため、次々にズレと誤認識の影響が大きくなり、元の正しい状態への復帰が困難となる。 However, when the conventional mobile SLAM technology is used to grasp the situation of the construction site during construction, there is a problem that it is difficult to obtain the expected accuracy. At construction sites in the middle of construction, a large number of components are arranged in an intricate manner, so similar patterns may continue, and unpredictable movement due to poor scaffolding may cause a misalignment of the line of sight. As a result, erroneous recognition is likely to occur due to the lack of matching. Once such an erroneous recognition occurs, the next recognition is performed based on the erroneously recognized point, so the influence of the deviation and the erroneous recognition increases one after another, making it difficult to return to the original correct state.

また、建屋内の環境をセンシングする他の従来の方法として、複数の定点において、全天型の測定を行い、全ての定点におけるデータ計測作業が終了した後に、各定点における計測データを繋げる方法もある。 Another conventional method for sensing the environment inside a building is to perform all-sky measurements at multiple fixed points, and connect the measurement data at each fixed point after the data measurement work at all fixed points is completed. be.

しかしながら、全天型の測定には測量の知識が必要となり、より高精度を得るためには熟練者の経験に頼る必要がある。また、全天型の測定には時間がかかり、測定後の後処理についても手間と時間がかかるという問題がある。 However, all-sky measurement requires knowledge of surveying, and in order to obtain higher accuracy, it is necessary to rely on the experience of experts. In addition, there is a problem that the measurement of the whole sky type takes time, and the post-processing after the measurement also takes time and effort.

そのため、短時間で計測が可能な移動式のSLAM技術のメリットを生かしつつ、誤認識による精度の問題を解決することが可能な建屋内構造物認識システムが求められる。 Therefore, there is a demand for an in-building structure recognition system that can solve the problem of accuracy due to erroneous recognition while taking advantage of the mobile SLAM technology that enables measurement in a short period of time.

SLAM技術を利用して実空間を認識するための画像処理装置として、例えば、特許文献1では、「撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識部と、認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部と、前記認識部により実行される認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳する表示制御部と、を備える画像処理装置」が開示されている。 As an image processing device for recognizing a real space using SLAM technology, for example, Patent Document 1 describes an image acquisition unit that acquires an input image generated by capturing an image of a real space using an imaging device; a recognition unit that recognizes a relative position and orientation between the real space and the imaging device based on the positions of one or more feature points appearing in the input image; and the recognized relative position. and an application unit that provides an augmented reality application using posture; and a guidance object that guides a user operating the imaging device according to the distribution of the feature points so that recognition processing performed by the recognition unit is stabilized. and a display control unit that superimposes on the input image” is disclosed.

また、カメラを利用して施工中の建物内のデータを取得し、合成画像を表示する方法として、例えば、特許文献2では、「携帯撮像端末とデータサーバとから構成される合成画像表示システムであり、前記データサーバには、施工中の建物の3次元のコンピュータラフィック画像が予め書き込まれて記憶されており、前記携帯撮像端末が、前記建物内の画像を撮像し、撮像画像として出力する撮像部と、前記撮像画像を表示する表示部と、記撮像画像と、前記コンピュータグラフィック画像における前記撮像画像を撮像した位置及び撮像方向に対応して撮像した仮想画像とにおいて、同一の特徴点の座標位置を比較する位置制御部と、前記特徴点の座標位置の比較結果により、前記特徴点の座標位置が重なり合う座標変換を行うことにより、前記撮像画像に対して前記仮想画像を重ね合わせて前記表示部に表示する画像処理部とを備える」合成画像表示システムが開示されている。 In addition, as a method of acquiring data inside a building under construction using a camera and displaying a composite image, for example, in Patent Document 2, "a composite image display system composed of a mobile imaging terminal and a data server A three-dimensional computer graphics image of a building under construction is written in advance and stored in the data server, and the portable imaging terminal captures an image of the interior of the building and outputs it as a captured image. a display unit for displaying the captured image; coordinates of the same feature point in the captured image and a virtual image captured corresponding to the position and the capturing direction of the captured image in the computer graphic image; a position control unit that compares positions, and performs coordinate transformation in which the coordinate positions of the feature points are superimposed on the basis of the comparison result of the coordinate positions of the feature points, thereby superimposing the virtual image on the captured image and displaying the virtual image. A composite image display system is disclosed, which includes an image processing unit for displaying in a unit.

しかしながら、特許文献1及び2はいずれも特徴点を基準にするものであって、建築途中の建築現場のように似たような特徴点が大量に存在する施工現場においては、十分に機能するものではなかった。 However, both Patent Documents 1 and 2 are based on feature points, and they function sufficiently in construction sites where there are a large number of similar feature points, such as construction sites in the middle of construction. It wasn't.

特開2013-225245号公報JP 2013-225245 A 特開2014-2645号公報JP 2014-2645 A

そこで、本発明は、上記課題を解決し、建築途中の施工現場のように似たような特徴点が大量に存在する施工現場においても高精度で建屋内の構造物を認識することが可能な建屋内構造物認識システム及び建屋内構造物認識方法を提供するものである。 Therefore, the present invention solves the above problems, and can recognize structures in a building with high accuracy even at a construction site where there are a large number of similar feature points, such as a construction site in the middle of construction. A building structure recognition system and a building structure recognition method are provided.

また、本発明は、AIが単なる画像上の特徴点抽出ではなく、基準としてよいものを認識し、そのものを基準にして多くの測定画像データを接続し、建屋内の全体を把握し、測定することが可能な建屋内構造物認識システム及び建屋内構造物認識方法を提供するものである。 In addition, in the present invention, AI does not simply extract feature points from an image, but recognizes what can be used as a reference, connects a lot of measurement image data based on that, and grasps and measures the entire interior of the building. An object of the present invention is to provide an in-building structure recognition system and an in-building structure recognition method.

上記課題を解決するため、本発明では、少なくとも1つの測距センサと、少なくとも1つの撮像装置と、SLAM(Simultaneous Localization and Mapping)計測装置とを備え、SLAM計測装置は、第1の学習済モデルを用いて基準部材の認識を行う基準認識部と、第2の学習済モデルを用いて撮像装置の自己位置の認識を行う自己位置認識部と、第3の学習済モデルを用いて建屋内の被測定物の認識を行う被測定物認識部とを備えることを特徴とする、建屋内構造物認識システムを提供する。
本発明においては、建築現場で基準としてよいものを認識すべく学習させたAIにより、建築現場で基準とすべきものを認識し、その基準とすべきものの位置に基づき座標位置が重なり合う座標変換を行うことにより、複数の撮像画像を重ね合わせて、施工中の建物内のデータ全体を取得するものである。
In order to solve the above problems, the present invention includes at least one ranging sensor, at least one imaging device, and a SLAM (Simultaneous Localization and Mapping) measuring device, wherein the SLAM measuring device is a first trained model A reference recognition unit that recognizes the reference member using the second learned model, a self-position recognition unit that recognizes the self-position of the imaging device using the second learned model, and a third learned model inside the building Provided is an in-building structure recognition system characterized by comprising an object-to-be-measured recognition unit for recognizing an object to be measured.
In the present invention, an AI that has been trained to recognize what can be used as a reference at a construction site recognizes what should be used as a reference at the construction site, and performs coordinate transformation in which the coordinate positions overlap based on the position of the object that should be used as a reference. Thus, by superimposing a plurality of captured images, the entire data inside the building under construction is obtained.

本発明のある態様による建屋内構造物認識システムにおいて、基準認識部は、測距センサから得られたデータのうちSLAMにおける自己位置推定及び環境地図作成の基準にすることが可能な点又は領域を基準部材として認識する。 In the building structure recognition system according to one aspect of the present invention, the reference recognition unit selects a point or area that can be used as a reference for self-position estimation and environment map creation in SLAM among the data obtained from the ranging sensor. Recognize as a reference member.

本発明のある態様による建屋内構造物認識システムにおいて、第1の学習済モデルは、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成されたものである。 In the building structure recognition system according to one aspect of the present invention, the first trained model is generated by rendering the BIM data using a correct image generated from BIM (Building Information Modeling) data as the correct data. It is generated by performing machine learning using virtual observation images as observation data.

本発明のある態様による建屋内構造物認識システムにおいて、基準認識部は、撮像装置から得られた画像データ及び測距センサから得られた距離データを入力データとして、基準部材の認識を行い、基準部材の基準部材の3次元特徴データを出力データとして出力する。 In the system for recognizing structures in a building according to one aspect of the present invention, the reference recognition unit recognizes a reference member using image data obtained from an imaging device and distance data obtained from a range sensor as input data, and recognizes a reference member. Three-dimensional feature data of the reference member of the member is output as output data.

本発明のある態様による建屋内構造物認識システムにおいて、自己位置認識部は、撮像装置が被測定物を撮像しながら移動する際に、撮像装置の自己位置を逐次認識する。 In the intra-building structure recognition system according to one aspect of the present invention, the self-position recognition unit sequentially recognizes the self-position of the imaging device when the imaging device moves while imaging the object to be measured.

本発明のある態様による建屋内構造物認識システムにおいて、第2の学習済モデルは、BIMデータから得られた撮像装置の現在の3次元座標と姿勢角を正解データとし、a)現在と過去の仮想観測画像、b)現在と過去の仮想基準特徴、及びc)過去の前記撮像装置の3次元座標と姿勢角を観測データとして機械学習を行うことにより生成されたものである。 In the building structure recognition system according to one aspect of the present invention, the second trained model uses the current three-dimensional coordinates and the attitude angle of the imaging device obtained from the BIM data as correct data, a) current and past It is generated by performing machine learning using virtual observed images, b) current and past virtual reference features, and c) past three-dimensional coordinates and attitude angles of the imaging device as observed data.

本発明のある態様による建屋内構造物認識システムにおいて、自己位置認識部は、a)撮像装置から得られた画像データと、b)基準認識部から出力された基準部材の3次元特徴データと、c)撮像装置の過去の3次元座標と姿勢角とを入力データとして第2の学習済モデルに入力することにより撮像装置の自己位置の認識を行い、撮像装置の現在の3次元座標と姿勢角を出力データとして出力する。 In the building structure recognition system according to an aspect of the present invention, the self-position recognition unit includes a) image data obtained from the imaging device, b) three-dimensional feature data of the reference member output from the reference recognition unit, c) By inputting the past three-dimensional coordinates and the attitude angle of the imaging device as input data into the second trained model, the self-position of the imaging device is recognized, and the current three-dimensional coordinates and the attitude angle of the imaging device are recognized. as the output data.

本発明のある態様による建屋内構造物認識システムにおいて、被測定物認識部は、建屋内の構造物及び物体を被測定物として認識する。 In the in-building structure recognition system according to one aspect of the present invention, the object recognition unit recognizes structures and objects in the building as objects to be measured.

本発明のある態様による建屋内構造物認識システムにおいて、第3の学習済モデルは、BIMデータから生成された正解画像と被測定物の種類を示すデータを正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像及びBIMデータから生成した仮想距離画像を観測データとして機械学習を行うことにより生成されたものである。 In the building structure recognition system according to one aspect of the present invention, the third trained model renders the BIM data using the correct image generated from the BIM data and the data indicating the type of the object to be measured as correct data. It is generated by performing machine learning using the virtual observation image generated by and the virtual range image generated from the BIM data as observation data.

本発明のある態様による建屋内構造物認識システムにおいて、被測定物認識部は、撮像装置から得られた画像データと、測距センサから得られた距離データとを第3の学習済モデルに入力することにより被測定物の認識を行い、被測定物の種類及び被測定物の形状データを出力データとして出力する。 In the building structure recognition system according to one aspect of the present invention, the measured object recognition unit inputs image data obtained from the imaging device and distance data obtained from the range sensor into the third trained model. By doing so, the object to be measured is recognized, and the type of the object to be measured and the shape data of the object to be measured are output as output data.

被測定物認識部は、被測定物の前記撮像装置のカメラ座標系での形状データと、自己位置認識部から出力された撮像装置の現在の3次元座標及び姿勢角とから、被測定物の建屋内の空間座標系での自己位置を算出する。 The object recognition unit recognizes the object to be measured from the shape data of the object to be measured in the camera coordinate system of the image pickup device and the current three-dimensional coordinates and attitude angle of the image pickup device output from the self-position recognition unit. Calculate the self-position in the spatial coordinate system inside the building.

本発明のある態様による建屋内構造物認識システムにおいて、測距センサは、ToF(Time Of Flight)カメラ、ToFセンサ、LiDAR(Light Detection And Ranging)センサ、RADAR(RAdio Detection And Ranging)センサ、超音波センサ又は赤外線センサであってもよい。 In the building structure recognition system according to an aspect of the present invention, the ranging sensors include a ToF (Time Of Flight) camera, a ToF sensor, a LiDAR (Light Detection And Ranging) sensor, a RADAR (RADio Detection And Ranging) sensor, an ultrasonic wave It may be a sensor or an infrared sensor.

また、本発明では、第1の学習済モデルを用いて基準部材を認識するステップと、第2の学習済モデルを用いて撮像装置の自己位置を認識するステップと、第3の学習済モデルを用いて被測定物を認識するステップとを備えることを特徴とする、建屋内構造物認識方法を提供する。 Further, in the present invention, the step of recognizing the reference member using the first trained model, the step of recognizing the self-position of the imaging device using the second trained model, and the step of recognizing the self-position of the imaging device using the third trained model. and recognizing the object to be measured using the method.

また、本発明では、コンピュータに、上記の建屋内構造物認識方法の各ステップを実行させることを特徴とするプログラムを提供する。 Further, the present invention provides a program characterized by causing a computer to execute each step of the above-described indoor structure recognition method.

本発明において、「BIMデータ」とは、コンピュータ上に再現された建物の3次元モデルのデータをいう。BIMデータは、一般に、建物の3次元の構造の情報を含む他、建材をパーツごとにオブジェクトとして捉え、パーツごとに、幅、奥行き、高さ、素材、組み立ての工程や組み立てにかかる時間等の図面以外の情報を含むことができる。BIMデータをレンダリングすることにより、その3次元空間の画像を得ることができる。 In the present invention, "BIM data" refers to data of a three-dimensional model of a building reproduced on a computer. BIM data generally includes information on the three-dimensional structure of a building, and also considers building materials for each part as an object. Information other than drawings can be included. By rendering BIM data, an image of the three-dimensional space can be obtained.

建築現場の画像において構造物の認識を行う場合には、特徴点抽出だけでは不十分であり、基準として良い物体もしくは部位を認識して、それらのものを基準にして複数の計測画像を接続し、繋ぎ合わせる。これは人間が実際の現場において、柱など基準として良いものからの相対位置で多くのものを測定し、全体を把握する作業と同様である。
本発明によれば、この人間が自分の持つ知識をもとに行っている作業と同様の効果をAIを用いて実現することが可能となり、作業の効率化を図るとともに、建屋内の構造物の高精度な認識を実現することができる。
本発明の他の目的、特徴および利点は添付図面に関する以下の本発明の実施例の記載から明らかになるであろう。
When recognizing structures in images of a building site, it is not enough to simply extract feature points. It is necessary to recognize objects or parts that can be used as references, and connect multiple measurement images based on those objects. , connect. This is similar to the work that humans do in an actual site by measuring the relative positions of many things from a good reference, such as a pillar, and grasping the whole.
According to the present invention, it is possible to use AI to achieve the same effects as the work performed by humans based on their own knowledge, thereby improving the efficiency of the work and improving the structure of the building. can be realized with high accuracy.
Other objects, features and advantages of the present invention will become apparent from the following description of embodiments of the invention with reference to the accompanying drawings.

図1は、本発明による建屋内構造物認識システムの全体を示す概略図である。FIG. 1 is a schematic diagram showing the entire structure recognition system in a building according to the present invention. 図2は、本発明による第1の学習済モデルの生成について説明する図である。FIG. 2 is a diagram illustrating generation of a first trained model according to the present invention. 図3は、本発明によるSLAM計測装置の基準認識部を示す図である。FIG. 3 is a diagram showing a reference recognition section of the SLAM measuring device according to the present invention. 図4は、本発明による第2の学習済モデルの生成について説明する図である。FIG. 4 is a diagram illustrating generation of a second trained model according to the present invention. 図5は、本発明によるSLAM計測装置の自己位置認識部を示す図である。FIG. 5 is a diagram showing the self-position recognition unit of the SLAM measuring device according to the present invention. 図6は、本発明による第3の学習済モデルの生成について説明する図である。FIG. 6 is a diagram illustrating generation of a third trained model according to the present invention. 図7は、本発明によるSLAM計測装置の被測定物認識部を示す図である。FIG. 7 is a diagram showing the object recognition unit of the SLAM measurement device according to the present invention. 図8は、本発明による基準認識部における基準認識処理の流れを示すフローチャートである。FIG. 8 is a flow chart showing the flow of reference recognition processing in the reference recognition section according to the present invention. 図9は、本発明による自己位置認識部における自己位置認識処理の流れを示すフローチャートである。FIG. 9 is a flow chart showing the flow of self-location recognition processing in the self-location recognition section according to the present invention. 図10は、本発明による被測定物認識部における被測定物認識処理の流れを示すフローチャートである。FIG. 10 is a flow chart showing the flow of object recognition processing in the object recognition unit according to the present invention.

図1は、本発明による建屋内構造物認識システム1の全体を示す概略図である。
本発明による建屋内構造物認識システム1は、少なくとも1つの測距センサ20と、少なくとも1つの撮像装置30と、SLAM(Simultaneous Localization and Mapping)計測装置10とを備え、SLAM計測装置10は、第1の学習済モデルM1を用いて基準部材の認識を行う基準認識部101と、第2の学習済モデルM2を用いて撮像装置の自己位置の認識を行う自己位置認識部102と、第3の学習済モデルM3を用いて建屋内の被測定物の認識を行う被測定物認識部103とを備える。
FIG. 1 is a schematic diagram showing the entire structure recognition system 1 in a building according to the present invention.
A building structure recognition system 1 according to the present invention includes at least one distance measuring sensor 20, at least one imaging device 30, and a SLAM (Simultaneous Localization and Mapping) measurement device 10. The SLAM measurement device 10 includes: A reference recognition unit 101 that recognizes the reference member using the first trained model M1, a self-position recognition unit 102 that recognizes the self-position of the imaging device using the second trained model M2, and a third and an object-to-be-measured recognition unit 103 that recognizes the object to be measured in the building using the learned model M3.

測距センサ20は、建屋内の構造物又は物体と測距センサ20との距離を測定するために用いられる。測距センサ20は、好ましくはToF(Time Of Flight)カメラであるがこれに限られず、例えばToFセンサ、LiDAR(Light Detection And Ranging)センサ、RADAR(RAdio Detection And Ranging)センサ、超音波センサ又は赤外線センサ等の任意の測距センサであってもよい。 The ranging sensor 20 is used to measure the distance between a structure or object in the building and the ranging sensor 20 . The ranging sensor 20 is preferably a ToF (Time Of Flight) camera, but is not limited thereto. It may be any ranging sensor such as a sensor.

撮像装置30は、建屋内の画像を取得するために用いられる。撮像装置30は、好ましくは360度カメラであるがこれに限られず、例えば全天球型カメラ、半天球型カメラ又は携帯端末に搭載されたCCDカメラ等の任意の撮像手段であってもよい。 The imaging device 30 is used to acquire an image inside the building. The imaging device 30 is preferably a 360-degree camera, but is not limited to this, and may be any imaging means such as a omnidirectional camera, a hemispherical camera, or a CCD camera mounted on a mobile terminal.

SLAM計測装置10は、基準認識部101と、自己位置認識部102と、被測定物認識部103とを備える。 The SLAM measurement device 10 includes a reference recognition section 101 , a self-position recognition section 102 and a measurement object recognition section 103 .

基準認識部101は、第1の学習済モデルM1を用いて基準部材の認識を行う。基準認識部101は、測距センサから得られたデータのうちSLAMにおける自己位置推定及び環境地図作成の基準にすることが可能な点又は領域を基準部材として認識する。 The reference recognition unit 101 recognizes the reference member using the first trained model M1. The reference recognition unit 101 recognizes, as a reference member, a point or area that can be used as a reference for self-position estimation and environment map creation in SLAM among the data obtained from the ranging sensor.

自己位置認識部102は、第2の学習済モデルを用いて撮像装置の自己位置の認識を行う。自己位置認識部102は、撮像装置が被測定物を撮像しながら移動する際に、撮像装置の自己位置を逐次認識する。 A self-position recognition unit 102 recognizes the self-position of the imaging device using the second trained model. The self-position recognition unit 102 sequentially recognizes the self-position of the imaging device when the imaging device moves while imaging the object to be measured.

被測定物認識部103は、第3の学習済モデルを用いて建屋内の被測定物の認識を行う。被測定物認識部103は、建屋内の構造物及び物体を被測定物として認識する。被測定物は、例えば建屋内の柱、パイプ、ダクトや、机、棚等の家具等、建屋内に配置される任意の物であってよい。 The measured object recognition unit 103 recognizes the measured object in the building using the third learned model. The object recognition unit 103 recognizes structures and objects in the building as objects to be measured. The object to be measured may be any object placed in the building, such as pillars, pipes, ducts, and furniture such as desks and shelves in the building.

第1~第3の学習済モデルM1、M2、M3は、SLAM測定装置10による測定の前に予め機械学習モデル生成装置40により生成される。機械学習モデルを生成する機械学習モデル生成装置40は、BIMデータから正解画像を生成する正解データ生成部401と、BIMデータから仮想観測データを生成する仮想観測データ生成部402と、正解データ生成部401で生成されたデータを正解データとし、仮想観測データ生成部402で生成されたデータを観測データとして機械学習を行い、機械学習モデルを生成する学習モデル生成部403とを備える。正解データ生成部401で生成される正解データと、仮想観測データ生成部402で生成される仮想観測データは、生成する学習モデルによってそれぞれ異なり、結果として、異なる第1~第3の学習済モデルM1、M2、M3が生成される。 The first to third trained models M1, M2, M3 are generated in advance by the machine learning model generation device 40 before measurement by the SLAM measurement device 10. FIG. A machine learning model generation device 40 that generates a machine learning model includes a correct data generation unit 401 that generates a correct image from BIM data, a virtual observation data generation unit 402 that generates virtual observation data from BIM data, and a correct data generation unit. A learning model generation unit 403 for generating a machine learning model by performing machine learning using the data generated in 401 as correct data and the data generated in the virtual observation data generation unit 402 as observation data. The correct data generated by the correct data generation unit 401 and the virtual observation data generated by the virtual observation data generation unit 402 are different depending on the learning model to be generated, and as a result, different first to third trained models M1 , M2 and M3 are generated.

図2は、本発明による第1の学習済モデルM1の生成について説明する図である。
第1の学習済モデルM1は、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成される。第1の学習済モデルM1は、SLAM測定装置10による測定の前に予め機械学習モデル生成装置40により生成される。
FIG. 2 is a diagram illustrating generation of the first trained model M1 according to the present invention.
The first trained model M1 uses a correct image generated from BIM (Building Information Modeling) data as correct data, and performs machine learning using a virtual observation image generated by rendering BIM data as observation data. generated. The first trained model M1 is generated in advance by the machine learning model generation device 40 before measurement by the SLAM measurement device 10 .

機械学習モデル生成装置40において第1の学習済モデルM1を生成する場合には、正解データ生成部401はBIMデータから正解画像を生成する。仮想観測データ生成部402は、BIMデータをレンダリングすることにより仮想観測画像を生成する。正解画像は、構造物を示すマスク領域を有するマスク画像であってよい。正解画像は、例えば、図2で示すように、BIMデータから生成された2値化画像であってよい。図2の例では、建屋内の構造物であるパイプの領域が白で表現され、その他の部分が黒で表現されている。正解画像は、図2の例に限られず、認識すべき構造物に応じて他の形式の画像としてもよい。学習モデル生成部403は、正解データ生成部401で生成された正解画像を正解データとし、仮想観測データ生成部402で生成された仮想観測画像を観測データとして機械学習を行い、第1の学習済モデルM1を生成する。 When the machine learning model generation device 40 generates the first trained model M1, the correct data generation unit 401 generates a correct image from the BIM data. A virtual observed data generation unit 402 generates a virtual observed image by rendering BIM data. The correct image may be a masked image with masked areas showing structures. The correct image may be, for example, a binarized image generated from BIM data, as shown in FIG. In the example of FIG. 2, the pipe region, which is the structure inside the building, is represented in white, and the other portions are represented in black. The correct image is not limited to the example shown in FIG. 2, and may be an image of another format depending on the structure to be recognized. The learning model generating unit 403 performs machine learning using the correct image generated by the correct data generating unit 401 as correct data and the virtual observation image generated by the virtual observed data generating unit 402 as observation data, and performs machine learning to obtain a first learned model. Generate model M1.

図3は、本発明によるSLAM計測装置10の基準認識部101を示す図である。
基準認識部101は、撮像装置30から得られた画像データ及び測距センサ20から得られた距離データを入力データとして、基準部材の認識を行い、基準部材の3次元特徴データを出力データとして出力する。ここで、基準認識部101における基準認識処理の結果として出力される3次元特徴データは、柱やパイプ、ダクトなどの基準となる部材を直線や点、平面等の特徴で表現したデータである。
FIG. 3 is a diagram showing the reference recognition section 101 of the SLAM measurement device 10 according to the present invention.
The reference recognition unit 101 recognizes a reference member using image data obtained from the imaging device 30 and distance data obtained from the distance measuring sensor 20 as input data, and outputs three-dimensional feature data of the reference member as output data. do. Here, the three-dimensional feature data output as a result of the reference recognition processing in the reference recognition unit 101 is data in which reference members such as columns, pipes, and ducts are represented by features such as straight lines, points, and planes.

図4は、本発明による第2の学習済モデルM2の生成について説明する図である。
第2の学習済モデルM2は、BIMデータから得られた撮像装置30の現在の3次元座標と姿勢角を正解データとし、a)現在と過去の仮想観測画像、b)現在と過去の仮想基準特徴、及びc)過去の撮像装置30の3次元座標と姿勢角を観測データとして機械学習を行うことにより生成される。第2の学習済モデルM2は、SLAM測定装置10による測定の前に予め機械学習モデル生成装置40により生成される。
FIG. 4 is a diagram illustrating generation of the second trained model M2 according to the present invention.
The second trained model M2 uses the current three-dimensional coordinates and the attitude angle of the imaging device 30 obtained from the BIM data as correct data, a) current and past virtual observation images, b) current and past virtual reference It is generated by performing machine learning using the features and c) the three-dimensional coordinates and attitude angles of the imaging device 30 in the past as observation data. The second trained model M2 is generated in advance by the machine learning model generation device 40 before measurement by the SLAM measurement device 10. FIG.

機械学習モデル生成装置40において第2の学習済モデルM2を生成する場合には、正解データ生成部401はBIMデータから正解データとして撮像装置30の現在の3次元座標と姿勢角を生成する。仮想観測データ生成部402は、BIMデータをレンダリングすることにより、a)現在と過去の仮想観測画像と、b)現在と過去の仮想基準特徴と、c)撮像装置30の過去の3次元座標と姿勢角を観測データとして生成する。学習モデル生成部403は、正解データ生成部401で生成された、撮像装置30の現在の3次元座標と姿勢角を正解データとし、仮想観測データ生成部402で生成された、a)現在と過去の仮想観測画像と、b)現在と過去の仮想基準特徴と、c)撮像装置30の過去の3次元座標と姿勢角を観測データとして機械学習を行い、第2の学習済モデルM2を生成する。 When the machine learning model generation device 40 generates the second trained model M2, the correct data generation unit 401 generates the current three-dimensional coordinates and attitude angle of the imaging device 30 as correct data from the BIM data. By rendering the BIM data, the virtual observation data generation unit 402 generates a) current and past virtual observation images, b) current and past virtual reference features, and c) past three-dimensional coordinates of the imaging device 30. Attitude angle is generated as observation data. The learning model generating unit 403 uses the current three-dimensional coordinates and the attitude angle of the imaging device 30 generated by the correct data generating unit 401 as correct data, and a) present and past generated by the virtual observation data generating unit 402. , b) the current and past virtual reference features, and c) the past three-dimensional coordinates and attitude angles of the imaging device 30 as observation data to perform machine learning to generate a second learned model M2. .

図5は、本発明によるSLAM計測装置10の自己位置認識部102を示す図である。
自己位置認識部102は、a)撮像装置から得られた画像データと、b)基準認識部101から出力された基準部材の3次元特徴データと、c)撮像装置30の過去の3次元座標と姿勢角とを入力データとして第2の学習済モデルM2に入力することにより撮像装置の自己位置の認識を行い、撮像装置30の現在の3次元座標と姿勢角を出力データとして出力する。ここで、自己位置認識部102における自己位置認識処理の結果として出力される3次元座標及び姿勢角のうち、3次元座標(X座標、Y座標、Z座標)は、撮像装置30が被測定物を撮像しながら建屋内を移動する際の建屋内における撮像装置30の現在の3次元位置を示すものである。また、姿勢角(ロール角、ピッチ角、ヨー角)は、それぞれ撮像装置30の3次元座標のX軸に対する回転角、Y軸に対する回転角、Z軸に対する回転角を示すものである。
FIG. 5 is a diagram showing the self-position recognition unit 102 of the SLAM measuring device 10 according to the present invention.
The self-position recognition unit 102 uses a) image data obtained from the imaging device, b) three-dimensional feature data of the reference member output from the reference recognition unit 101, and c) past three-dimensional coordinates of the imaging device 30. By inputting the posture angle as input data to the second trained model M2, the self position of the imaging device is recognized, and the current three-dimensional coordinates and the posture angle of the imaging device 30 are output as output data. Here, among the three-dimensional coordinates and the posture angle output as a result of the self-position recognition processing in the self-position recognition unit 102, the three-dimensional coordinates (X coordinate, Y coordinate, Z coordinate) are 3 shows the current three-dimensional position of the imaging device 30 in the building when moving within the building while imaging the . The attitude angles (roll angle, pitch angle, yaw angle) indicate the rotation angles of the three-dimensional coordinates of the imaging device 30 with respect to the X axis, the Y axis, and the Z axis, respectively.

図6は、本発明による第3の学習済モデルM3の生成について説明する図である。
第3の学習済モデルM3は、BIMデータから生成された正解画像と被測定物の種類を示すデータを正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像及びBIMデータから生成した仮想距離画像を観測データとして機械学習を行うことにより生成される。第3の学習済モデルM3は、SLAM測定装置10による測定の前に予め機械学習モデル生成装置40により生成される。
FIG. 6 is a diagram illustrating generation of the third trained model M3 according to the present invention.
The third trained model M3 is generated from a virtual observation image generated by rendering the BIM data and the BIM data, using the correct data generated from the BIM data and the data indicating the type of the object to be measured as the correct data. It is generated by performing machine learning using the virtual range image as observed data. The third learned model M3 is generated in advance by the machine learning model generation device 40 before measurement by the SLAM measurement device 10. FIG.

機械学習モデル生成装置40において第3の学習済モデルM3を生成する場合には、正解データ生成部401はBIMデータから正解画像と正解データを生成する。仮想観測データ生成部402は、BIMデータをレンダリングすることにより仮想観測画像を生成し、BIMデータから仮想距離画像を生成する。正解画像は、被測定物を示すマスク領域を有するマスク画像であってよい。正解画像は、例えば、図6で示すように、BIMデータから生成された2値化画像であってよい。図6の例では、建屋内の構造物である柱の領域が白で表現され、その他の部分が黒で表現されている。正解画像は、図6の例に限られず、認識すべき構造物に応じて他の形式の画像としてもよい。また、正解データは、被測定物の種類(例えば、柱、パイプ、ダクトなど)を示すデータである。被測定物の種類はBIMデータの中に含まれており、正解画像により示される被測定物に対応する被測定物の種類がBIMデータから抽出され、正解データとして利用される。仮想観測画像は、BIMデータをレンダリングすることにより生成される。仮想距離画像は、BIMデータの3次元座標から生成される。仮想距離画像は、カメラから被測定物の表面までの距離を例えば濃淡等により表現したものである。学習モデル生成部403は、正解データ生成部401で生成された正解画像を正解データとし、仮想観測データ生成部402で生成された仮想観測画像及び仮想距離画像を観測データとして機械学習を行い、第3の学習済モデルM3を生成する。 When the machine learning model generation device 40 generates the third trained model M3, the correct data generation unit 401 generates a correct image and correct data from the BIM data. A virtual observed data generation unit 402 generates a virtual observed image by rendering BIM data, and generates a virtual range image from the BIM data. The correct image may be a mask image having a mask area showing the object to be measured. The correct image may be, for example, a binarized image generated from BIM data, as shown in FIG. In the example of FIG. 6, the pillar area, which is the structure inside the building, is expressed in white, and the other parts are expressed in black. The correct image is not limited to the example shown in FIG. 6, and may be an image of another format depending on the structure to be recognized. Further, the correct data is data indicating the type of the object to be measured (for example, pillar, pipe, duct, etc.). The type of the object to be measured is included in the BIM data, and the type of the object to be measured corresponding to the object to be measured indicated by the correct image is extracted from the BIM data and used as correct data. A virtual observed image is generated by rendering the BIM data. A virtual range image is generated from the three-dimensional coordinates of the BIM data. The virtual distance image expresses the distance from the camera to the surface of the object to be measured using, for example, shading. The learning model generating unit 403 performs machine learning using the correct image generated by the correct data generating unit 401 as correct data and the virtual observation image and virtual range image generated by the virtual observation data generating unit 402 as observation data. 3, a trained model M3 is generated.

図7は、本発明によるSLAM計測装置10の被測定物認識部103を示す図である。
被測定物認識部103は、撮像装置30から得られた画像データと、測距センサから得られた距離データとを第3の学習済モデルM3に入力することにより被測定物の認識を行い、被測定物の種類及び被測定物の形状データを出力データとして出力する。ここで、被測定物の種類とは、例えば柱、パイプ、ダクト等であり、被測定物の種類は被測定物の名称、カテゴリ名、ID等で示されるようにしてもよい。また、第3の学習済モデルM3から出力される被測定物の形状データは、撮像装置30のカメラ座標系での形状データである。
FIG. 7 is a diagram showing the object recognition unit 103 of the SLAM measurement device 10 according to the present invention.
The measured object recognition unit 103 recognizes the measured object by inputting the image data obtained from the imaging device 30 and the distance data obtained from the distance measuring sensor to the third trained model M3. The type of the object to be measured and the shape data of the object to be measured are output as output data. Here, the type of the object to be measured is, for example, a column, a pipe, a duct, etc. The type of the object to be measured may be indicated by the name of the object to be measured, the category name, the ID, or the like. Further, the shape data of the object to be measured output from the third trained model M3 is shape data in the camera coordinate system of the imaging device 30 .

次に、被測定物認識部103は、被測定物の撮像装置30のカメラ座標系での形状データ(即ち3次元点群)と、自己位置認識部102から出力された撮像装置30の現在の3次元座標及び姿勢角とから、被測定物の建屋内の空間座標系での自己位置を算出する。即ち、被測定物認識部103は、自己位置認識部102から出力された撮像装置30の現在の3次元座標及び姿勢角を用いて、第3の学習済モデルM3から出力された撮像装置30のカメラ座標系での被測定物の形状データを、被測定物のフロア内又は建屋内の空間座標系での形状データに座標変換する。これにより、被測定物認識部103における認識結果として、被測定物の種類と、フロア内又は建屋内の空間座標系における被測定物の形状データ(即ち3次元点群)が得られる。 Next, the object-to-be-measured recognition unit 103 recognizes the shape data (three-dimensional point group) of the object to be measured in the camera coordinate system of the imaging device 30 and the current position of the imaging device 30 output from the self-position recognition unit 102 . From the three-dimensional coordinates and attitude angle, the self-position of the object to be measured in the space coordinate system inside the building is calculated. That is, the measured object recognizing unit 103 uses the current three-dimensional coordinates and attitude angle of the imaging device 30 output from the self-position recognizing unit 102 to determine the position of the imaging device 30 output from the third trained model M3. The shape data of the object to be measured in the camera coordinate system are coordinate-transformed into the shape data of the object to be measured in the space coordinate system within the floor or inside the building. As a result of this, the type of the object to be measured and the shape data (that is, three-dimensional point group) of the object to be measured in the spatial coordinate system within the floor or inside the building are obtained as recognition results in the object recognition unit 103 .

以下、図8~10を参照して、本発明による建屋内構造物認識方法の処理の流れを説明する。
本発明による建屋内構造物認識方法は、第1の学習済モデルを用いて基準部材を認識するステップと、第2の学習済モデルを用いて撮像装置の自己位置を認識するステップと、第3の学習済モデルを用いて被測定物を認識するステップとを備える。
The flow of processing of the method for recognizing structures in a building according to the present invention will be described below with reference to FIGS.
A building structure recognition method according to the present invention comprises steps of recognizing a reference member using a first learned model, recognizing a self-position of an imaging device using a second learned model, and recognizing the object to be measured using the trained model of.

基準部材を認識するステップは、画像データと距離データを取得するステップと、画像データと距離データを第1の学習済モデルに入力するステップと、第1の学習済モデルからの出力データとして、基準部材の3次元特徴データを出力するステップとを備える。 The step of recognizing the reference member includes obtaining image data and distance data, inputting the image data and distance data into the first trained model, and outputting the reference member as output data from the first trained model. and outputting three-dimensional feature data of the member.

自己位置を認識するステップは、a)画像データと、b)基準部材の3次元特徴データと、c)撮像装置の過去の3次元座標と姿勢角とを取得するステップと、a)画像データと、b)基準部材の3次元特徴データと、c)撮像装置の過去の3次元座標と姿勢角とを入力データとして第2の学習済モデルに入力するステップと、第2の学習済モデルからの出力データとして、撮像装置の現在の建屋内での自己位置を出力するステップとを備える。 The step of recognizing the self-position includes acquiring a) image data, b) three-dimensional feature data of the reference member, c) past three-dimensional coordinates and attitude angles of the imaging device, and a) image data. b) the three-dimensional feature data of the reference member, and c) the past three-dimensional coordinates and attitude angle of the imaging device as input data into the second trained model; and outputting the current self-position of the imaging device in the building as output data.

被測定物を認識するステップは、画像データと距離データを取得するステップと、画像データと距離データを第3の学習済モデルに入力するステップと、第3の学習済モデルからの出力データとして、被測定物の種類と、カメラ座標系における被特定物の形状を出力するステップと、撮像装置の現在の建屋内での自己位置を用いて、被測定物の自己位置を算出するステップと、被測定物の種類と、建屋内の空間座標系における被測定物の自己位置と、前記空間座標系における前記被測定物の形状を出力するステップとを備える。 The step of recognizing the object to be measured includes a step of acquiring image data and distance data, a step of inputting the image data and distance data into a third trained model, and output data from the third trained model, a step of outputting the type of the object to be measured and the shape of the object to be measured in the camera coordinate system; a step of calculating the self-position of the object by using the current self-position in the building of the imaging device; outputting the type of the object to be measured, the self-position of the object to be measured in the spatial coordinate system inside the building, and the shape of the object to be measured in the spatial coordinate system;

図8は、本発明による基準認識部101における基準認識処理の流れを示すフローチャートである。
まず、ステップS801において、画像データと距離データを取得する。画像データは撮像装置30から取得され、距離データは測距センサ20から取得される(S801)。
FIG. 8 is a flow chart showing the flow of reference recognition processing in the reference recognition unit 101 according to the present invention.
First, in step S801, image data and distance data are obtained. Image data is obtained from the imaging device 30, and distance data is obtained from the ranging sensor 20 (S801).

次に、ステップS802において、基準の認識が行われる。基準の認識は、第1の学習済モデルM1を用いて行われる。第1の学習済モデルM1に対する入力データとして、ステップS801で撮像装置30から取得した画像データと、測距センサ20から取得した距離データが入力される。これにより、第1の学習済モデルM1を用いた予測が行われる。 Next, in step S802, reference recognition is performed. Reference recognition is performed using the first trained model M1. As input data for the first trained model M1, the image data acquired from the imaging device 30 in step S801 and the distance data acquired from the distance measuring sensor 20 are inputted. As a result, prediction using the first trained model M1 is performed.

次に、ステップS803において、第1の学習済モデルM1からの出力データとして、基準部材の3次元特徴データが出力される。基準部材の3次元特徴データとは、基準となる部材を直線や点、平面などの特徴で表現したデータである。これにより、第1の学習済モデルM1を用いた予測の結果として、基準となる部材を直線や点、平面などの特徴で表現したデータが得られる。この基準認識処理の結果である基準部材の3次元特徴データは、後に図9の自己位置認識処理のステップS901において、第2の学習済モデルM2に対する入力データとして用いられる。 Next, in step S803, three-dimensional feature data of the reference member is output as output data from the first trained model M1. The three-dimensional feature data of the reference member is data expressing the reference member by features such as straight lines, points, and planes. As a result of the prediction using the first trained model M1, data expressing the reference member with features such as straight lines, points, and planes can be obtained. The three-dimensional feature data of the reference member, which is the result of this reference recognition processing, is later used as input data for the second trained model M2 in step S901 of self-position recognition processing in FIG.

図9は、本発明による自己位置認識部102における自己位置認識処理の流れを示すフローチャートである。
まず、ステップS901において、a)現在と過去の画像データ、b)現在と過去の基準部材の3次元特徴データ、及びc)過去の建屋内の自己位置(3次元座標と姿勢角)を取得する。a)現在と過去の画像データは、撮像装置30から取得される。撮像装置30から取得した現在と過去の画像データは、撮像装置30内のメモリ又はデータベース(図示せず)等に随時、保存される。b)現在と過去の基準部材の3次元特徴データは、図8の基準認識処理の結果R1であり、基準認識部101から取得される。c)過去の建屋内の自己位置(3次元座標と姿勢角)は、自己位置認識部102内のメモリ又はデータベース(図示せず)等に随時、保存される。過去の建屋内での自己位置(3次元座標と姿勢角)は、2回目以降の自己位置認識処理の際に取得されて、現在の建屋内の自己位置(3次元座標と姿勢角)を認識するために用いられる。
FIG. 9 is a flow chart showing the flow of self-location recognition processing in the self-location recognition unit 102 according to the present invention.
First, in step S901, a) current and past image data, b) current and past three-dimensional feature data of the reference member, and c) past self-position (three-dimensional coordinates and posture angle) in the building are obtained. . a) Current and past image data are obtained from the imaging device 30 . Current and past image data acquired from the imaging device 30 are stored in a memory, a database (not shown), or the like in the imaging device 30 at any time. b) The three-dimensional feature data of the current and past reference members are the results R1 of the reference recognition processing in FIG. c) The past self-position (three-dimensional coordinates and attitude angle) inside the building is saved in the memory or database (not shown) in the self-position recognition unit 102 as needed. The past self-position (three-dimensional coordinates and attitude angle) inside the building is acquired during the second and subsequent self-position recognition processes, and the current self-position (three-dimensional coordinates and attitude angle) inside the building is recognized. used to

次に、ステップS902において、撮像装置30の自己位置の認識が行われる。撮像装置30の自己位置の認識は、第2の学習済モデルM2を用いて行われる。第2の学習済モデルM2に対する入力データとして、ステップS901において取得した、a)現在と過去の画像データ、b)現在と過去の基準部材の3次元特徴データ、及びc)過去の建屋内の自己位置(3次元座標と姿勢角)が入力される。これにより、第2の学習済モデルM2を用いた予測が行われる。なお、c)過去の建屋内の自己位置(3次元座標と姿勢角)については、初回の自己位置認識処理においては、過去の建屋内の自己位置の初期値として、測定開始時のカメラの原点その他の基準となる点の3次元座標と姿勢角、又は予め設定された3次元座標と姿勢角等が設定されるようにしてもよい。 Next, in step S902, recognition of the self position of the imaging device 30 is performed. Recognition of the self-position of the imaging device 30 is performed using the second trained model M2. As input data for the second trained model M2, a) current and past image data, b) current and past three-dimensional feature data of the reference member, and c) past self A position (three-dimensional coordinates and attitude angle) is input. As a result, prediction using the second trained model M2 is performed. Regarding c) past self-position (three-dimensional coordinates and attitude angle) inside the building, in the first self-position recognition process, the initial value of the past self-position inside the building is set to the origin of the camera at the start of measurement. Three-dimensional coordinates and attitude angles of other reference points, or preset three-dimensional coordinates and attitude angles, etc., may be set.

次に、ステップS903において、現在の建屋内の撮像装置30の自己位置(3次元座標と姿勢角)が出力される。これにより、第2の学習済モデルM2を用いた予測の結果として、現在の建屋内の撮像装置30の自己位置(3次元座標と姿勢角)が得られる。自己位置認識処理の結果R2は、後に図10の被測定物認識処理のステップS1004において、被測定物の自己位置を算出するために用いられる。 Next, in step S903, the current self-position (three-dimensional coordinates and posture angle) of the imaging device 30 inside the building is output. As a result of the prediction using the second trained model M2, the current self-position (three-dimensional coordinates and attitude angle) of the imaging device 30 inside the building is obtained. The result R2 of the self-position recognition process is later used to calculate the self-position of the object to be measured in step S1004 of the object recognition process in FIG.

図10は、本発明による被測定物認識部103における被測定物認識処理の流れを示すフローチャートである。
まず、ステップS1001において、画像データと距離データを取得する。画像データは撮像装置30から取得され、距離データは測距センサ20から取得される(S1001)。
FIG. 10 is a flow chart showing the flow of object recognition processing in the object recognition unit 103 according to the present invention.
First, in step S1001, image data and distance data are obtained. Image data is obtained from the imaging device 30, and distance data is obtained from the distance measuring sensor 20 (S1001).

次に、ステップS1002において、建屋内の被測定物の認識が行われる。被測定物は、建屋内の構造物及び物体であり、例えば建屋内の柱、パイプ、ダクトや、机、棚等の家具等、建屋内に配置される任意の物であってよい。被測定物の認識は、第3の学習済モデルM3を用いて行われる。第3の学習済モデルM3に対する入力データとして、ステップS1001で撮像装置30から取得した画像データと、測距センサ20から取得した距離データが入力される。これにより、第3の学習済モデルM3を用いた予測が行われる。 Next, in step S1002, the object to be measured in the building is recognized. The objects to be measured are structures and objects in the building, and may be arbitrary objects arranged in the building, such as pillars, pipes, ducts, and furniture such as desks and shelves in the building. Recognition of the object to be measured is performed using the third trained model M3. As input data for the third trained model M3, the image data acquired from the imaging device 30 in step S1001 and the distance data acquired from the distance measuring sensor 20 are inputted. As a result, prediction using the third trained model M3 is performed.

次に、ステップS1003において、被測定物の種類(パイプ、ダクトなど)と、カメラ座標系における被測定物の形状(3次元点群)が出力される。これにより、第3の学習済モデルM3を用いた予測の結果として、被測定物の種類(パイプ、ダクトなど)と、建屋内の空間座標系における被測定物の自己位置と、建屋内の空間座標系における被測定物の形状(3次元点群)が得られる。 Next, in step S1003, the type of the object to be measured (pipe, duct, etc.) and the shape of the object to be measured (three-dimensional point group) in the camera coordinate system are output. As a result of the prediction using the third trained model M3, the type of the object to be measured (pipe, duct, etc.), the self-position of the object to be measured in the spatial coordinate system inside the building, and the space inside the building A shape (three-dimensional point group) of the object to be measured in the coordinate system is obtained.

次に、ステップS1004において、被測定物の自己位置が算出される。ステップS1004では、被測定物の建屋内での自己位置を算出するために、図9のステップS903において出力された自己位置認識処理の結果R2が用いられる。 Next, in step S1004, the self-position of the object to be measured is calculated. In step S1004, the result R2 of the self-position recognition process output in step S903 of FIG. 9 is used to calculate the self-position of the object to be measured inside the building.

次に、ステップS1005において、被測定物の種類(パイプ、ダクトなど)と建屋内での被測定物の位置と形状(3次元点群)が出力される。 Next, in step S1005, the type of the object to be measured (pipe, duct, etc.) and the position and shape of the object to be measured inside the building (three-dimensional point group) are output.

以上により説明した本発明による建屋内構造物認識システム1によれば、建築途中の施工現場のように似たような特徴点が大量に存在する施工現場においても高精度で建屋内の構造物を認識することが可能である。また、本発明によれば、AIが単なる画像上の特徴点抽出ではなく、基準として良いものを認識し、そのものを基準にして多くの測定画像データを接続し、建屋内の全体を把握し、測定することが可能である。また、本発明によれば、人間が実際の建築現場において、柱など基準として良いものからの相対位置で多くのものを測定し、全体を把握する作業と同様の効果をAIを用いて実現することが可能となり、作業の効率化を図るとともに、建屋内の構造物の高精度な認識を実現することができる。 According to the building structure recognition system 1 according to the present invention described above, structures in a building can be recognized with high accuracy even at a construction site where there are a large number of similar feature points, such as a construction site in the middle of construction. It is possible to recognize In addition, according to the present invention, AI does not simply extract feature points from an image, but recognizes what is good as a reference, connects a lot of measured image data with that as a reference, grasps the entire inside of the building, It is possible to measure In addition, according to the present invention, at an actual construction site, AI can be used to achieve the same effect as the work of measuring many things relative to a good reference such as a pillar and grasping the whole. This makes it possible to improve work efficiency and achieve highly accurate recognition of structures in the building.

また、本発明によれば、基準認識部101での基準認識処理、自己位置認識部102での自己位置認識処理、及び被測定物認識部103での被測定物認識処理を、測距センサやカメラ等の撮像装置の移動速度を考慮して誤差が十分に小さくなるように同期しながらリアルタイムで測定を行うことができる。従来のSLAMによる処理では、カメラ等の計測装置の移動に伴って時間的に異なった情報を用いて処理するため、移動中に変化した姿勢や位置情報の誤差により、測定結果にエラーが生じるのに対し、本発明では測距センサやカメラ等の撮像装置の移動中の各位置において情報を完結させることができるため、誤差を小さく抑えることができる。特に、移動により生じる誤差を少なくすることができる。 Further, according to the present invention, the reference recognition processing by the reference recognition unit 101, the self-position recognition processing by the self-position recognition unit 102, and the object recognition processing by the object-to-be-measured recognition unit 103 can be performed by Measurement can be performed in real time while synchronizing such that the error is sufficiently reduced in consideration of the moving speed of the imaging device such as the camera. Conventional SLAM processing uses time-varying information as the camera or other measuring device moves, so errors in measurement results due to changes in posture and positional information during movement can cause errors. On the other hand, according to the present invention, information can be completed at each position during movement of an imaging device such as a distance measuring sensor or a camera, so errors can be kept small. In particular, errors caused by movement can be reduced.

また、本発明によれば、AIを用いて基準となり得るものを見出す際に、基準となるものの視覚的な外観以外にも、隣接している特徴などの画像内の特徴同士の関連性を情報として用いることにより、基準としてよいもの(例えば、鉄骨の垂直部材等)の識別性を高めることが可能である。 In addition, according to the present invention, when finding a potential reference using AI, in addition to the visual appearance of the reference, information about the relevance between features in the image such as adjacent features can be obtained. By using it as a reference, it is possible to improve the distinguishability of what can be used as a reference (for example, a vertical member of a steel frame, etc.).

また、上記実施例においては、例として1つの測距センサ20及び1つの撮像装置30が図示されているが、用いる測距センサ及び撮像装置の数はこれに限られず、例えば、測距センサ20を2台、撮像装置30を1台用いる構成や、測距センサ20を移動方向に1台と移動方向と垂直な方向に左右に3台ずつ用いる構成等、種々の構成が可能である。測距センサ20と撮像装置30を併用することにより、例えば、エッジの色が背景の色と似ている場合や、色情報を扱えず、形状が似ているが部材としては分かれている場合等、撮像装置や測距センサの一方のみではエラーが生じやすい現場においても精度を維持することができる。 Further, in the above embodiment, one ranging sensor 20 and one imaging device 30 are shown as examples, but the number of ranging sensors and imaging devices to be used is not limited to this. , and one imaging device 30, or a configuration using one distance measuring sensor 20 in the moving direction and three on each side in the direction perpendicular to the moving direction. By using the distance measuring sensor 20 and the imaging device 30 together, for example, when the edge color is similar to the background color, or when color information cannot be handled and the shapes are similar but the members are separate. Accuracy can be maintained even in the field where errors are likely to occur with only one of the imaging device and the distance measuring sensor.

また、本発明によれば、ステレオ測定を行うことにより、時間的に連続する情報を解析しなくても一回の計測作業により、必要な測定情報を得ることができる。また、基準点を認識しながら測定を行っていることにより、同じ基準点を有する測定エリア内において、異なる測定点の情報を融合させることにより、同様の精度を得ることも可能となる。 Further, according to the present invention, by performing stereo measurement, it is possible to obtain necessary measurement information by one measurement operation without analyzing time-continuous information. In addition, since the measurement is performed while recognizing the reference point, it is possible to obtain the same accuracy by fusing the information of different measurement points in the measurement area having the same reference point.

また、本発明は移動しながらの計測を想定しているが、より高い測定精度が求められる場合に、被測定物に着目し、一旦、移動を停止して、センサやカメラを被測定物に向けて配置してから測定を行うことも可能である。この場合、更に、移動方向にもある程度の画角を有するカメラ等を用いることにより、移動の停止とカメラやセンサを被測定物に向ける操作を行わずに同様の精度を得ることも可能である。 In addition, although the present invention assumes measurement while moving, when higher measurement accuracy is required, focus on the object to be measured, temporarily stop moving, and move the sensor or camera to the object to be measured. It is also possible to place it facing the direction and then perform the measurement. In this case, by using a camera or the like having a certain angle of view in the direction of movement, it is possible to obtain the same accuracy without stopping the movement and directing the camera or sensor toward the object to be measured. .

本発明では、基準とすべきものを移動しながら認識し、その基準とすべきものを用いて画像情報や距離情報を繋げていくため、測定の確実性が増す。また、測定の途中でエラーに気づくことも可能であり、エラーが生じた際の取得データへの影響も最小限にすることができる。 In the present invention, an object to be used as a reference is recognized while moving, and image information and distance information are connected using the object to be used as a reference, so that the certainty of measurement is increased. Also, it is possible to notice an error in the middle of the measurement, and it is possible to minimize the influence on the acquired data when an error occurs.

また、測定前に予め見取り図上で、測定中に常に基準となる部材が見えるかどうかをシミュレーションすることもでき、基準となる部材が無い場合や見えない場合に、基準部材に代えて基準のマークを配置することも可能である。基準となるマークは、好ましくは被測定物の近くにある壁や柱に配置するが、床に配置するようにしてもよい。 In addition, it is possible to simulate whether or not the reference member can always be seen during the measurement on the floor plan before the measurement. can also be placed. The reference mark is preferably placed on a wall or pillar near the object to be measured, but may also be placed on the floor.

さらに、本発明の他の応用として、建築現場で用いられる専門家の知識を併用し、学習の際に専門家の知識を入力データとして与えることにより、学習済モデルの精度を高めることも可能である。
上記記載は実施例についてなされたが、本発明はそれに限らず、本発明の原理と添付の請求の範囲の範囲内で種々の変更および修正をすることができることは当業者に明らかである。
Furthermore, as another application of the present invention, it is also possible to increase the accuracy of the trained model by using the expert's knowledge used at the construction site together and giving the expert's knowledge as input data at the time of learning. be.
Although the above description has been made of examples, it will be apparent to those skilled in the art that the present invention is not limited thereto and that various changes and modifications can be made within the principles of the invention and the scope of the appended claims.

1 建屋内構造物認識システム
10 SLAM計測装置
101 基準認識部
102 自己位置認識部
103 被測定物認識部
M1 第1の学習済モデル
M2 第2の学習済モデル
M3 第3の学習済モデル
20 測距センサ
30 撮像装置
40 機械学習モデル生成装置
401 正解データ生成部
402 仮想観測データ生成部
403 学習モデル生成部
1 Building Structure Recognition System 10 SLAM Measurement Device 101 Reference Recognition Unit 102 Self Position Recognition Unit 103 Object Recognition Unit M1 First Trained Model M2 Second Trained Model M3 Third Trained Model 20 Distance Measurement Sensor 30 Imaging device 40 Machine learning model generation device 401 Correct data generation unit 402 Virtual observation data generation unit 403 Learning model generation unit

Claims (16)

建屋内構造物認識システムであって、
少なくとも1つの測距センサと、
少なくとも1つの撮像装置と、
SLAM(Simultaneous Localization and Mapping)計測装置とを備え、
前記SLAM計測装置は、
第1の学習済モデルを用いて基準部材の認識を行う基準認識部と、
第2の学習済モデルを用いて前記撮像装置の自己位置の認識を行う自己位置認識部と、
第3の学習済モデルを用いて建屋内の被測定物の認識を行う被測定物認識部と、
を備え
前記第1の学習済モデルは、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、前記BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成されたものであることを特徴とする、建屋内構造物認識システム。
An indoor structure recognition system,
at least one ranging sensor;
at least one imaging device;
SLAM (Simultaneous Localization and Mapping) measurement device,
The SLAM measurement device is
a reference recognition unit that recognizes a reference member using the first learned model;
a self-position recognition unit that recognizes the self-position of the imaging device using the second trained model;
an object recognition unit that recognizes an object to be measured in the building using the third trained model;
with
The first trained model performs machine learning using a correct image generated from BIM (Building Information Modeling) data as correct data and a virtual observation image generated by rendering the BIM data as observation data. A building structure recognition system characterized by being generated by
前記基準認識部は、前記測距センサから得られたデータのうちSLAMにおける自己位置推定及び環境地図作成の基準にすることが可能な点又は領域を前記基準部材として認識する、請求項1に記載の建屋内構造物認識システム。 2. The reference recognition unit according to claim 1, wherein the reference recognition unit recognizes, as the reference member, a point or area that can be used as a reference for self-position estimation and environment map creation in SLAM among the data obtained from the ranging sensor. building structure recognition system. 前記基準認識部は、前記撮像装置から得られた画像データ及び前記測距センサから得られた距離データを入力データとして前記第1の学習済モデルに入力することにより前記基準部材の認識を行い、前記基準部材の3次元特徴データを出力データとして出力することを特徴とする、請求項1又は2に記載の建屋内構造物認識システム。 The reference recognition unit recognizes the reference member by inputting image data obtained from the imaging device and distance data obtained from the range sensor as input data into the first trained model, 3. The intra-building structure recognition system according to claim 1 , wherein three-dimensional feature data of said reference member is output as output data. 前記自己位置認識部は、前記撮像装置が前記被測定物を撮像しながら移動する際に、前記撮像装置の自己位置を逐次認識することを特徴とする、請求項1~のいずれか一項に記載の建屋内構造物認識システム。 4. The self-position recognizing unit sequentially recognizes the self-position of the imaging device when the imaging device moves while imaging the object to be measured. The building structure recognition system described in . 前記第2の学習済モデルは、BIMデータから得られた前記撮像装置の現在の3次元座標と姿勢角を正解データとし、a)現在と過去の仮想観測画像、b)現在と過去の基準部材の3次元特徴データ、及びc)過去の前記撮像装置の3次元座標と姿勢角を観測データとして機械学習を行うことにより生成されたものであることを特徴とする、請求項1~のいずれか一項に記載の建屋内構造物認識システム。 The second trained model uses the current three-dimensional coordinates and the attitude angle of the imaging device obtained from the BIM data as correct data, a) current and past virtual observation images, b) current and past reference members and c) the three- dimensional coordinates and attitude angles of the imaging device in the past are generated by performing machine learning as observation data. 1. The building structure recognition system according to 1. 前記自己位置認識部は、a)前記撮像装置から得られた画像データと、b)前記基準認識部から出力された基準部材の3次元特徴データと、c)前記撮像装置の過去の3次元座標と姿勢角とを入力データとして第2の学習済モデルに入力することにより前記撮像装置の自己位置の認識を行い、前記撮像装置の現在の3次元座標と姿勢角を出力データとして出力することを特徴とする、請求項1~のいずれか一項に記載の建屋内構造物認識システム。 The self-position recognition unit includes a) image data obtained from the imaging device, b) three-dimensional feature data of the reference member output from the reference recognition unit, and c) past three-dimensional coordinates of the imaging device. and attitude angle as input data into a second trained model to recognize the self-position of the imaging device, and to output the current three-dimensional coordinates and attitude angle of the imaging device as output data. The intra-building structure recognition system according to any one of claims 1 to 5 . 前記被測定物認識部は、建屋内の構造物及び物体を被測定物として認識することを特徴とする、請求項1~のいずれか一項に記載の建屋内構造物認識システム。 The in-building structure recognition system according to any one of claims 1 to 6 , wherein the measured object recognition section recognizes structures and objects in the building as the measured objects. 前記第3の学習済モデルは、BIMデータから生成された正解画像と被測定物の種類を示すデータを正解データとし、前記BIMデータをレンダリングすることにより生成された仮想観測画像及び前記BIMデータから生成した仮想距離画像を観測データとして機械学習を行うことにより生成されたものであることを特徴とする、請求項1~のいずれか一項に記載の建屋内構造物認識システム。 The third trained model uses a correct image generated from BIM data and data indicating the type of the object to be measured as correct data, and a virtual observation image generated by rendering the BIM data and from the BIM data The indoor structure recognition system according to any one of claims 1 to 7 , characterized in that it is generated by performing machine learning using the generated virtual range image as observation data. 前記被測定物認識部は、前記撮像装置から得られた画像データと、前記測距センサから得られた距離データとを第3の学習済モデルに入力することにより前記被測定物の認識を行い、前記被測定物の種類及び前記被測定物の形状データを出力データとして出力することを特徴とする、請求項1~のいずれか一項に記載の建屋内構造物認識システム。 The measured object recognition unit recognizes the measured object by inputting image data obtained from the imaging device and distance data obtained from the distance measuring sensor into a third trained model. , the type of the object to be measured and shape data of the object to be measured are output as output data. 前記被測定物認識部は、
前記被測定物の前記撮像装置のカメラ座標系での前記形状データと、
前記自己位置認識部から出力された前記撮像装置の現在の3次元座標及び姿勢角とから、前記被測定物の建屋内の空間座標系での自己位置を算出することを特徴とする、請求項に記載の建屋内構造物認識システム。
The object-to-be-measured recognition unit
the shape data in the camera coordinate system of the imaging device of the object to be measured;
The self-position of the object to be measured in a spatial coordinate system inside the building is calculated from the current three-dimensional coordinates and attitude angle of the imaging device output from the self-position recognition unit. 9. The building structure recognition system according to 9 .
前記測距センサが、ToF(Time Of Flight)カメラ、ToFセンサ、LiDAR(Light Detection And Ranging)センサ、RADAR(RAdio Detection And Ranging)センサ、超音波センサ又は赤外線センサであることを特徴とする、請求項1~10のいずれか一項に記載の建屋内構造物認識システム。 The ranging sensor is a ToF (Time Of Flight) camera, a ToF sensor, a LiDAR (Light Detection And Ranging) sensor, a RADAR (Radio Detection And Ranging) sensor, an ultrasonic sensor, or an infrared sensor. Item 11. The indoor structure recognition system according to any one of items 1 to 10 . 建屋内構造物認識方法であって、
第1の学習済モデルを用いて基準部材を認識するステップと、
第2の学習済モデルを用いて撮像装置の自己位置を認識するステップと、
第3の学習済モデルを用いて被測定物を認識するステップと
を備え
前記第1の学習済モデルは、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、前記BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成されたものであることを特徴とする、建屋内構造物認識方法。
A building structure recognition method comprising:
recognizing a reference member using the first trained model;
recognizing the self-location of the imaging device using the second trained model;
and recognizing the object under test using the third trained model ,
The first trained model performs machine learning using a correct image generated from BIM (Building Information Modeling) data as correct data and a virtual observation image generated by rendering the BIM data as observation data. A building structure recognition method, characterized in that it is generated by
前記基準部材を認識するステップは、
画像データと距離データを取得するステップと、
前記画像データと前記距離データを前記第1の学習済モデルに入力するステップと、
前記第1の学習済モデルからの出力データとして、基準部材の3次元特徴データを出力するステップと
を備えることを特徴とする、請求項12に記載の建屋内構造物認識方法。
Recognizing the reference member comprises:
obtaining image data and distance data;
inputting the image data and the distance data into the first trained model;
13. The indoor structure recognition method according to claim 12 , further comprising a step of outputting three-dimensional feature data of a reference member as output data from said first trained model.
前記自己位置を認識するステップは、
a)前記画像データと、b)前記基準部材の3次元特徴データと、c)前記撮像装置の過去の3次元座標と姿勢角とを取得するステップと、
a)前記画像データと、b)前記基準部材の3次元特徴データと、c)前記撮像装置の過去の3次元座標と姿勢角とを入力データとして第2の学習済モデルに入力するステップと、
前記第2の学習済モデルからの出力データとして、前記撮像装置の現在の建屋内での自己位置を出力するステップと
を備えることを特徴とする、請求項13に記載の建屋内構造物認識方法。
The step of recognizing the self-location includes:
obtaining a) the image data, b) the three-dimensional feature data of the reference member, and c) the past three-dimensional coordinates and attitude angles of the imaging device;
a) inputting the image data, b) the three-dimensional feature data of the reference member, and c) the past three-dimensional coordinates and attitude angle of the imaging device as input data into a second trained model;
14. The method for recognizing structures in a building according to claim 13 , further comprising the step of: outputting the current self-position of the imaging device within the building as the output data from the second trained model. .
前記被測定物を認識するステップは、
画像データと距離データを取得するステップと、
前記画像データと前記距離データを前記第3の学習済モデルに入力するステップと、
前記第3の学習済モデルからの出力データとして、前記被測定物の種類と、カメラ座標系における前記被測定物の形状を出力するステップと、
前記撮像装置の現在の建屋内での自己位置を用いて、前記被測定物の自己位置を算出するステップと、
前記被測定物の種類と、建屋内の空間座標系における前記被測定物の自己位置と、前記空間座標系における前記被測定物の形状を出力するステップと
を備えることを特徴とする、請求項14に記載の建屋内構造物認識方法。
The step of recognizing the object to be measured includes:
obtaining image data and distance data;
inputting the image data and the distance data into the third trained model;
a step of outputting the type of the object to be measured and the shape of the object to be measured in the camera coordinate system as output data from the third trained model;
calculating the self-position of the object to be measured using the current self-position of the imaging device in the building;
and outputting the type of the object to be measured, the self position of the object to be measured in the spatial coordinate system inside the building, and the shape of the object to be measured in the spatial coordinate system. 15. The intra-building structure recognition method according to 14 .
コンピュータに、請求項1215のいずれか一項に記載の方法の各ステップを実行させることを特徴とするプログラム。 A program for causing a computer to perform the steps of the method according to any one of claims 12-15 .
JP2021201084A 2021-12-10 2021-12-10 STRUCTURE RECOGNITION SYSTEM IN BUILDING AND STRUCTURE RECOGNITION METHOD IN BUILDING Active JP7274782B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021201084A JP7274782B1 (en) 2021-12-10 2021-12-10 STRUCTURE RECOGNITION SYSTEM IN BUILDING AND STRUCTURE RECOGNITION METHOD IN BUILDING

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021201084A JP7274782B1 (en) 2021-12-10 2021-12-10 STRUCTURE RECOGNITION SYSTEM IN BUILDING AND STRUCTURE RECOGNITION METHOD IN BUILDING

Publications (2)

Publication Number Publication Date
JP7274782B1 true JP7274782B1 (en) 2023-05-17
JP2023086519A JP2023086519A (en) 2023-06-22

Family

ID=86332425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021201084A Active JP7274782B1 (en) 2021-12-10 2021-12-10 STRUCTURE RECOGNITION SYSTEM IN BUILDING AND STRUCTURE RECOGNITION METHOD IN BUILDING

Country Status (1)

Country Link
JP (1) JP7274782B1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003025859A1 (en) 2001-09-17 2003-03-27 National Institute Of Advanced Industrial Science And Technology Interface apparatus
JP2004110802A (en) 2002-08-26 2004-04-08 Sony Corp Device, method for identifying environment, program, recording medium and robot device
JP2008304268A (en) 2007-06-06 2008-12-18 Sony Corp Information processor, information processing method, and computer program
JP2011164666A (en) 2010-02-04 2011-08-25 Sony Corp Communication control device, communication control method and program
JP2019011971A (en) 2017-06-29 2019-01-24 株式会社東芝 Estimation system and automobile
JP2020149186A (en) 2019-03-12 2020-09-17 清水建設株式会社 Position attitude estimation device, learning device, mobile robot, position attitude estimation method, and learning method
JP2020177289A (en) 2019-04-15 2020-10-29 ソニー株式会社 Information processing device information processing method and information processing program
JP2021131652A (en) 2020-02-19 2021-09-09 株式会社トプコン Data structure, recording medium, program, and system
JP2021140445A (en) 2020-03-05 2021-09-16 株式会社トプコン Information processing apparatus, inference model construction method, information processing method, inference model, program, and recording medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102472176B1 (en) * 2020-02-20 2022-11-28 주식회사 케이티 Autonomous robot, location estimation server of autonomous robot and location estimation or autonomous robot using the same

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003025859A1 (en) 2001-09-17 2003-03-27 National Institute Of Advanced Industrial Science And Technology Interface apparatus
JP2004110802A (en) 2002-08-26 2004-04-08 Sony Corp Device, method for identifying environment, program, recording medium and robot device
JP2008304268A (en) 2007-06-06 2008-12-18 Sony Corp Information processor, information processing method, and computer program
JP2011164666A (en) 2010-02-04 2011-08-25 Sony Corp Communication control device, communication control method and program
JP2019011971A (en) 2017-06-29 2019-01-24 株式会社東芝 Estimation system and automobile
JP2020149186A (en) 2019-03-12 2020-09-17 清水建設株式会社 Position attitude estimation device, learning device, mobile robot, position attitude estimation method, and learning method
JP2020177289A (en) 2019-04-15 2020-10-29 ソニー株式会社 Information processing device information processing method and information processing program
JP2021131652A (en) 2020-02-19 2021-09-09 株式会社トプコン Data structure, recording medium, program, and system
JP2021140445A (en) 2020-03-05 2021-09-16 株式会社トプコン Information processing apparatus, inference model construction method, information processing method, inference model, program, and recording medium

Also Published As

Publication number Publication date
JP2023086519A (en) 2023-06-22

Similar Documents

Publication Publication Date Title
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
JP5248806B2 (en) Information processing apparatus and information processing method
TWI574223B (en) Navigation system using augmented reality technology
JP4708752B2 (en) Information processing method and apparatus
CN103988226B (en) Method for estimating camera motion and for determining real border threedimensional model
JP4278979B2 (en) Single camera system for gesture-based input and target indication
US8792726B2 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
JP6192938B2 (en) 3D synthesis processing system and 3D synthesis processing method
CN111508021A (en) Pose determination method and device, storage medium and electronic equipment
Xu et al. Online intelligent calibration of cameras and lidars for autonomous driving systems
JP2011095797A (en) Image processing device, image processing method and program
JP2008304268A (en) Information processor, information processing method, and computer program
KR20110099998A (en) System and method for interactive and real-time augmented reality, and the recording media storing the program performing the said method
US10950056B2 (en) Apparatus and method for generating point cloud data
Yan et al. Joint camera intrinsic and lidar-camera extrinsic calibration
JP7164045B2 (en) Skeleton Recognition Method, Skeleton Recognition Program and Skeleton Recognition System
CN112925223A (en) Unmanned aerial vehicle three-dimensional tracking virtual test simulation system based on visual sensing network
KR102075844B1 (en) Localization system merging results of multi-modal sensor based positioning and method thereof
JP2016217941A (en) Three-dimensional evaluation device, three-dimensional data measurement system and three-dimensional measurement method
TW202238449A (en) Indoor positioning system and indoor positioning method
JP7274782B1 (en) STRUCTURE RECOGNITION SYSTEM IN BUILDING AND STRUCTURE RECOGNITION METHOD IN BUILDING
CN115131407B (en) Robot target tracking method, device and equipment oriented to digital simulation environment
Nguyen et al. Interactive syntactic modeling with a single-point laser range finder and camera
KR102407802B1 (en) Apparatus for estimating indoor and outdoor three-dimensional coordinates and orientation based on artificial neaural network learning
BARON et al. APPLICATION OF AUGMENTED REALITY TOOLS TO THE DESIGN PREPARATION OF PRODUCTION.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230425

R150 Certificate of patent or registration of utility model

Ref document number: 7274782

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350