JP2019175144A - Building management system, learning device, position determination device, and position determination method - Google Patents

Building management system, learning device, position determination device, and position determination method Download PDF

Info

Publication number
JP2019175144A
JP2019175144A JP2018062682A JP2018062682A JP2019175144A JP 2019175144 A JP2019175144 A JP 2019175144A JP 2018062682 A JP2018062682 A JP 2018062682A JP 2018062682 A JP2018062682 A JP 2018062682A JP 2019175144 A JP2019175144 A JP 2019175144A
Authority
JP
Japan
Prior art keywords
building
photograph
unit
learning
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018062682A
Other languages
Japanese (ja)
Other versions
JP7097207B2 (en
Inventor
藤井 渉
Wataru Fujii
渉 藤井
玄 井川
Gen Igawa
玄 井川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chiyoda Corp
Original Assignee
Chiyoda Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chiyoda Corp filed Critical Chiyoda Corp
Priority to JP2018062682A priority Critical patent/JP7097207B2/en
Priority to PCT/JP2019/005836 priority patent/WO2019187772A1/en
Publication of JP2019175144A publication Critical patent/JP2019175144A/en
Application granted granted Critical
Publication of JP7097207B2 publication Critical patent/JP7097207B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To provide a building management system, a learning device, a position determination device, and a position determination method for appropriately managing a building.SOLUTION: A building management system 1 includes: a position determination device 40 that determines a position where a photograph is taken from among photographs taken of a building; and a learning device 10 that generates, by machine learning, a determination criterion used to determine a position by the position determination device 40. A learning device 10 includes: a three-dimensional shape data storage unit that stores three-dimensional shape data modeling the building; a two-dimensional image generation unit that generates a two-dimensional image of the building by rendering the three-dimensional shape data by setting a viewpoint position and a line-of-sight direction; and a learning unit that generates the determination criterion by learning a relationship between extraction information extracted from among two-dimensional images generated by the two-dimensional image generation unit and the viewpoint position set when generating the two-dimensional image. The position determination device 40 includes: a photograph reception unit that accepts photographs of the building; and a determination unit that determines the position where the photograph is taken on the basis of the determination criterion generated by the learning device.SELECTED DRAWING: Figure 1

Description

本発明は、建造物を管理するための建造物管理システム、及びその建造物管理システムに利用可能な学習装置、位置判定装置、及び位置判定方法に関する。   The present invention relates to a building management system for managing a building, and a learning device, a position determination device, and a position determination method that can be used in the building management system.

プラントなどの大規模な建造物を建設するときには、広範囲にわたる建設現場において、工事の進捗状況などを的確に把握する必要がある。また、建造物の建設中又は建設後に、広範囲にわたる建造物において、設計通りに施工されているかを細部まで確認する必要がある。進捗管理や施工確認は、建造物が大規模になるほど大がかりな作業となり、多大な労力を要するので、このような作業をできる限り効率化し、工数を低減させるための工夫がなされている(例えば、特許文献1参照)。   When constructing a large-scale building such as a plant, it is necessary to accurately grasp the progress of construction at a wide range of construction sites. In addition, it is necessary to confirm in detail whether or not the building is constructed as designed in a wide range of buildings during or after the construction of the building. Progress management and construction confirmation become a large-scale work as the building becomes large-scale, and requires a lot of labor. Therefore, ingenuity has been made to make such work as efficient as possible and reduce man-hours (for example, Patent Document 1).

特許第2721231号公報Japanese Patent No. 2712231

大規模な建造物において進捗管理や施工確認を行うためには、まず、作業者が自身の位置を精確に把握する必要があるが、建造物の内部では、GPS衛星からの信号の受信状況が不安定となり、GPS衛星からの信号を利用した測位により高精度の位置情報を得ることが困難な場合がある。   In order to perform progress management and construction confirmation in a large-scale building, it is first necessary for an operator to accurately grasp his / her position. However, within the building, the reception status of signals from GPS satellites is limited. It may become unstable and it may be difficult to obtain highly accurate position information by positioning using signals from GPS satellites.

このような状況においても、作業者が自身の位置を精確に把握しながら、進捗管理や施工確認など、建造物を管理するための作業を行うことを可能とする技術が求められる。   Even in such a situation, there is a need for a technique that enables an operator to perform work for managing a building such as progress management and construction confirmation while accurately grasping his / her position.

本発明は、こうした状況を鑑みてなされたものであり、その目的は、建造物を適切に管理することを可能とする技術を提供することにある。   This invention is made | formed in view of such a condition, The objective is to provide the technique which makes it possible to manage a building appropriately.

上記課題を解決するために、本発明のある態様の建造物管理システムは、建造物を撮像した写真から、写真が撮像された位置を判定する位置判定装置と、位置判定装置が位置を判定するために使用する判定基準を機械学習により生成する学習装置と、を備える。学習装置は、建造物をモデリングした三次元形状データを記憶する三次元形状データ記憶部と、視点位置及び視線方向を設定して三次元形状データをレンダリングすることにより、建造物の二次元画像を生成する二次元画像生成部と、二次元画像生成部により生成された二次元画像から抽出される抽出情報と、その二次元画像を生成する際に設定された視点位置との関係を学習することにより、判定基準を生成する学習部と、を備える。位置判定装置は、建造物を撮像した写真を受け付ける写真受付部と、学習装置により生成された判定基準に基づいて、写真が撮像された位置を判定する判定部と、を備える。   In order to solve the above-described problems, a building management system according to an aspect of the present invention includes a position determination device that determines a position where a photograph is captured from a photograph of the building, and the position determination device determines a position. And a learning device that generates a determination criterion to be used by machine learning. The learning device sets a two-dimensional image of the building by rendering a three-dimensional shape data by setting a viewpoint position and a line-of-sight direction, and a three-dimensional shape data storage unit that stores the three-dimensional shape data modeling the building. Learning the relationship between the generated 2D image generation unit, the extracted information extracted from the 2D image generated by the 2D image generation unit, and the viewpoint position set when generating the 2D image And a learning unit that generates a determination criterion. The position determination device includes a photo reception unit that receives a photograph of a building and a determination unit that determines a position where the photo is captured based on a determination criterion generated by the learning device.

この態様によると、建造物を撮像した写真から、その写真が撮像された位置を高い精度で判定することができる。これにより、GPSなどを利用した位置の検出が困難である場合であっても、位置を精確に把握することができる。   According to this aspect, it is possible to determine with high accuracy the position where the photograph is taken from the photograph taken of the building. Thereby, even when it is difficult to detect a position using GPS or the like, the position can be accurately grasped.

学習装置は、建造物を撮像した写真と、その写真が撮像された位置を示す位置情報とを取得する写真取得部を更に備えてもよい。学習部は、写真取得部により取得された建造物の写真及び位置情報とを更に使用して、判定基準を学習してもよい。この態様によると、現実の建造物の写真を更に使用することにより、より精度の高い位置の判定基準を学習することができる。   The learning apparatus may further include a photograph acquisition unit that acquires a photograph of the building and position information indicating a position where the photograph is captured. The learning unit may learn the determination criterion by further using the building photograph and the position information acquired by the photo acquisition unit. According to this aspect, by further using a photograph of an actual building, it is possible to learn a more accurate position determination criterion.

二次元画像生成部は、建造物の内部に視点位置を設定して建造物の内部の二次元画像を生成し、学習部は、建造物の内部で撮像された写真から、その写真が撮像された位置を判定するために使用される判定基準を学習し、写真受付部は、建造物の内部で撮像された写真を受け付け、判定部は、写真が撮像された建造物の内部の位置を判定してもよい。この態様によると、建造物の内部において、GPS衛星からの信号を受信することが困難である場合であっても、位置を高い精度で判定することができる。   The 2D image generation unit sets the viewpoint position inside the building and generates a 2D image inside the building, and the learning unit captures the photo from the photo taken inside the building. The photo acceptance unit accepts a photo taken inside the building, and the judgment unit determines the position inside the building where the photo was taken. May be. According to this aspect, even when it is difficult to receive a signal from a GPS satellite inside the building, the position can be determined with high accuracy.

位置判定装置は、建造物を構成する構造物に関する情報と、建造物における構造物の位置を示す情報とを記憶する構造物情報記憶部と、判定部により判定された位置に基づいて、写真に撮像されている構造物を判定し、判定された構造物に関する情報を提示する構造物情報提示部と、を備えてもよい。この態様によると、建造物の運用、管理、保守、保全、保安などを担当する担当者が、現在位置の周囲にある構造物の情報を容易に取得することができるので、作業の効率を向上させることができる。   The position determination device includes a structure information storage unit that stores information on a structure that constitutes a building, and information that indicates a position of the structure in the building, and a position based on the position determined by the determination unit. A structure information presenting unit that determines an imaged structure and presents information about the determined structure. According to this aspect, the person in charge of the operation, management, maintenance, maintenance, security, etc. of the building can easily obtain information on the structure around the current position, thus improving work efficiency. Can be made.

位置判定装置は、建造物の三次元形状データを記憶する三次元形状データ記憶部と、写真と三次元形状データとを比較することにより、建造物の建造の進捗段階を判定する進捗段階判定部と、を更に備えてもよい。この態様によると、建造物の建設現場において工事の進捗を管理する担当者が、容易かつ的確に進捗段階を把握することができる。   The position determination device includes a three-dimensional shape data storage unit that stores the three-dimensional shape data of the building, and a progress stage determination unit that determines the progress stage of the building by comparing the photograph and the three-dimensional shape data. And may be further provided. According to this aspect, the person in charge who manages the progress of the construction at the construction site of the building can grasp the progress stage easily and accurately.

位置判定装置は、建造物の三次元形状データを記憶する三次元形状データ記憶部と、写真と三次元形状データとを比較することにより、建造物の施工の良否を確認する確認部と、を更に備えてもよい。この態様によると、建造物の建設現場において施工の良否を確認する担当者の作業効率を向上させることができる。   The position determination device includes a three-dimensional shape data storage unit that stores the three-dimensional shape data of the building, and a confirmation unit that checks the quality of the construction of the building by comparing the photograph and the three-dimensional shape data. Further, it may be provided. According to this aspect, it is possible to improve the work efficiency of the person in charge who confirms the quality of the construction at the construction site of the building.

本発明の別の態様は、学習装置である。この装置は、建造物をモデリングした三次元形状データを記憶する三次元形状データ記憶部と、視点位置及び視線方向を設定して三次元形状データをレンダリングすることにより、建造物の二次元画像を生成する二次元画像生成部と、二次元画像生成部により生成された二次元画像から抽出される抽出情報と、その二次元画像を生成する際に設定された視点位置との関係を学習することにより、建造物を撮像した写真から写真が撮像された位置を判定するために使用される判定基準を生成する学習部と、を備える。   Another aspect of the present invention is a learning device. This device has a 3D shape data storage unit that stores 3D shape data modeling a building, and renders 3D shape data by setting a viewpoint position and a line-of-sight direction to render a 2D image of the building. Learning the relationship between the generated 2D image generation unit, the extracted information extracted from the 2D image generated by the 2D image generation unit, and the viewpoint position set when generating the 2D image And a learning unit that generates a determination criterion used for determining a position where the photograph is captured from a photograph capturing the building.

この態様によると、建造物を撮像した写真から、その写真が撮像された位置を高い精度で判定することが可能な判定基準を生成することができる。   According to this aspect, it is possible to generate a determination criterion capable of determining with high accuracy the position where the photograph is captured from the photograph capturing the building.

本発明のさらに別の態様は、位置判定装置である。この装置は、建造物を撮像した写真を受け付ける写真受付部と、視点位置及び視線方向を設定して建造物をモデリングした三次元形状データをレンダリングすることにより生成された二次元画像から抽出される抽出情報と、その二次元画像を生成する際に設定された視点位置との関係を学習することにより生成された判定基準に基づいて、写真が撮像された位置を判定する判定部と、を備える。   Yet another embodiment of the present invention is a position determination device. This apparatus is extracted from a two-dimensional image generated by rendering a three-dimensional shape data that models a building by setting a viewpoint position and a line-of-sight direction, and a photo reception unit that accepts a photograph of a building. A determination unit that determines a position at which the photograph is captured based on a determination criterion generated by learning the relationship between the extracted information and the viewpoint position set when generating the two-dimensional image. .

この態様によると、建造物を撮像した写真から、その写真が撮像された位置を高い精度で判定することができる。これにより、GPSなどを利用した位置の検出が困難である場合であっても、位置を精確に把握することができる。   According to this aspect, it is possible to determine with high accuracy the position where the photograph is taken from the photograph taken of the building. Thereby, even when it is difficult to detect a position using GPS or the like, the position can be accurately grasped.

本発明のさらに別の態様もまた、位置判定装置である。この装置は、撮像画像により撮像された撮像対象の写真を受け付ける写真受付部と、視点位置及び視線方向を設定して撮像対象をモデリングした三次元形状データをレンダリングすることにより生成された二次元画像から抽出される抽出情報と、その二次元画像を生成する際に設定された視点位置との関係を学習することにより生成された判定基準に基づいて、写真が撮像された位置を判定する判定部と、を備える。   Yet another embodiment of the present invention is also a position determination device. This apparatus includes a photo reception unit that receives a photograph of an imaging target captured by a captured image, and a two-dimensional image generated by rendering three-dimensional shape data that models the imaging target by setting a viewpoint position and a line-of-sight direction. A determination unit that determines a position where a photograph is taken based on a determination criterion generated by learning a relationship between extraction information extracted from the image and a viewpoint position set when generating the two-dimensional image And comprising.

この態様によると、撮像対象の写真から、その写真が撮像された位置を高い精度で判定することができる。これにより、GPSなどを利用した位置の検出が困難である場合であっても、位置を精確に把握することができる。   According to this aspect, it is possible to determine the position where the photograph is captured from the photograph to be captured with high accuracy. Thereby, even when it is difficult to detect a position using GPS or the like, the position can be accurately grasped.

本発明のさらに別の態様は、位置判定方法である。この方法は、撮像画像により撮像された撮像対象の写真を受け付けるステップと、視点位置及び視線方向を設定して撮像対象をモデリングした三次元形状データをレンダリングすることにより生成された二次元画像から抽出される抽出情報と、その二次元画像を生成する際に設定された視点位置との関係を学習することにより生成された判定基準に基づいて、写真が撮像された位置を判定するステップと、をコンピュータに実行させる。   Yet another embodiment of the present invention is a position determination method. This method accepts a photograph of an imaging target captured by a captured image, and extracts from a two-dimensional image generated by rendering the three-dimensional shape data modeling the imaging target by setting the viewpoint position and the line-of-sight direction Determining the position at which the photograph was captured based on the determination criterion generated by learning the relationship between the extracted information and the viewpoint position set when generating the two-dimensional image. Let the computer run.

この態様によると、撮像対象の写真から、その写真が撮像された位置を高い精度で判定することができる。これにより、GPSなどを利用した位置の検出が困難である場合であっても、位置を精確に把握することができる。   According to this aspect, it is possible to determine the position where the photograph is captured from the photograph to be captured with high accuracy. Thereby, even when it is difficult to detect a position using GPS or the like, the position can be accurately grasped.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、建造物を適切に管理することを可能とする技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which makes it possible to manage a building appropriately can be provided.

実施の形態に係る建造物管理システムの全体構成を示す図である。It is a figure which shows the whole structure of the building management system which concerns on embodiment. 実施の形態に係る学習装置の構成を示す図である。It is a figure which shows the structure of the learning apparatus which concerns on embodiment. 実施の形態に係る位置判定装置の構成を示す図である。It is a figure which shows the structure of the position determination apparatus which concerns on embodiment. 実施の形態に係る建設現場端末の構成を示す図である。It is a figure which shows the structure of the construction site terminal which concerns on embodiment. 実施の形態に係る建造物管理システムにより管理される建造物の例を示す図である。It is a figure which shows the example of the building managed by the building management system which concerns on embodiment. 図5に示したプラントをモデリングした三次元形状データの例を示す図である。It is a figure which shows the example of the three-dimensional shape data which modeled the plant shown in FIG. 図6に示した三次元形状データをレンダリングすることにより生成された二次元画像の例を示す図である。It is a figure which shows the example of the two-dimensional image produced | generated by rendering the three-dimensional shape data shown in FIG. 建設現場端末の表示装置に表示された画面の例を示す図である。It is a figure which shows the example of the screen displayed on the display apparatus of the construction site terminal. 実施の形態に係る位置判定方法の手順を示すフローチャートである。It is a flowchart which shows the procedure of the position determination method which concerns on embodiment. 実施の形態に係る位置判定方法の手順を示すフローチャートである。It is a flowchart which shows the procedure of the position determination method which concerns on embodiment.

図1は、実施の形態に係る建造物管理システムの全体構成を示す。本実施の形態では、建造物として、化学製品や工業製品などを生産するためのプラントを管理する例について説明する。建造物管理システム1は、建造物を撮像した写真から、写真が撮像された位置を判定する位置判定装置40と、位置判定装置40が位置を判定するために使用する判定基準を機械学習により生成する学習装置10と、建造物の建設現場3に設置される各種の装置と、プラント6に設置される各種の装置とを備える。これらの装置は、インターネット2によりそれぞれ接続されている。建設現場3には、建造物を自動的に撮像して、学習装置10が学習に使用する写真を収集するための自動撮像装置4、建造物の建設工事、運用、保守などに使用されるロボット5、建設現場3の工事担当者などにより使用される建設現場端末80などの装置が備えられる。ロボット5は、例えば、建設現場3において機器を据え付けるための機器据付ロボットや、建設現場3において溶接を行う溶接ロボットなどである。プラント6には、プラント6の運転のために使用されるロボット7、プラント6の運転員により使用される運転員端末8、プラント6の保守、保安、保全を行う担当者により使用される担当者端末9などの装置が備えられる。ロボット7は、例えば、プラント6の運転状態を把握してバルブなどを操作する運転ロボットである。ロボット5、建設現場端末80、ロボット7、運転員端末8、及び担当者端末9は、建設中の建造物や完成後の建造物の内部において、周囲の写真を撮像して位置判定装置40に送信し、位置判定装置40から位置情報を取得することにより、自身の位置を把握する。   FIG. 1 shows an overall configuration of a building management system according to an embodiment. In this embodiment, an example of managing a plant for producing chemical products, industrial products, and the like as a building will be described. The building management system 1 generates, by machine learning, a position determination device 40 that determines a position where the photograph is captured, and a determination criterion that the position determination device 40 uses to determine the position from the photograph of the building. A learning device 10 that is installed on the construction site 3 of the building, and various devices that are installed on the plant 6. These devices are connected to each other via the Internet 2. In the construction site 3, a robot used for automatically imaging a building and collecting a photograph used by the learning device 10 for learning, a robot used for building construction, operation, maintenance, etc. 5. A device such as a construction site terminal 80 used by a construction person in charge at the construction site 3 is provided. The robot 5 is, for example, an equipment installation robot for installing equipment at the construction site 3 or a welding robot that performs welding at the construction site 3. The plant 6 includes a robot 7 used for the operation of the plant 6, an operator terminal 8 used by an operator of the plant 6, and a person in charge used by a person in charge of maintenance, security and maintenance of the plant 6. A device such as a terminal 9 is provided. The robot 7 is, for example, a driving robot that grasps the operating state of the plant 6 and operates valves and the like. The robot 5, the construction site terminal 80, the robot 7, the operator terminal 8, and the person-in-charge terminal 9 take a photograph of the surroundings in the building under construction or the building after completion to the position determination device 40. By transmitting and acquiring position information from the position determination device 40, the user's own position is grasped.

位置判定装置40は、建造物の内部で撮像された写真と、建造物をモデリングした三次元形状データから生成された二次元画像とをマッチングさせることにより、写真に撮像された建造物の一部が三次元形状モデルのどの位置に該当するのかを検出し、その写真が撮像された位置及び視線方向を高精度で判定する。前述したように、建造物の内部では、GPS衛星からの信号の受信状況が不安定となり、位置を高精度で把握することが困難となることがあるが、本実施の形態の位置判定装置40によれば、建造物の内部においても高精度で位置を把握することができるので、ロボット5、建設現場端末80を使用する担当者、ロボット7、運転員端末8を使用する運転員、担当者端末9を使用する担当者などが、建造物の内部において自身の位置を精確に把握しながら作業を行うことができる。   The position determination device 40 matches a photograph taken inside a building with a two-dimensional image generated from three-dimensional shape data modeling the building, thereby making a part of the building photographed in the photograph. Is detected in the three-dimensional shape model, and the position and the line-of-sight direction where the photograph is taken are determined with high accuracy. As described above, the signal reception status from the GPS satellite becomes unstable inside the building, and it may be difficult to grasp the position with high accuracy. However, the position determination device 40 according to the present embodiment. Since the position can be grasped with high accuracy even inside the building, the robot 5, the person using the construction site terminal 80, the robot 7, the operator using the operator terminal 8, the person in charge A person in charge who uses the terminal 9 can work while accurately grasping his / her position inside the building.

プラントなどの大規模な建造物を建設する場合、設計段階で建造物をモデリングして三次元形状データを作成するときには、バルブなどの部品の詳細がまだ決定していない場合があるので、建造物が実際に建設される際に、三次元形状データとは異なる形状の部品が使用されて、実際の建造物と三次元形状データとが厳密には合致しない場合がある。また、建造物の建設中には、未施工又は未完成な部分が残っているので、三次元形状データのうちの一部しか写真に写らず、他方、足場や資材など建造物の一部ではない物が写真に写ることになる。その上、建造物の施工状況や、足場や資材置場の状況などは、工事の進捗にしたがって日々変化しうる。このような場合であっても、人間が建造物の写真と建造物をモデリングした三次元形状データとの異同を判別する場合には、厳密に合致していることが要求される部分と、違いが許容される部分とを識別しつつ、的確に異同を判別することができるが、このような作業を自動化するのは困難であると考えられていた。したがって、従来は、このような作業は少数の専門家に依存せざるを得なかった。   When building a large-scale building such as a plant, the details of parts such as valves may not be determined yet when modeling the building and creating 3D shape data at the design stage. Is actually constructed, parts having shapes different from the three-dimensional shape data are used, and the actual building may not exactly match the three-dimensional shape data. In addition, during construction of the building, there is an unfinished or unfinished part, so only a part of the three-dimensional shape data is shown in the photograph, while on the other hand, in parts of the building such as scaffolding and materials Things that don't appear in the photo. In addition, the construction status of the building, the status of the scaffolding and material storage, etc. can change daily as the construction progresses. Even in such a case, when a person discriminates between a photograph of a building and the three-dimensional shape data modeling the building, it is different from the part that is strictly required to match. Although it is possible to accurately discriminate between different parts while discriminating them from allowable parts, it has been considered difficult to automate such operations. Therefore, in the past, such work had to rely on a small number of experts.

このような課題を解決するために、本実施の形態の建造物管理システム1においては、視点位置及び視線方向を設定して三次元形状データをレンダリングすることにより、建造物のモデルの二次元画像を大量に生成し、それらの二次元画像から抽出される抽出情報と、それらの二次元画像を生成する際に設定された視点位置との関係を学習することにより、写真から位置を自動的に判定するための判定基準を生成する。また、実際に建設された建造物の写真を大量に収集し、それらの写真を更に使用して判定基準を学習させる。これにより、建造物の写真と建造物の三次元形状データとの異同の判別を自動化することができるので、労力を大幅に低減させることができる。   In order to solve such a problem, in the building management system 1 of the present embodiment, a two-dimensional image of a building model is set by rendering the three-dimensional shape data by setting the viewpoint position and the line-of-sight direction. By automatically learning the relationship between the extracted information extracted from those two-dimensional images and the viewpoint position set when generating those two-dimensional images, the positions are automatically extracted from the photos. A criterion for determination is generated. In addition, a large number of photographs of the actually constructed buildings are collected, and the judgment criteria are learned by using these photographs. Thereby, since it is possible to automate the discrimination between the photograph of the building and the three-dimensional shape data of the building, the labor can be significantly reduced.

三次元形状データから生成された二次元画像は、視点位置及び視線方向を精確に設定することができるが、前述したように、実際に建設された建造物とは異なる部品などがモデリングされている場合があるので、一部の部品などの形状が精確ではない可能性がある。他方、建造物を撮像した写真は、実際に施工された部品などの形状を精確に反映しているが、撮像された位置を精確に把握することができない。したがって、三次元形状データから生成された二次元画像と、実際に建設された建造物の写真の双方を使用して判定基準を学習させることにより、画像と位置の関係をより精確に学習させることができ、写真から位置をより精確に判定することができる。建設現場3の担当者や、プラント6の運転員や、プラント6の保守、保安、保全を行う担当者などが、容易かつ精確に位置を把握することができるので、作業を効率化し、作業負担を軽減させることができる。また、精確な位置に実施することを要する作業をロボット5に実施させることができるので、工事や運転に要する工数を大幅に低減させることができる。   The two-dimensional image generated from the three-dimensional shape data can accurately set the viewpoint position and the direction of the line of sight, but as described above, parts that are different from the actually constructed building are modeled. In some cases, the shape of some parts may not be accurate. On the other hand, the photographed image of the building accurately reflects the shape of the part actually constructed, but cannot accurately grasp the imaged position. Therefore, it is possible to learn the relationship between the image and the position more accurately by learning the judgment criteria using both the two-dimensional image generated from the three-dimensional shape data and the photograph of the actually constructed building. And the position can be more accurately determined from the photograph. The person in charge at the construction site 3, the operator of the plant 6 and the person in charge of maintenance, security, and maintenance of the plant 6 can easily and accurately grasp the position, thereby improving the work efficiency and the work load. Can be reduced. In addition, since the robot 5 can perform work that needs to be performed at an accurate position, the number of steps required for construction and operation can be greatly reduced.

本図においては、説明の簡略化のため、学習装置10を単独の装置として示しているが、学習装置10は、クラウドコンピューティング技術や分散処理技術などを利用して、複数のサーバにより実現されてもよい。これにより、自動撮像装置4から収集した大量の写真と、三次元形状データから生成された大量の二次元画像とを高速に処理して判定基準を学習させることができるので、判定基準の精度を向上させるために要する時間を大幅に短縮することができる。   In this figure, for the sake of simplicity of explanation, the learning device 10 is shown as a single device. However, the learning device 10 is realized by a plurality of servers using cloud computing technology, distributed processing technology, or the like. May be. As a result, it is possible to process a large amount of photographs collected from the automatic image pickup device 4 and a large amount of two-dimensional images generated from the three-dimensional shape data at high speed so that the determination criterion can be learned. The time required for improvement can be greatly reduced.

以降、実際の建造物を撮像した写真と、建造物をモデリングした三次元形状データから生成された二次元画像とを総称して、建造物の「画像」ともいう。   Hereinafter, a photograph of an actual building and a two-dimensional image generated from three-dimensional shape data modeling the building are collectively referred to as an “image” of the building.

図2は、実施の形態に係る学習装置の構成を示す。学習装置10は、通信装置11、制御装置20、及び記憶装置30を備える。   FIG. 2 shows a configuration of the learning device according to the embodiment. The learning device 10 includes a communication device 11, a control device 20, and a storage device 30.

通信装置11は、無線又は有線による通信を制御する。通信装置11は、インターネット2を介して、位置判定装置40、自動撮像装置4、ロボット5、建設現場端末80、ロボット7、運転員端末8などとの間でデータを送受信する。   The communication device 11 controls wireless or wired communication. The communication device 11 transmits / receives data to / from the position determination device 40, the automatic imaging device 4, the robot 5, the construction site terminal 80, the robot 7, the operator terminal 8 and the like via the Internet 2.

記憶装置30は、制御装置20が使用するデータ及びコンピュータプログラムを格納する。記憶装置30には、判定基準データ31及び三次元形状データ32が格納される。判定基準データ31は、位置判定装置40が位置を判定するために使用する判定基準のデータである。三次元形状データ32は、建造物をモデリングした三次元形状データである。   The storage device 30 stores data and computer programs used by the control device 20. The storage device 30 stores determination reference data 31 and three-dimensional shape data 32. The determination reference data 31 is determination reference data used by the position determination device 40 to determine the position. The three-dimensional shape data 32 is three-dimensional shape data that models a building.

制御装置20は、写真取得部21、二次元画像生成部22、解析部23、学習部24、及び提供部25を備える。これらの構成は、ハードウエアコンポーネントでいえば、任意のコンピュータのCPU、メモリ、メモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。   The control device 20 includes a photo acquisition unit 21, a two-dimensional image generation unit 22, an analysis unit 23, a learning unit 24, and a providing unit 25. In terms of hardware components, these configurations are realized by a CPU of a computer, a memory, a program loaded in the memory, and the like, but here, functional blocks realized by their cooperation are illustrated. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

写真取得部21は、自動撮像装置4により撮像された建造物の写真と、写真が撮像された位置を示す情報を取得する。自動撮像装置4は、建造物の周囲及び内部を移動して建造物の周囲及び内部の画像を自動的に撮像するとともに、GPS受信機、加速度センサ、ジャイロセンサ、LIDARなど、任意の位置検出技術を利用して、写真を撮像した位置を示す情報を取得する。この位置情報は、高い精度で取得できない可能性もあるが、写真が撮像された位置を大まかに判定するための判定基準を学習するために使用される。自動撮像装置4は、撮像装置と、撮像装置により撮像された画像のデータを送信するための通信装置、又は、撮像装置により撮像された画像のデータを記憶する記憶装置とを搭載した無人航空機であってもよい。無人航空機は、操作者により操作されて建造物の周囲及び内部を移動してもよいし、撮像装置により撮像された画像やレーダーなどの空間認識技術を利用した自動操縦機能により自動的に建造物の周囲及び内部を移動してもよい。後述するように、位置判定装置40により工事の進捗段階を判定するために、自動撮像装置4は、例えば、一日の工事が終了した後に、建設現場3の全範囲を自動的に移動し、建設中の建造物の全範囲の写真を撮像してもよい。   The photograph acquisition unit 21 acquires a photograph of a building imaged by the automatic imaging device 4 and information indicating a position where the photograph is captured. The automatic image pickup device 4 moves around and inside a building to automatically pick up images around and inside the building, and uses any position detection technology such as a GPS receiver, an acceleration sensor, a gyro sensor, and a LIDAR. Is used to obtain information indicating the position where the photograph was taken. Although there is a possibility that this position information cannot be acquired with high accuracy, it is used to learn a determination criterion for roughly determining the position where the photograph is taken. The automatic imaging device 4 is an unmanned aerial vehicle equipped with an imaging device and a communication device for transmitting image data captured by the imaging device, or a storage device that stores image data captured by the imaging device. There may be. An unmanned aerial vehicle may be moved around and inside a building by being operated by an operator, or automatically built by an autopilot function using spatial recognition technology such as images captured by an imaging device or radar. You may move around and inside. As will be described later, in order to determine the progress stage of the construction by the position determination device 40, the automatic imaging device 4 automatically moves the entire range of the construction site 3, for example, after one day of construction is completed, A picture of the entire range of the building under construction may be taken.

二次元画像生成部22は、視点位置及び視線方向を設定して三次元形状データ32をレンダリングすることにより、建造物の二次元画像を生成する。二次元画像生成部22は、ロボット5や建設現場端末80などの装置が移動可能な範囲の位置を視点位置に設定し、その視点位置から写真を撮像することが想定される範囲の視線方向を設定して、三次元形状データ32をレンダリングする。位置判定装置40による位置判定機能を、建造物の完成後に利用する場合には、ロボット5や建設現場端末80などが移動可能な通路などの位置のみを視点位置に設定してもよいが、建造物の建設中にも利用する場合には、建設現場3の全ての範囲にわたって視点位置を設定することが好ましい。また、建造物の高さまでの範囲だけでなく、建造物を建設するために使用されるクレーンや足場などにより到達可能な高さまでの範囲にわたって視点位置を設定することが好ましい。   The two-dimensional image generation unit 22 generates a two-dimensional image of a building by setting the viewpoint position and the line-of-sight direction and rendering the three-dimensional shape data 32. The two-dimensional image generation unit 22 sets a position in a range in which a device such as the robot 5 or the construction site terminal 80 can move as a viewpoint position, and sets a line-of-sight direction in a range in which a photograph is assumed to be taken from the viewpoint position. The three-dimensional shape data 32 is rendered by setting. When the position determination function by the position determination device 40 is used after the building is completed, only the position of the passage where the robot 5 or the construction site terminal 80 can move may be set as the viewpoint position. When using even during construction of an object, it is preferable to set the viewpoint position over the entire range of the construction site 3. Moreover, it is preferable to set the viewpoint position not only in the range up to the height of the building but also in the range up to the height that can be reached by a crane or a scaffold used for constructing the building.

二次元画像生成部22は、実際の建造物の写真をより精確に再現するために、建造物の周囲の照明や太陽などの光を再現する照明を設定して、三次元形状データをレンダリングしてもよい。例えば、時間帯ごとに太陽の位置に照明を設定して三次元形状データをレンダリングすることにより、時間帯ごとの太陽光や陰を再現した二次元画像を生成してもよい。   The 2D image generation unit 22 renders 3D shape data by setting illumination that reproduces light around the building and light such as the sun in order to reproduce a photograph of an actual building more accurately. May be. For example, a two-dimensional image that reproduces sunlight and shade for each time zone may be generated by setting illumination at the position of the sun for each time zone and rendering three-dimensional shape data.

後述するように、位置判定装置40により工事の進捗段階を判定することを可能とするために、二次元画像生成部22は、工事の進捗段階ごとに、その進捗段階においては未完成又は未施工である予定の構造物を三次元形状データから削除し、その進捗段階において完成しているであろう姿の建造物の二次元画像を生成する。進捗段階ごとに判定基準を生成しておくことで、建造物の建設中に、自動撮像装置4により撮像された建造物の写真から、建造物の建設工事の進捗段階を判定することができる。   As will be described later, in order to enable the position determination device 40 to determine the progress stage of the construction, the two-dimensional image generation unit 22 is incomplete or incomplete at each progress stage of the construction. Is deleted from the three-dimensional shape data, and a two-dimensional image of the building that will be completed in the progress stage is generated. By generating a determination criterion for each progress stage, it is possible to determine the progress stage of the building construction work from the photograph of the building imaged by the automatic imaging device 4 during the construction of the building.

解析部23は、写真取得部21により取得された建造物の写真、及び、二次元画像生成部22により生成された建造物の二次元画像を解析し、それらの特徴を示す情報を抽出する。解析部23は、既知の任意の画像解析技術を利用して、建造物の写真及び二次元画像を解析してもよい。   The analysis unit 23 analyzes the photograph of the building acquired by the photo acquisition unit 21 and the two-dimensional image of the building generated by the two-dimensional image generation unit 22, and extracts information indicating their characteristics. The analysis unit 23 may analyze a photograph of a building and a two-dimensional image using any known image analysis technique.

解析部23は、画像中に存在する部品や機器などの構造物を、輪郭検出技術やパターン認識技術などを利用して検出し、検出された構造物を識別してもよい。学習装置10は、建造物を構成する部品の三次元形状データ又は二次元画像を記憶装置30に記憶しておき、画像から検出された構造物と比較することにより、画像に含まれる構造物を識別してもよい。三次元形状データから生成された二次元画像を解析する場合には、三次元形状データのメタデータとして構造物の情報を格納しておき、三次元形状データに含まれる構造物の情報と、二次元画像にレンダリングされた構造物の領域とを対応付けてもよい。   The analysis unit 23 may detect a structure such as a component or device existing in the image by using a contour detection technique or a pattern recognition technique, and identify the detected structure. The learning device 10 stores the three-dimensional shape data or the two-dimensional image of the parts constituting the building in the storage device 30 and compares the structure included in the image with the structure detected from the image. You may identify. When analyzing a two-dimensional image generated from three-dimensional shape data, information on the structure is stored as metadata of the three-dimensional shape data, information on the structure included in the three-dimensional shape data, and two The region of the structure rendered in the three-dimensional image may be associated.

解析部23は、画像を構成する画素のデータを解析し、画像の特徴を示す情報を抽出してもよい。例えば、画素の明度、彩度、色度、などを統計学的に解析することにより、画像の特徴を抽出してもよい。これらの情報は、特有の明度、彩度、色度などを有する部品や機器などが画像に存在しているか否か、存在している場合には、その種類、数、向きなどを表す指標となりうる。   The analysis unit 23 may analyze data of pixels constituting the image and extract information indicating the characteristics of the image. For example, image characteristics may be extracted by statistically analyzing pixel brightness, saturation, chromaticity, and the like. This information is an index that indicates whether or not parts or equipment with specific brightness, saturation, chromaticity, etc. are present in the image, and if so, their type, number, orientation, etc. sell.

学習部24は、解析部23により抽出された抽出情報と、二次元画像を生成する際に設定された視点位置、又は、建造物の写真が撮像された位置との関係を学習することにより、判定基準データ31を生成する。学習部24は、写真を解析することにより抽出された抽出情報と、写真が撮像された大まかな位置を示す位置情報との関係を学習することにより、大まかな位置を判定するための領域判定基準を生成するとともに、二次元画像を解析することにより抽出された抽出情報と、二次元画像を生成するための視点位置との関係を学習することにより、精密な位置を判定するための位置判定基準を生成してもよい。これらの判定基準は、別々に生成されてもよいし、統合されてもよい。学習部24は、抽出情報と、視点位置及び視線方向との関係を学習し、建造物の画像から位置及び視線方向を判定するための判定基準を生成してもよい。   The learning unit 24 learns the relationship between the extraction information extracted by the analysis unit 23 and the viewpoint position set when the two-dimensional image is generated or the position where the photograph of the building is captured, Determination criterion data 31 is generated. The learning unit 24 learns the relationship between the extracted information extracted by analyzing the photograph and the positional information indicating the rough position where the photograph is taken, thereby determining the region determination criterion for determining the rough position. A position criterion for determining a precise position by learning the relationship between the extracted information extracted by analyzing the two-dimensional image and the viewpoint position for generating the two-dimensional image May be generated. These criteria may be generated separately or integrated. The learning unit 24 may learn the relationship between the extracted information, the viewpoint position, and the line-of-sight direction, and generate a determination criterion for determining the position and the line-of-sight direction from the building image.

学習部24は、解析部23により画像内に検出された構造物が、位置を判定する対象の写真と画像をマッチングさせる際に、厳密な合致が要求される物であるか、厳密な合致は要求されないが同種の機能を有する構造物と合致することが要求される物であるかなど、マッチングに要求される精度に応じて重み付けをしてもよい。例えば、バルブを設置することは確定しているが、バルブの種類まで合致することは要求されていない場合に、別の種類のバルブが写っている写真でも合致すると判定されるように、判定基準を学習させてもよい。また、配管の径は確定しているが、色まで合致することは要求されていない場合に、同じ径の別の色の配管が写っている写真では合致すると判定され、径の異なる配管が写っている写真では合致しないと判定されるように、判定基準を学習させてもよい。   The learning unit 24 determines whether the structure detected in the image by the analysis unit 23 is an object for which a strict match is required when matching the photograph with the image whose position is to be determined. Weighting may be performed according to the accuracy required for matching, such as whether the structure is required to match a structure that is not required but has the same type of function. For example, if you have decided to install a valve but are not required to match the type of valve, the criteria will be such that it can be determined that the photo shows another type of valve. You may learn. In addition, if the pipe diameter is fixed but it is not required to match even the color, it is determined that it matches in a photograph that shows another color pipe of the same diameter, and pipes with different diameters are shown. The determination criterion may be learned so that it is determined not to match in the photograph being photographed.

学習部24は、建造物の写真に写っている足場や資材など、建造物の一部ではない物を削除してから学習に使用してもよいし、足場や資材などが写ったまま学習に使用してもよい。足場や資材などを削除する場合には、足場や資材などを輪郭検出技術などを利用して検出して削除してもよいし、測距カメラなどを使用して距離情報を持つ写真を撮像する場合には、所定の距離の範囲にある画素を削除することにより、足場や資材などを削除してもよい。   The learning unit 24 may delete an object that is not a part of the building, such as a scaffold or material that is reflected in a photograph of the building, and then use the learning part 24 for learning while the scaffold or material is still visible. May be used. When deleting scaffolds or materials, the scaffolds and materials may be detected and deleted using contour detection technology, etc., or a photo with distance information is taken using a ranging camera etc. In some cases, scaffolds, materials, and the like may be deleted by deleting pixels within a predetermined distance range.

学習部24は、画像のデータを入力層に入力し、出力層から位置情報を出力するニューラルネットワークを構築し、画像と位置の組合せに応じてニューラルネットワークの中間層の重みを調整することにより、写真が撮像された位置を判定するための判定基準を学習してもよい。学習部24は、画像のデータを入力層に入力し、出力層から進捗段階を出力するニューラルネットワークを構築し、進捗段階ごとに生成された二次元画像と進捗段階の組合せに応じてニューラルネットワークの中間層の重みを調整することにより、進捗段階を判定するための判定基準を生成してもよい。   The learning unit 24 inputs image data to the input layer, constructs a neural network that outputs position information from the output layer, and adjusts the weight of the intermediate layer of the neural network according to the combination of the image and the position, You may learn the criteria for determining the position where the photograph was imaged. The learning unit 24 inputs image data to the input layer, constructs a neural network that outputs the progress stage from the output layer, and determines the neural network according to the combination of the two-dimensional image generated for each progress stage and the progress stage. A criterion for determining the progress stage may be generated by adjusting the weight of the intermediate layer.

学習部24は、建設現場を複数の領域に分割し、領域ごとに判定基準を生成してもよい。また、時間帯ごとに照明が設定されて生成された二次元画像を使用して、時間帯ごとに判定基準を生成してもよい。   The learning unit 24 may divide the construction site into a plurality of regions and generate a determination criterion for each region. Moreover, you may produce | generate a criterion for every time slot | zone using the two-dimensional image produced | generated by setting illumination for every time slot | zone.

提供部25は、学習部24により学習された判定基準データ31を位置判定装置40に提供する。   The providing unit 25 provides the determination reference data 31 learned by the learning unit 24 to the position determination device 40.

図3は、実施の形態に係る位置判定装置の構成を示す。位置判定装置40は、制御装置50及び記憶装置70を備える。   FIG. 3 shows a configuration of the position determination apparatus according to the embodiment. The position determination device 40 includes a control device 50 and a storage device 70.

記憶装置70は、制御装置50が使用するデータ及びコンピュータプログラムなどを格納する。記憶装置70には、判定基準データ71、三次元形状データ72、構造物情報データベース73が格納される。判定基準データ71は、位置判定装置40が位置を判定するために使用する判定基準のデータである。三次元形状データ72は、建造物をモデリングした三次元形状データである。構造物情報データベース73は、建造物を構成する構造物に関する情報を格納する。   The storage device 70 stores data and computer programs used by the control device 50. The storage device 70 stores determination reference data 71, three-dimensional shape data 72, and a structure information database 73. The determination reference data 71 is determination reference data used by the position determination device 40 to determine the position. The three-dimensional shape data 72 is three-dimensional shape data that models a building. The structure information database 73 stores information related to the structures constituting the building.

制御装置50は、写真受付部51、判定部52、位置情報送信部55、進捗段階判定部56、進捗段階送信部57、構造物情報検索部58、構造物情報送信部59、ラインチェック部60、及び確認結果送信部61を備える。判定部52は、領域判定部53及びマッチング部54を備える。これらの機能ブロックも、ハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できる。   The control device 50 includes a photo reception unit 51, a determination unit 52, a position information transmission unit 55, a progress stage determination unit 56, a progress stage transmission unit 57, a structure information search unit 58, a structure information transmission unit 59, and a line check unit 60. And the confirmation result transmission part 61 is provided. The determination unit 52 includes an area determination unit 53 and a matching unit 54. These functional blocks can also be realized in various forms by hardware only, software only, or a combination thereof.

写真受付部51は、ロボット5又は建設現場端末80などから送信された建造物の内部の写真を受け付ける。判定部52は、写真受付部51により受け付けられた写真が撮像された位置を判定する。前述したように、判定基準データ71が、領域判定基準と位置判定基準の2段階の判定基準として生成されている場合、領域判定部53は、領域判定基準にしたがって、写真が撮像された領域を判定し、マッチング部54は、領域判定部53により判定された領域における位置判定基準にしたがって、写真が撮像された位置を判定する。   The photo accepting unit 51 accepts a photo inside the building transmitted from the robot 5 or the construction site terminal 80. The determination unit 52 determines the position where the photograph accepted by the photograph acceptance unit 51 is captured. As described above, when the determination criterion data 71 is generated as a two-step determination criterion, that is, the region determination criterion and the position determination criterion, the region determination unit 53 determines the region where the photograph is captured according to the region determination criterion. The matching unit 54 determines the position where the photograph was taken according to the position determination criterion in the region determined by the region determination unit 53.

位置情報送信部55は、写真を受け付けた装置に、写真を撮像した位置を示す位置情報を送信する。前述したように、建造物の二次元画像から抽出された抽出情報と、二次元画像を生成した際の視点位置及び視線方向との関係を学習することにより判定基準データ71が生成される場合には、判定部52は、写真が撮像された位置及び視線方向を判定し、位置情報送信部55は、位置情報及び視線方向を示す情報を送信する。   The position information transmitting unit 55 transmits position information indicating the position where the photograph is taken to the apparatus that has received the photograph. As described above, when the criterion data 71 is generated by learning the relationship between the extracted information extracted from the two-dimensional image of the building and the viewpoint position and the line-of-sight direction when the two-dimensional image is generated. The determination unit 52 determines the position and the line-of-sight direction where the photograph is taken, and the position information transmission unit 55 transmits the position information and information indicating the line-of-sight direction.

進捗段階判定部56は、進捗段階を判定するための判定基準にしたがって、写真受付部51により受け付けられた写真から進捗段階を判定する。進捗段階を判定するために使用する写真は、前述したように、自動撮像装置4から受け付けられてもよいし、ロボット5や建設現場端末80などから受け付けられてもよい。進捗段階判定部56は、写真受付部51により受け付けられた写真に写っている建造物と、三次元形状データ72とを比較することにより、建造物の建造の進捗段階を判定してもよい。例えば、三次元形状データ72として表現された建造物と、写真に写っている建造物の体積又は表面積の比を算出することにより、進捗段階を判定してもよい。前述したように、進捗段階ごとに生成された二次元画像により学習された、進捗段階を判定するための判定基準が生成されている場合は、進捗段階判定部56は、その判定基準にしたがって進捗段階を判定してもよい。   The progress stage determination unit 56 determines the progress stage from the photo received by the photo reception unit 51 in accordance with a determination criterion for determining the progress stage. As described above, the photograph used to determine the progress stage may be received from the automatic imaging device 4, or may be received from the robot 5, the construction site terminal 80, or the like. The progress stage determination unit 56 may determine the progress stage of building construction by comparing the building shown in the photograph received by the photo reception unit 51 with the three-dimensional shape data 72. For example, the progress stage may be determined by calculating the ratio of the volume or surface area of the building represented as the three-dimensional shape data 72 and the building shown in the photograph. As described above, when the determination criterion for determining the progress step learned from the two-dimensional image generated for each progress step is generated, the progress step determination unit 56 proceeds according to the determination criterion. The stage may be determined.

構造物情報検索部58は、判定部52により判定された位置、又は、位置及び視線方向に基づいて、写真受付部51により受け付けられた写真に写っている構造物を判定し、判定された構造物に関する情報を、構造物情報データベース73から検索する。構造物情報送信部59は、構造物情報検索部58により検索された情報を、写真を受け付けた装置に送信する。   The structure information search unit 58 determines the structure in the photo received by the photo reception unit 51 based on the position determined by the determination unit 52 or the position and the line-of-sight direction, and the determined structure Information regarding the object is retrieved from the structure information database 73. The structure information transmission unit 59 transmits the information searched by the structure information search unit 58 to the device that has received the photograph.

ラインチェック部60は、写真受付部51により受け付けられた写真と、三次元形状データ72とを比較することにより、配管などが設計通りに施工されているか否かを確認する。確認結果送信部61は、ラインチェック部60による確認結果を、写真を受け付けた装置に送信する。   The line check unit 60 compares the photograph accepted by the photograph accepting unit 51 with the three-dimensional shape data 72 to confirm whether or not the piping is constructed as designed. The confirmation result transmission unit 61 transmits the confirmation result by the line check unit 60 to the device that has received the photo.

図4は、実施の形態に係る建設現場端末の構成を示す。建設現場端末80は、通信装置81、表示装置82、入力装置83、撮像装置84、記憶装置85、及び制御装置90を備える。   FIG. 4 shows a configuration of the construction site terminal according to the embodiment. The construction site terminal 80 includes a communication device 81, a display device 82, an input device 83, an imaging device 84, a storage device 85, and a control device 90.

通信装置81は、有線又は無線による通信を制御する。表示装置82は、制御装置90により生成された表示画像を表示する。入力装置83は、ユーザから入力された情報を制御装置90に入力する。撮像装置84は、建設現場端末80の周囲の建造物を撮像する。記憶装置85は、制御装置90が使用するデータやコンピュータプログラムなどを格納する。   The communication device 81 controls wired or wireless communication. The display device 82 displays the display image generated by the control device 90. The input device 83 inputs information input from the user to the control device 90. The imaging device 84 images a building around the construction site terminal 80. The storage device 85 stores data and computer programs used by the control device 90.

制御装置90は、写真送信部91、位置情報提示部92、進捗段階提示部93、構造物情報提示部94、及び確認結果提示部95を備える。これらの機能ブロックも、ハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できる。   The control device 90 includes a photo transmission unit 91, a position information presentation unit 92, a progress stage presentation unit 93, a structure information presentation unit 94, and a confirmation result presentation unit 95. These functional blocks can also be realized in various forms by hardware only, software only, or a combination thereof.

写真送信部91は、撮像装置84により撮像された建造物の写真を位置判定装置40に送信する。位置情報提示部92は、位置判定装置40から送信された位置情報を表示装置82に表示する。進捗段階提示部93は、位置判定装置40から送信された進捗段階を表示装置82に表示する。構造物情報提示部94は、位置判定装置40から送信された構造物に関する情報を表示装置82に表示する。確認結果提示部95は、位置判定装置40から送信されたラインチェックの結果を表示装置82に表示する。   The photo transmission unit 91 transmits a photo of the building imaged by the imaging device 84 to the position determination device 40. The position information presentation unit 92 displays the position information transmitted from the position determination device 40 on the display device 82. The progress stage presentation unit 93 displays the progress stage transmitted from the position determination device 40 on the display device 82. The structure information presentation unit 94 displays information on the structure transmitted from the position determination device 40 on the display device 82. The confirmation result presentation unit 95 displays the result of the line check transmitted from the position determination device 40 on the display device 82.

運転員端末8及び担当者端末9の構成は、建設現場端末80の構成と同様である。ただし、運転員端末8及び担当者端末9には、進捗段階提示部93及び確認結果提示部95は設けられなくてもよい。   The configuration of the operator terminal 8 and the person in charge terminal 9 is the same as the configuration of the construction site terminal 80. However, the operator terminal 8 and the person-in-charge terminal 9 may not be provided with the progress stage presentation unit 93 and the confirmation result presentation unit 95.

図5は、実施の形態に係る建造物管理システムにより管理される建造物の例を示す。図5は、建造物の一例であるプラントの完成後の写真である。   FIG. 5 shows an example of a building managed by the building management system according to the embodiment. FIG. 5 is a photograph after the completion of a plant as an example of a building.

図6は、図5に示したプラントをモデリングした三次元形状データの例を示す。三次元形状データは、CADなどにより作成される。   FIG. 6 shows an example of three-dimensional shape data obtained by modeling the plant shown in FIG. The three-dimensional shape data is created by CAD or the like.

図7は、図6に示した三次元形状データをレンダリングすることにより生成された二次元画像の例を示す。このような二次元画像が大量に生成され、学習装置10に提供される。   FIG. 7 shows an example of a two-dimensional image generated by rendering the three-dimensional shape data shown in FIG. A large number of such two-dimensional images are generated and provided to the learning device 10.

図8は、建設現場端末の表示装置に表示された画面の例を示す。表示装置82には、撮像装置84により撮像されたプラントの写真が表示されるとともに、構造物情報提示部94により構造物に関する情報が表示され、さらに、確認結果提示部95によりラインチェックの結果が表示されている。このように、撮像装置84により撮像された写真に重畳させて構造物に関する情報やラインチェックの結果などを表示することにより、拡張現実(AR)を利用して、視覚的に理解しやすく情報を提示することができる。建設現場端末80を進捗管理システムなどから情報を取得して、進捗管理に関する情報などを更に表示してもよい。   FIG. 8 shows an example of a screen displayed on the display device of the construction site terminal. The display device 82 displays a photograph of the plant imaged by the imaging device 84, information related to the structure is displayed by the structure information presentation unit 94, and further, the result of the line check is displayed by the confirmation result presentation unit 95. It is displayed. In this way, by superimposing the photograph taken by the image pickup device 84 and displaying the information on the structure and the result of the line check, the information can be easily understood visually using augmented reality (AR). Can be presented. The construction site terminal 80 may acquire information from a progress management system or the like, and further display information related to progress management.

図9は、実施の形態に係る位置判定方法の手順を示すフローチャートである。図9は、学習装置10が実行する手順を示す。二次元画像生成部22は、視点位置及び視線方向を設定して、建造物をモデリングした三次元形状データをレンダリングすることにより、建造物の二次元画像を生成する(S10)。解析部23は、二次元画像生成部22により生成された建造物の二次元画像を解析し、二次元画像の特徴を示す情報を抽出する(S12)。写真取得部21は、自動撮像装置4などにより撮像された建造物の写真と、写真が撮像された位置を示す情報を取得する(S14)。解析部23は、写真取得部21により取得された建造物の写真を解析し、写真の特徴を示す情報を抽出する(S16)。学習部24は、解析部23により抽出された抽出情報と、二次元画像を生成する際に設定された視点位置、又は、建造物の写真が撮像された位置との関係を学習することにより、建造物の写真から位置を判定するために使用される判定基準データを生成する(S18)。   FIG. 9 is a flowchart illustrating a procedure of the position determination method according to the embodiment. FIG. 9 shows a procedure executed by the learning apparatus 10. The two-dimensional image generation unit 22 generates a two-dimensional image of the building by setting the viewpoint position and the line-of-sight direction and rendering the three-dimensional shape data modeling the building (S10). The analysis unit 23 analyzes the two-dimensional image of the building generated by the two-dimensional image generation unit 22 and extracts information indicating the characteristics of the two-dimensional image (S12). The photograph acquisition unit 21 acquires a photograph of a building imaged by the automatic imaging device 4 or the like and information indicating a position where the photograph is captured (S14). The analysis part 23 analyzes the photograph of the building acquired by the photograph acquisition part 21, and extracts the information which shows the characteristic of a photograph (S16). The learning unit 24 learns the relationship between the extraction information extracted by the analysis unit 23 and the viewpoint position set when the two-dimensional image is generated or the position where the photograph of the building is captured, Criteria data used to determine the position from the photograph of the building is generated (S18).

図10は、実施の形態に係る位置判定方法の手順を示すフローチャートである。図10は、位置判定装置40が実行する手順を示す。写真受付部51は、ロボット5又は建設現場端末80などから送信された建造物の内部の写真を受け付ける(S20)。判定部52は、写真受付部51により受け付けられた写真が撮像された位置を判定する(S22)。位置情報送信部55は、写真を受け付けた装置に、写真を撮像した位置を示す位置情報を送信する(S24)。   FIG. 10 is a flowchart illustrating a procedure of the position determination method according to the embodiment. FIG. 10 shows a procedure executed by the position determination device 40. The photo accepting unit 51 accepts a photo inside the building transmitted from the robot 5 or the construction site terminal 80 (S20). The determination unit 52 determines the position where the photograph accepted by the photograph acceptance unit 51 is captured (S22). The position information transmitting unit 55 transmits position information indicating the position where the photograph is taken to the apparatus that has received the photograph (S24).

以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. .

本発明の技術は、プラントだけでなく、ビルなどの建築物の建設や運用を管理するためにも利用可能である。また、建造物の内部や周辺だけでなく、撮像装置により撮像可能であって、三次元形状データが存在する、任意の対象において位置を判定するために利用可能である。   The technology of the present invention can be used not only for the plant but also for managing the construction and operation of buildings such as buildings. Moreover, it can be used not only for the inside and the periphery of a building but also for determining a position in an arbitrary object that can be imaged by an imaging device and has three-dimensional shape data.

1 建造物管理システム、 10 学習装置、 21 写真取得部、22 二次元画像生成部、23 解析部、24 学習部、25 提供部、 40 位置判定装置、 51 写真受付部、52 判定部、53 領域判定部、54 マッチング部、55 位置情報送信部、56 進捗段階判定部、57 進捗段階送信部、58 構造物情報検索部、59 構造物情報送信部、60 ラインチェック部、61 確認結果送信部、 80 建設現場端末。   DESCRIPTION OF SYMBOLS 1 Building management system, 10 Learning apparatus, 21 Photo acquisition part, 22 Two-dimensional image generation part, 23 Analysis part, 24 Learning part, 25 Provision part, 40 Position determination apparatus, 51 Photo reception part, 52 Determination part, 53 area | region Determination unit, 54 matching unit, 55 position information transmission unit, 56 progress stage determination unit, 57 progress stage transmission unit, 58 structure information search unit, 59 structure information transmission unit, 60 line check unit, 61 confirmation result transmission unit, 80 Construction site terminal.

Claims (10)

建造物を撮像した写真から、前記写真が撮像された位置を判定する位置判定装置と、
前記位置判定装置が位置を判定するために使用する判定基準を機械学習により生成する学習装置と、
を備え、
前記学習装置は、
前記建造物をモデリングした三次元形状データを記憶する三次元形状データ記憶部と、
視点位置及び視線方向を設定して前記三次元形状データをレンダリングすることにより、前記建造物の二次元画像を生成する二次元画像生成部と、
前記二次元画像生成部により生成された二次元画像から抽出される抽出情報と、その二次元画像を生成する際に設定された視点位置との関係を学習することにより、前記判定基準を生成する学習部と、
を備え、
前記位置判定装置は、
前記建造物を撮像した写真を受け付ける写真受付部と、
前記学習装置により生成された前記判定基準に基づいて、前記写真が撮像された位置を判定する判定部と、
を備えることを特徴とする建造物管理システム。
A position determination device for determining a position where the photograph is captured from a photograph of a building image;
A learning device that generates, by machine learning, a determination criterion used by the position determination device to determine a position;
With
The learning device
A three-dimensional shape data storage unit for storing three-dimensional shape data modeling the building;
A two-dimensional image generation unit that generates a two-dimensional image of the building by rendering the three-dimensional shape data by setting a viewpoint position and a line-of-sight direction;
The determination criterion is generated by learning the relationship between the extraction information extracted from the two-dimensional image generated by the two-dimensional image generation unit and the viewpoint position set when generating the two-dimensional image. The learning department,
With
The position determination device includes:
A photo acceptance unit that accepts a photograph of the building,
A determination unit configured to determine a position where the photograph is captured based on the determination criterion generated by the learning device;
A building management system comprising:
前記学習装置は、
前記建造物を撮像した写真と、その写真が撮像された位置を示す位置情報とを取得する写真取得部を更に備え、
前記学習部は、前記写真取得部により取得された前記建造物の写真及び位置情報とを更に使用して、前記判定基準を学習することを特徴とする請求項1に記載の建造物管理システム。
The learning device
A photo acquisition unit for acquiring a photograph of the building and position information indicating a position at which the photograph is captured;
The building management system according to claim 1, wherein the learning unit further learns the determination criterion by further using the photograph of the building and the position information acquired by the photo acquisition unit.
前記二次元画像生成部は、前記建造物の内部に視点位置を設定して前記建造物の内部の二次元画像を生成し、
前記学習部は、前記建造物の内部で撮像された写真から、その写真が撮像された位置を判定するために使用される判定基準を学習し、
前記写真受付部は、前記建造物の内部で撮像された写真を受け付け、
前記判定部は、前記写真が撮像された前記建造物の内部の位置を判定することを特徴とする請求項1又は2に記載の建造物管理システム。
The two-dimensional image generation unit generates a two-dimensional image inside the building by setting a viewpoint position inside the building,
The learning unit learns a determination criterion used for determining a position where the photograph is taken from a photograph taken inside the building,
The photo accepting unit accepts a photo taken inside the building,
The building management system according to claim 1, wherein the determination unit determines a position inside the building where the photograph is taken.
前記位置判定装置は、
前記建造物を構成する構造物に関する情報と、前記建造物における前記構造物の位置を示す情報とを記憶する構造物情報記憶部と、
前記判定部により判定された位置に基づいて、前記写真に撮像されている構造物を判定し、判定された構造物に関する情報を提示する構造物情報提示部と、
を備えることを特徴とする請求項1から3のいずれかに記載の建造物管理システム。
The position determination device includes:
A structure information storage unit that stores information related to the structure constituting the building, and information indicating a position of the structure in the building;
A structure information presentation unit that determines a structure captured in the photograph based on the position determined by the determination unit, and presents information about the determined structure;
The building management system according to any one of claims 1 to 3, further comprising:
前記位置判定装置は、
前記建造物の三次元形状データを記憶する三次元形状データ記憶部と、
前記写真と前記三次元形状データとを比較することにより、前記建造物の建造の進捗段階を判定する進捗段階判定部と、
を更に備えることを特徴とする請求項1から4のいずれかに記載の建造物管理システム。
The position determination device includes:
A three-dimensional shape data storage unit for storing the three-dimensional shape data of the building;
A progress stage determination unit that determines the progress stage of the building by comparing the photograph and the three-dimensional shape data;
The building management system according to claim 1, further comprising:
前記位置判定装置は、
前記建造物の三次元形状データを記憶する三次元形状データ記憶部と、
前記写真と前記三次元形状データとを比較することにより、前記建造物の施工の良否を確認する確認部と、
を更に備えることを特徴とする請求項1から5のいずれかに記載の建造物管理システム。
The position determination device includes:
A three-dimensional shape data storage unit for storing the three-dimensional shape data of the building;
By comparing the photograph and the three-dimensional shape data, a confirmation unit for confirming the quality of construction of the building,
The building management system according to claim 1, further comprising:
建造物をモデリングした三次元形状データを記憶する三次元形状データ記憶部と、
視点位置及び視線方向を設定して前記三次元形状データをレンダリングすることにより、前記建造物の二次元画像を生成する二次元画像生成部と、
前記二次元画像生成部により生成された二次元画像から抽出される抽出情報と、その二次元画像を生成する際に設定された視点位置との関係を学習することにより、前記建造物を撮像した写真から前記写真が撮像された位置を判定するために使用される判定基準を生成する学習部と、
を備えることを特徴とする学習装置。
A three-dimensional shape data storage unit for storing three-dimensional shape data modeling a building;
A two-dimensional image generation unit that generates a two-dimensional image of the building by rendering the three-dimensional shape data by setting a viewpoint position and a line-of-sight direction;
The building was imaged by learning the relationship between the extraction information extracted from the two-dimensional image generated by the two-dimensional image generation unit and the viewpoint position set when generating the two-dimensional image. A learning unit that generates a criterion used to determine a position at which the photograph is captured from a photograph;
A learning apparatus comprising:
建造物を撮像した写真を受け付ける写真受付部と、
視点位置及び視線方向を設定して前記建造物をモデリングした三次元形状データをレンダリングすることにより生成された二次元画像から抽出される抽出情報と、その二次元画像を生成する際に設定された視点位置との関係を学習することにより生成された判定基準に基づいて、前記写真が撮像された位置を判定する判定部と、
を備えることを特徴とする位置判定装置。
A photo acceptance unit that accepts photographs of buildings,
Extraction information extracted from the 2D image generated by rendering the 3D shape data modeling the building by setting the viewpoint position and the line of sight, and set when generating the 2D image A determination unit that determines a position where the photograph is captured based on a determination criterion generated by learning a relationship with a viewpoint position;
A position determination apparatus comprising:
撮像画像により撮像された撮像対象の写真を受け付ける写真受付部と、
視点位置及び視線方向を設定して前記撮像対象をモデリングした三次元形状データをレンダリングすることにより生成された二次元画像から抽出される抽出情報と、その二次元画像を生成する際に設定された視点位置との関係を学習することにより生成された判定基準に基づいて、前記写真が撮像された位置を判定する判定部と、
を備えることを特徴とする位置判定装置。
A photo accepting unit that accepts a photograph of an imaging target captured by the captured image;
Extraction information extracted from the two-dimensional image generated by rendering the three-dimensional shape data modeling the imaging target by setting the viewpoint position and the line-of-sight direction, and was set when generating the two-dimensional image A determination unit that determines a position where the photograph is captured based on a determination criterion generated by learning a relationship with a viewpoint position;
A position determination apparatus comprising:
撮像画像により撮像された撮像対象の写真を受け付けるステップと、
視点位置及び視線方向を設定して前記撮像対象をモデリングした三次元形状データをレンダリングすることにより生成された二次元画像から抽出される抽出情報と、その二次元画像を生成する際に設定された視点位置との関係を学習することにより生成された判定基準に基づいて、前記写真が撮像された位置を判定するステップと、
をコンピュータに実行させることを特徴とする位置判定方法。
Receiving a photograph of an imaging target captured by the captured image;
Extraction information extracted from the two-dimensional image generated by rendering the three-dimensional shape data modeling the imaging target by setting the viewpoint position and the line-of-sight direction, and was set when generating the two-dimensional image Determining a position at which the photograph is captured based on a criterion generated by learning a relationship with a viewpoint position;
A position determination method characterized by causing a computer to execute.
JP2018062682A 2018-03-28 2018-03-28 Building management system, learning device, position determination device, and position determination method Active JP7097207B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018062682A JP7097207B2 (en) 2018-03-28 2018-03-28 Building management system, learning device, position determination device, and position determination method
PCT/JP2019/005836 WO2019187772A1 (en) 2018-03-28 2019-02-18 Building management system, learning device, position determining device, and position determining method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018062682A JP7097207B2 (en) 2018-03-28 2018-03-28 Building management system, learning device, position determination device, and position determination method

Publications (2)

Publication Number Publication Date
JP2019175144A true JP2019175144A (en) 2019-10-10
JP7097207B2 JP7097207B2 (en) 2022-07-07

Family

ID=68059817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018062682A Active JP7097207B2 (en) 2018-03-28 2018-03-28 Building management system, learning device, position determination device, and position determination method

Country Status (2)

Country Link
JP (1) JP7097207B2 (en)
WO (1) WO2019187772A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102311373B1 (en) * 2020-11-25 2021-10-13 한국건설기술연구원 the design simulation system with drones and the design simulation method using the same
JP7390956B2 (en) 2020-03-27 2023-12-04 株式会社フジタ Construction work support system and construction work support method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164483A (en) * 2013-02-25 2014-09-08 Kddi Corp Database generation device, camera attitude estimation device, database generation method, camera attitude estimation method and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164483A (en) * 2013-02-25 2014-09-08 Kddi Corp Database generation device, camera attitude estimation device, database generation method, camera attitude estimation method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ALEX KENDALL ET AL.: "PoseNet: A Convolutional Network for Real-Time 6-DOF Camera Relocalization", 2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV), JPN6021044022, 7 December 2015 (2015-12-07), pages 2938 - 2946, XP032866641, ISSN: 0004634595, DOI: 10.1109/ICCV.2015.336 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7390956B2 (en) 2020-03-27 2023-12-04 株式会社フジタ Construction work support system and construction work support method
KR102311373B1 (en) * 2020-11-25 2021-10-13 한국건설기술연구원 the design simulation system with drones and the design simulation method using the same

Also Published As

Publication number Publication date
WO2019187772A1 (en) 2019-10-03
JP7097207B2 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
CN110427917B (en) Method and device for detecting key points
KR102203135B1 (en) Method and system for detecting disaster damage information based on artificial intelligence using drone
JP7041551B2 (en) Construction process management system and construction process management method
CN108508916B (en) Control method, device and equipment for unmanned aerial vehicle formation and storage medium
EP3274964B1 (en) Automatic connection of images using visual features
KR101181967B1 (en) 3D street view system using identification information.
CN112154486B (en) System and method for multi-user augmented reality shopping
CN111737790B (en) Method and equipment for constructing simulated city model
WO2023093217A1 (en) Data labeling method and apparatus, and computer device, storage medium and program
JP2019159630A (en) Image generation method, image generation apparatus, and image generation system
US20180204153A1 (en) Architectural Planning Method
Tran et al. Low-cost 3D scene reconstruction for response robots in real-time
US20210264666A1 (en) Method for obtaining photogrammetric data using a layered approach
WO2019187772A1 (en) Building management system, learning device, position determining device, and position determining method
KR101715781B1 (en) Object recognition system and method the same
CN114841944A (en) Tailing dam surface deformation inspection method based on rail-mounted robot
EP3825804A1 (en) Map construction method, apparatus, storage medium and electronic device
JP6725736B1 (en) Image specifying system and image specifying method
KR20160073491A (en) Interactive progress monitoring system using mobile terminal and user interface of the mobile terminal
CN117197388A (en) Live-action three-dimensional virtual reality scene construction method and system based on generation of antagonistic neural network and oblique photography
US20220051436A1 (en) Learning template representation libraries
US20210392277A1 (en) 3d tour photographing apparatus and method
CN109702747A (en) A kind of robot dog system and its implementation
Reja et al. As-built data acquisition for vision-based construction progress monitoring: A qualitative evaluation of factors.
CN116266402A (en) Automatic object labeling method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220627

R150 Certificate of patent or registration of utility model

Ref document number: 7097207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150