JP2021047715A - Learning support system, learning support method, and learning support program - Google Patents

Learning support system, learning support method, and learning support program Download PDF

Info

Publication number
JP2021047715A
JP2021047715A JP2019170707A JP2019170707A JP2021047715A JP 2021047715 A JP2021047715 A JP 2021047715A JP 2019170707 A JP2019170707 A JP 2019170707A JP 2019170707 A JP2019170707 A JP 2019170707A JP 2021047715 A JP2021047715 A JP 2021047715A
Authority
JP
Japan
Prior art keywords
model
information storage
storage unit
control unit
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019170707A
Other languages
Japanese (ja)
Other versions
JP7375405B2 (en
Inventor
拓馬 中林
Takuma Nakabayashi
拓馬 中林
慎太郎 井田
Shintaro Ida
慎太郎 井田
金子 智弥
Tomoya Kaneko
智弥 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Obayashi Corp
Original Assignee
Obayashi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Obayashi Corp filed Critical Obayashi Corp
Priority to JP2019170707A priority Critical patent/JP7375405B2/en
Publication of JP2021047715A publication Critical patent/JP2021047715A/en
Application granted granted Critical
Publication of JP7375405B2 publication Critical patent/JP7375405B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a learning support system, a learning support method, and a learning support program for efficiently creating teacher data used for machine learning for determining a status in construction work or the like.SOLUTION: A support server 20 includes: a BIM information storage section 22 which stores design information of a structure constituted by a three-dimensional element model including construction elements associated with each step; a teacher information storage section 23 which stores teacher data used for machine learning; and a control section 21 which generates a prediction model for predicting a progress status of each step. The control section 21 sequentially arranges the three-dimensional model obtained by combining element models of the construction elements used in each step in a model space using the design information, generates a two-dimensional image obtained by photographing the three-dimensional model from a viewpoint in the model space and stores it in the teacher information storage section 23, and generates the prediction model for predicting the progress status for each step from the photographed image using the teacher data stored in the teacher information storage section 23.SELECTED DRAWING: Figure 1

Description

本発明は、建築工事等における施工状況や進捗状況を判定するための機械学習に用いる教師データを作成するための学習支援システム、学習支援方法及び学習支援プログラムに関する。 The present invention relates to a learning support system, a learning support method, and a learning support program for creating teacher data used for machine learning for determining a construction status and a progress status in a building work or the like.

建築や土木等の工事現場においては、工事の前後や実施途中の写真を撮影する場合がある。これらの写真は、工事の進捗状況を管理したり、施工状況を確認したりするために用いられる。そこで、建築工事等の進捗状況を効率的に判定するための技術が検討されている(例えば、特許文献1参照。)。この文献に開示された技術においては、支援サーバの制御部が、現場画像情報記録部に記録された撮影画像に含まれる建築要素を特定する。次に、建築要素情報記憶部を用いて、建築要素に関連付けられた工程を特定し、管理者端末に、特定した工程を出力する。 At construction sites such as construction and civil engineering, photographs may be taken before, after, or during construction. These photographs are used to manage the progress of construction work and to confirm the construction status. Therefore, a technique for efficiently determining the progress of building work or the like is being studied (see, for example, Patent Document 1). In the technique disclosed in this document, the control unit of the support server identifies the architectural element included in the captured image recorded in the site image information recording unit. Next, the building element information storage unit is used to identify the process associated with the building element, and the specified process is output to the manager terminal.

また、機械学習においては、教師データを利用した教師付き学習を用いる場合がある。このような教師データの作成負担を軽減するための技術も検討されている(例えば、特許文献2参照。)。この文献に開示された技術においては、映像表示システムの演算部は、製造装置の複数の状態についてシミュレーションした複数の結果を教師データとして機械学習させた予測モデルを有する。そして、情報取得部により取得された第1状態の少なくとも一部を予測モデルに入力して製造装置の内部の第2状態を演算し、第2状態から映像情報を生成する。 Further, in machine learning, supervised learning using teacher data may be used. A technique for reducing the burden of creating such teacher data is also being studied (see, for example, Patent Document 2). In the technique disclosed in this document, the arithmetic unit of the video display system has a prediction model in which a plurality of results simulated for a plurality of states of the manufacturing apparatus are machine-learned as teacher data. Then, at least a part of the first state acquired by the information acquisition unit is input to the prediction model, the second state inside the manufacturing apparatus is calculated, and the video information is generated from the second state.

特開2017−107443号公報JP-A-2017-107443 特開2018−169818号公報JP-A-2018-169818

しかしながら、建築現場によって、工事に用いる資材や納まりが異なる。そして、工事の進捗に応じて、状況が大きく変化するため、教師データの準備に負担がかかる。また、資材毎の画像やシミュレーション画像を用いて機械学習を行なうことも可能である。しかしながら、現場状況によって、構築に利用された資材と仮置きされた資材と識別できなければ、的確な状況を判断することが困難である。 However, the materials and fittings used for construction differ depending on the construction site. Then, as the situation changes greatly according to the progress of the construction, it becomes a burden to prepare the teacher data. It is also possible to perform machine learning using images for each material and simulation images. However, it is difficult to determine the exact situation unless the materials used for construction and the temporarily placed materials can be distinguished from each other depending on the site conditions.

上記問題点を解決するための学習支援システムは、各工程に関連付けられた建築要素を含めた3次元の要素モデルにより構成された構築物の設計情報を記録した設計情報記憶部と、機械学習に用いる教師データを記録する教師情報記憶部と、各工程の進捗状況を予測する予測モデルを生成するための制御部とを備える。前記制御部が、前記設計情報を用いて、各工程で用いられる建築要素の要素モデルを組み合わせた3次元モデルをモデル空間内に、順次、配置し、前記モデル空間内の視点で、前記3次元モデルを撮影した2次元画像を生成して、前記教師情報記憶部に記録し、前記教師情報記憶部に記録された教師データを用いて、撮影画像から各工程の進捗状況を予測する予測モデルを生成する。 The learning support system for solving the above problems is used for machine learning and a design information storage unit that records design information of a structure composed of a three-dimensional element model including building elements associated with each process. It includes a teacher information storage unit that records teacher data and a control unit that generates a prediction model that predicts the progress of each process. Using the design information, the control unit sequentially arranges a three-dimensional model that combines element models of building elements used in each process in the model space, and from the viewpoint in the model space, the three-dimensional model. A two-dimensional image obtained by photographing the model is generated, recorded in the teacher information storage unit, and the teacher data recorded in the teacher information storage unit is used to predict a prediction model for predicting the progress of each process from the photographed image. Generate.

本発明によれば、建築工事等における状況を判定するための機械学習に用いる教師データを効率的に作成することができる。 According to the present invention, teacher data used for machine learning for determining a situation in a building work or the like can be efficiently created.

本実施形態のシステムの説明図。Explanatory drawing of the system of this embodiment. 本実施形態のハードウェア構成の説明図。The explanatory view of the hardware configuration of this embodiment. 本実施形態の記憶部に記録されたデータの説明図であって、(a)はBIM情報記憶部、(b)は教師情報記憶部、(c)は学習結果記憶部、(d)は現場画像情報記憶部、(e)は進捗情報記憶部の説明図。It is explanatory drawing of the data recorded in the storage part of this embodiment, (a) is a BIM information storage part, (b) is a teacher information storage part, (c) is a learning result storage part, (d) is a field. The image information storage unit, (e) is an explanatory diagram of the progress information storage unit. 本実施形態の教師データ生成処理の処理手順の説明図。The explanatory view of the processing procedure of the teacher data generation processing of this embodiment. 本実施形態の処理手順の説明図であって、(a)は学習処理、(b)は予測処理の説明図。It is explanatory drawing of the processing procedure of this embodiment, (a) is the learning process, (b) is the explanatory diagram of the prediction process. 本実施形態で用いる教師データの説明図であって、(a)は壁下地施工完了の画像、(b)は石膏ボード施工中の画像、(c)は各部位の資材情報を出力した画像の説明図。It is explanatory drawing of the teacher data used in this embodiment, (a) is an image of the completion of wall foundation construction, (b) is an image of gypsum board construction, and (c) is an image of outputting material information of each part. Explanatory drawing. 他の実施形態のサーフィスモデルの生成処理の処理手順の説明図。The explanatory view of the processing procedure of the generation processing of the surface model of another embodiment. 他の実施形態で用いる教師データの説明図であって、(a)は資材を第1位置に仮置きした画像、(b)は資材を第2位置に仮置きした画像、(c)は資材を第3位置に仮置きした画像、(d)は資材を第1角度で仮置きした画像、(e)は資材を第2角度で仮置きした画像、(f)は資材を第3角度で仮置きした画像の説明図。Explanatory drawing of teacher data used in another embodiment, (a) is an image in which a material is temporarily placed in a first position, (b) is an image in which a material is temporarily placed in a second position, and (c) is a material. Is temporarily placed in the third position, (d) is an image in which the material is temporarily placed at the first angle, (e) is an image in which the material is temporarily placed at the second angle, and (f) is an image in which the material is temporarily placed at the third angle. Explanatory drawing of the temporarily placed image.

以下、一実施形態を、図1〜図6に従って説明する。本実施形態では、建築工事の工事現場における工程の進捗状況を判定するための学習支援システムとして説明する。本実施形態では、BIM(Building Information Modeling)を用いて生成したCG画像により教師データを作成する。このBIMでは、コンピュータ上に作成した3次元の建物のデジタルモデルには、コストや仕上げ、管理情報などの属性データを付加することができる場合を想定する。
本実施形態では、図1に示すように、ユーザ端末10、支援サーバ20を用いる。
Hereinafter, one embodiment will be described with reference to FIGS. 1 to 6. In this embodiment, it will be described as a learning support system for determining the progress of the process at the construction site of the construction work. In this embodiment, teacher data is created from a CG image generated by using BIM (Building Information Modeling). In this BIM, it is assumed that attribute data such as cost, finish, and management information can be added to a digital model of a three-dimensional building created on a computer.
In this embodiment, as shown in FIG. 1, a user terminal 10 and a support server 20 are used.

(ハードウェア構成の説明)
図2を用いて、ユーザ端末10、支援サーバ20を構成する情報処理装置H10のハードウェア構成を説明する。情報処理装置H10は、通信装置H11、入力装置H12、表示装置H13、記憶部H14、プロセッサH15を備える。なお、このハードウェア構成は一例であり、他のハードウェアにより実現することも可能である。
(Explanation of hardware configuration)
The hardware configuration of the information processing apparatus H10 constituting the user terminal 10 and the support server 20 will be described with reference to FIG. The information processing device H10 includes a communication device H11, an input device H12, a display device H13, a storage unit H14, and a processor H15. This hardware configuration is an example, and can be realized by other hardware.

通信装置H11は、他の装置との間で通信経路を確立して、データの送受信を実行するインタフェースであり、例えばネットワークインタフェースカードや無線インタフェース等である。 The communication device H11 is an interface that establishes a communication path with another device and executes data transmission / reception, such as a network interface card or a wireless interface.

入力装置H12は、各種情報の入力を受け付ける装置であり、例えばマウスやキーボード、カメラ(撮影装置)等である。表示装置H13は、各種情報を表示するディスプレイ等である。
記憶部H14は、ユーザ端末10、支援サーバ20の各種機能を実行するためのデータや各種プログラムを格納する記憶装置である。記憶部H14の一例としては、ROM、RAM、ハードディスク等がある。
The input device H12 is a device that receives input of various information, such as a mouse, a keyboard, a camera (photographing device), and the like. The display device H13 is a display or the like that displays various information.
The storage unit H14 is a storage device that stores data and various programs for executing various functions of the user terminal 10 and the support server 20. An example of the storage unit H14 is a ROM, a RAM, a hard disk, or the like.

プロセッサH15は、記憶部H14に記憶されるプログラムやデータを用いて、ユーザ端末10、支援サーバ20における各処理を制御する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各処理のための各種プロセスを実行する。 The processor H15 controls each process in the user terminal 10 and the support server 20 by using the programs and data stored in the storage unit H14. Examples of the processor H15 include a CPU, an MPU, and the like. The processor H15 expands a program stored in a ROM or the like into a RAM and executes various processes for each process.

プロセッサH15は、自身が実行するすべての処理についてソフトウェア処理を行なうものに限られない。例えば、プロセッサH15は、自身が実行する処理の少なくとも一部についてハードウェア処理を行なう専用のハードウェア回路(例えば、特定用途向け集積回路:ASIC)を備えてもよい。すなわち、プロセッサH15は、〔1〕コンピュータプログラム(ソフトウェア)に従って動作する1つ以上のプロセッサ、〔2〕各種処理のうち少なくとも一部の処理を実行する1つ以上の専用のハードウェア回路、或いは〔3〕それらの組み合わせ、を含む回路(circuitry)として構成し得る。プロセッサは、CPU並びに、RAM及びROM等のメモリを含み、メモリは、処理をCPUに実行させるように構成されたプログラムコード又は指令を格納している。メモリすなわちコンピュータ可読媒体は、汎用又は専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。 The processor H15 is not limited to the one that performs software processing for all the processing executed by itself. For example, the processor H15 may include a dedicated hardware circuit (for example, an integrated circuit for a specific application: ASIC) that performs hardware processing for at least a part of the processing executed by the processor H15. That is, the processor H15 is [1] one or more processors that operate according to a computer program (software), [2] one or more dedicated hardware circuits that execute at least a part of various processes, or [2] 3) It can be configured as a circuitry including a combination thereof. The processor includes a CPU and a memory such as a RAM and a ROM, and the memory stores a program code or an instruction configured to cause the CPU to execute a process. Memory or computer-readable media includes any available medium accessible by a general purpose or dedicated computer.

(システム構成)
次に、図1を用いて、学習支援システムの各機能を説明する。
ユーザ端末10は、工事現場を撮影するために用いる撮像装置を備えたコンピュータ端末である。このユーザ端末10は、現場担当者が携帯し、工事の進捗状況を確認するために、必要に応じて現場を撮影するために用いる。そして、ユーザ端末10は、撮影画像を支援サーバ20にアップロードする。
(System configuration)
Next, each function of the learning support system will be described with reference to FIG.
The user terminal 10 is a computer terminal provided with an imaging device used for photographing a construction site. The user terminal 10 is carried by the person in charge at the site and is used to photograph the site as needed in order to confirm the progress of the construction work. Then, the user terminal 10 uploads the captured image to the support server 20.

支援サーバ20は、工事現場を撮影した撮影画像を用いて、工事の進捗状況の管理を支援するコンピュータシステムである。この支援サーバ20は、制御部21、BIM情報記憶部22(設計情報記憶部)、教師情報記憶部23、学習結果記憶部24、現場画像情報記憶部25、進捗情報記憶部26を備える。 The support server 20 is a computer system that supports management of the progress of construction work by using captured images of the construction site. The support server 20 includes a control unit 21, a BIM information storage unit 22 (design information storage unit), a teacher information storage unit 23, a learning result storage unit 24, a site image information storage unit 25, and a progress information storage unit 26.

制御部21は、後述する処理(モデリング段階、教師データ生成段階、学習段階、予測段階、判定段階等を含む処理)を行なう。このための各処理のためのプログラムを実行することにより、制御部21は、モデリング部210、教師データ生成部211、学習部212、予測部213、判定部214等として機能する。 The control unit 21 performs a process described later (a process including a modeling stage, a teacher data generation stage, a learning stage, a prediction stage, a determination stage, and the like). By executing the program for each process for this purpose, the control unit 21 functions as a modeling unit 210, a teacher data generation unit 211, a learning unit 212, a prediction unit 213, a determination unit 214, and the like.

モデリング部210は、BIMデータを用いて、構築物の3次元モデルを生成する処理を実行する。
教師データ生成部211は、モデリング部210を用いて、機械学習に用いる教師データを生成する処理を実行する。
The modeling unit 210 executes a process of generating a three-dimensional model of the structure using the BIM data.
The teacher data generation unit 211 uses the modeling unit 210 to execute a process of generating teacher data to be used for machine learning.

学習部212は、教師データを用いた機械学習によって、撮影画像に含まれる建築要素を予測するための予測モデルを生成する処理を実行する。
予測部213は、予測モデルを用いて、撮影画像に含まれる建築要素を予測する処理を実行する。
判定部214は、予測した建築要素を用いて、工事の進捗状況(工程)を判定する処理を実行する。
The learning unit 212 executes a process of generating a prediction model for predicting the architectural elements included in the captured image by machine learning using the teacher data.
The prediction unit 213 executes a process of predicting the architectural element included in the captured image by using the prediction model.
The determination unit 214 executes a process of determining the progress (process) of the construction using the predicted building element.

図3(a)に示すように、BIM情報記憶部22には、BIMにおいて作成したBIMデータ220が記録される。このBIMデータ220は、3次元CADを用いて、建築物の設計を行なった場合に記録される。BIMデータ220は、プロジェクト、要素モデル、配置を含んで構成される。更に、本実施形態では、要素モデルに関連付けて、属性、工程、予定日に関する情報を含めておく。 As shown in FIG. 3A, the BIM information storage unit 22 records the BIM data 220 created by the BIM. This BIM data 220 is recorded when a building is designed using three-dimensional CAD. The BIM data 220 includes a project, an element model, and an arrangement. Further, in the present embodiment, information on attributes, processes, and scheduled dates is included in association with the element model.

プロジェクト情報は、建築物の名称、経度・緯度、建築方位等に関する情報を含む。
要素モデル情報は、建築物に用いる各建築要素の3次元モデル(BIMオブジェクト)に関する情報である。
配置情報は、各要素モデルを配置する座標に関する情報を含む。
属性情報は、各要素モデルの属性に関する情報を含む。この属性には、要素タイプ、数量、建築要素に関する情報等を含む。要素タイプ情報には、壁、スラブ、柱、梁、屋根、階段、ゾーン等を識別する情報が含まれる。数量情報には、長さ、面積、体積等に関する情報が含まれる。建築要素情報には、鉄筋、コンクリート、ウレタン、軽鉄、石膏ボード、床パネル、クロス、建具、フローリング等を識別する情報が含まれる。建築要素情報により、建築要素の材料の表面の視覚的な色や明るさの均質さ、凹凸等のテクスチャーを表示できる。
The project information includes information on the name of the building, longitude / latitude, building orientation, and the like.
The element model information is information about a three-dimensional model (BIM object) of each building element used in a building.
The placement information includes information about the coordinates at which each element model is placed.
The attribute information includes information about the attributes of each element model. This attribute includes information about the element type, quantity, architectural element, and the like. Element type information includes information that identifies walls, slabs, columns, beams, roofs, stairs, zones, and the like. The quantity information includes information on length, area, volume and the like. The architectural element information includes information for identifying reinforcing bars, concrete, urethane, light iron, gypsum board, floor panels, cloth, fittings, flooring and the like. With the architectural element information, it is possible to display the texture such as the visual color, the homogeneity of brightness, and the unevenness of the surface of the material of the architectural element.

工程情報は、建築要素を用いる工程を特定するための情報を含む。この工程には、例えば、「コンクリート打設前」、「断熱前」、「断熱後」、「ボード貼り前」、「ボード貼り後」、「仕上げ完了」等がある。そして、工程によって、現場で確認できる建築要素が異なる。例えば、「コンクリート打設前」には、鉄筋を視認できる。「断熱前」であればコンクリートを視認でき、「断熱後」であればウレタンを視認できる。
予定日情報は、この工程の予定日に関する情報を含む。
The process information includes information for identifying the process using the building element. This step includes, for example, "before concrete placement", "before heat insulation", "after heat insulation", "before board pasting", "after board pasting", "finishing completion" and the like. And, depending on the process, the architectural elements that can be confirmed at the site differ. For example, "before concrete placement", the reinforcing bars can be visually recognized. Concrete can be visually recognized if it is "before heat insulation", and urethane can be visually recognized if it is "after heat insulation".
Scheduled date information includes information about the scheduled date of this process.

図3(b)に示すように、教師情報記憶部23には、機械学習に用いる教師データ230が記録される。この教師データ230は、後述する教師データ作成処理を実行した場合に記録される。教師データ230は、BIMを用いて生成された各場所や各工程の屋外や屋内のパース(2次元のCGによって生成された教師画像)と、これに含まれる建築要素とに関するデータを含んで構成される。ここで、パースに含まれる各建築要素には、BIMデータに含まれる属性情報(建築要素情報)が関連付けられている。 As shown in FIG. 3B, the teacher information storage unit 23 records the teacher data 230 used for machine learning. This teacher data 230 is recorded when the teacher data creation process described later is executed. The teacher data 230 includes data on outdoor and indoor perspectives (teacher images generated by two-dimensional CG) of each place and each process generated by using BIM, and architectural elements contained therein. Will be done. Here, each building element included in the perspective is associated with the attribute information (building element information) included in the BIM data.

図3(c)に示すように、学習結果記憶部24には、撮影画像に含まれる建築要素を予測するための予測モデル240が記録される。この予測モデル240は、教師データを用いて機械学習を行なった場合に記録される。予測モデル240は、撮影画像を入力として、撮影画像に含まれる建築要素の割合を出力とするネットワーク(中間層)により構成される。 As shown in FIG. 3C, the learning result storage unit 24 records a prediction model 240 for predicting architectural elements included in the captured image. This prediction model 240 is recorded when machine learning is performed using the teacher data. The prediction model 240 is composed of a network (intermediate layer) that inputs a photographed image and outputs a ratio of building elements included in the photographed image.

図3(d)に示すように、現場画像情報記憶部25には、工事現場を撮影した撮影画像についての画像管理データ250が記録される。この画像管理データ250は、ユーザ端末10から撮影画像を取得した場合に記録される。画像管理データ250は、画像コード、撮影日時、場所、撮影画像に関する情報を含んで構成される。 As shown in FIG. 3D, the site image information storage unit 25 records image management data 250 for captured images of the construction site. The image management data 250 is recorded when a captured image is acquired from the user terminal 10. The image management data 250 is configured to include an image code, a shooting date and time, a place, and information about a shot image.

画像コード情報は、工事現場を撮影した各撮影画像を特定するための識別子に関する情報を含む。
撮影日時情報は、この撮影画像を撮影した年月日及び時刻に関する情報を含む。
場所情報は、この撮影画像を撮影した工事現場の場所を特定するための情報を含む。
撮影画像情報は、工事現場を撮影した撮影画像を含む。
The image code information includes information regarding an identifier for identifying each photographed image of the construction site.
The shooting date / time information includes information on the date and time when the shot image was shot.
The location information includes information for identifying the location of the construction site where the captured image was taken.
The photographed image information includes a photographed image of the construction site.

図3(e)に示すように、進捗情報記憶部26には、建築工事の進捗状況を管理するための進捗管理データ260が記録される。この進捗管理データ260は、工程判定処理を実行した場合に記録される。進捗管理データ260は、場所、画像コード、工程、状況に関する情報を含んで構成される。
場所情報は、工事現場の各場所を特定するための識別子を含む。
画像コード情報は、この場所を撮影した撮影画像を特定するための識別子を含む。
工程情報は、撮影画像に基づいて特定した工程を特定するための識別子を含む。この工程情報には、更に撮影画像に含まれる建築要素の割合に関する情報を含める。
状況情報は、この工程について建築工事のスケジュールに対する状況を示す情報を含む。
As shown in FIG. 3E, progress management data 260 for managing the progress of construction work is recorded in the progress information storage unit 26. This progress management data 260 is recorded when the process determination process is executed. The progress management data 260 is configured to include information about the location, image code, process, and situation.
The location information includes an identifier for identifying each location on the construction site.
The image code information includes an identifier for identifying a captured image of this location.
The process information includes an identifier for identifying the specified process based on the captured image. This process information further includes information on the proportion of architectural elements contained in the captured image.
The status information includes information indicating the status of the construction work schedule for this process.

次に、図4〜図6を用いて、上記のように構成された支援サーバ20において、建築工事の進捗状況を判定する場合の処理手順について説明する。
(教師データ作成処理)
まず、図4を用いて、教師データ作成処理を説明する。
ここでは、支援サーバ20の制御部21は、BIMデータの取得処理を実行する(ステップS1−1)。具体的には、制御部21の教師データ生成部211は、進捗管理を行なう建築物のBIMデータ220をBIM情報記憶部22から取得する。
Next, with reference to FIGS. 4 to 6, a processing procedure for determining the progress of construction work on the support server 20 configured as described above will be described.
(Teacher data creation process)
First, the teacher data creation process will be described with reference to FIG.
Here, the control unit 21 of the support server 20 executes the BIM data acquisition process (step S1-1). Specifically, the teacher data generation unit 211 of the control unit 21 acquires the BIM data 220 of the building for which progress management is performed from the BIM information storage unit 22.

次に、支援サーバ20の制御部21は、建築工事の各工程を順次、処理対象として特定し、以下の処理を繰り返す。
支援サーバ20の制御部21は、サーフィスモデルの生成処理を実行する(ステップS1−2)。具体的には、制御部21の教師データ生成部211は、BIMデータにおいて、処理対象の工程までに用いられる建築要素を特定する。そして、教師データ生成部211は、特定したすべての建築要素の3次元モデルを用いて、モデリング部210に対して、建築物のサーフィスモデルの作成を指示する。この場合、モデリング部210は、処理対象の工程までの工程に関連付けられた建築要素を用いた3次元モデルを生成し、モデル空間(3次元空間)内に配置する。例えば、「壁下地施工完了」の状態で見える建築要素は「コンクリート・LGS」、「石膏ボード完了」という状態で見える建築要素は「コンクリート・石膏ボード」等である。
Next, the control unit 21 of the support server 20 sequentially specifies each process of the construction work as a processing target, and repeats the following processing.
The control unit 21 of the support server 20 executes the surface model generation process (step S1-2). Specifically, the teacher data generation unit 211 of the control unit 21 specifies the architectural element used up to the process to be processed in the BIM data. Then, the teacher data generation unit 211 instructs the modeling unit 210 to create a surface model of the building by using the three-dimensional model of all the specified building elements. In this case, the modeling unit 210 generates a three-dimensional model using the building elements associated with the processes up to the process to be processed and arranges them in the model space (three-dimensional space). For example, the architectural element that can be seen in the state of "wall base construction completed" is "concrete / LGS", and the architectural element that can be seen in the state of "plasterboard completed" is "concrete / gypsum board".

ここで、支援サーバ20の制御部21は、レンダリング条件の特定処理を実行する(ステップS1−3)。具体的には、制御部21の教師データ生成部211は、BIM情報記憶部22に記録されたBIMデータ220の予定日(月日)を特定する。次に、教師データ生成部211は、担当者が撮影を行なう可能性がある複数の時間帯を特定する。教師データ生成部211は、予定日、時間帯における太陽位置を特定し、建築物に対する日照状況を特定する。この場合、建築物のサーフィスモデルにおいて開口部を特定し、この開口部からの日差しを光源として用いる。更に、空間内に照明器具の設置が登録されている場合には、この照明器具を光源として含める。そして、教師データ生成部211は、特定した光源を用いて複数のレンダリング条件を特定する。 Here, the control unit 21 of the support server 20 executes the rendering condition specifying process (step S1-3). Specifically, the teacher data generation unit 211 of the control unit 21 specifies the scheduled date (month and day) of the BIM data 220 recorded in the BIM information storage unit 22. Next, the teacher data generation unit 211 identifies a plurality of time zones in which the person in charge may take a picture. The teacher data generation unit 211 specifies the position of the sun in the scheduled date and time zone, and specifies the sunshine condition for the building. In this case, an opening is specified in the surface model of the building, and the sunlight from this opening is used as a light source. Furthermore, if the installation of a luminaire is registered in the space, this luminaire is included as a light source. Then, the teacher data generation unit 211 specifies a plurality of rendering conditions using the specified light source.

次に、支援サーバ20の制御部21は、特定した複数のレンダリング条件を、順次、用いて、レンダリング処理を実行する(ステップS1−4)。具体的には、制御部21のモデリング部210は、レンダリング条件を用いて、3次元モデルのレンダリングを実行する。 Next, the control unit 21 of the support server 20 sequentially uses the specified plurality of rendering conditions to execute the rendering process (step S1-4). Specifically, the modeling unit 210 of the control unit 21 executes rendering of the three-dimensional model using the rendering conditions.

次に、支援サーバ20の制御部21は、視点位置の特定処理を実行する(ステップS1−5)。具体的には、制御部21の教師データ生成部211は、モデル空間内に、撮影位置(視点)を特定する。この視点は、モデル空間内で、担当者が撮影を行なう位置を考慮して設定される。例えば、モデル空間内で担当者が直立可能な位置であって、資材から所定の距離で離れた位置で、直立時の高さで複数の視点位置を特定する。なお、視点位置は、建築資材が見えうる位置であればよく、所定の距離で離れた位置で、直立時の高さで複数の視点位置に限定されるものではない。 Next, the control unit 21 of the support server 20 executes the process of specifying the viewpoint position (step S1-5). Specifically, the teacher data generation unit 211 of the control unit 21 specifies a shooting position (viewpoint) in the model space. This viewpoint is set in consideration of the position where the person in charge takes a picture in the model space. For example, at a position in the model space where the person in charge can stand upright, at a position separated from the material by a predetermined distance, a plurality of viewpoint positions are specified by the height when standing upright. The viewpoint position may be a position where the building material can be seen, and is not limited to a plurality of viewpoint positions at a position separated by a predetermined distance and at a height when standing upright.

そして、支援サーバ20の制御部21は、特定した指定位置毎に以下の処理を繰り返す。
支援サーバ20の制御部21は、CG画像の生成処理を実行する(ステップS1−6)。具体的には、制御部21の教師データ生成部211は、モデリング部210に対して、視点位置を指示する。この場合、モデリング部210は、視点位置でのパース画像(CG画像)を生成する。このパース画像には、画像に含まれる各建築要素(属性情報)が含まれる。
Then, the control unit 21 of the support server 20 repeats the following processing at each specified designated position.
The control unit 21 of the support server 20 executes a CG image generation process (step S1-6). Specifically, the teacher data generation unit 211 of the control unit 21 instructs the modeling unit 210 of the viewpoint position. In this case, the modeling unit 210 generates a perspective image (CG image) at the viewpoint position. This perspective image includes each architectural element (attribute information) included in the image.

図6(a)に示す画像500は、工程「壁下地施工完了」において生成したパースである。この画像500には、建築要素として下地材501、床材502、壁材503が配置される。また、図6(b)に示す画像510は、工程「石膏ボード施工中」において生成したパースである。この画像510には、下地材501、床材502、壁材503の他に、石膏ボード511が配置される。図6(c)に示す画像520には、画像510に含まれる建築要素が含まれる。具体的には、下地材501〜石膏ボード511に対応して、建築要素情報521〜524が設定される。そして、各建築要素の面積を用いて、各建築要素の割合を算出することができる。 The image 500 shown in FIG. 6A is a perspective generated in the process “completion of wall base construction”. In this image 500, a base material 501, a floor material 502, and a wall material 503 are arranged as building elements. Further, the image 510 shown in FIG. 6B is a perspective generated in the process “during gypsum board construction”. In this image 510, gypsum board 511 is arranged in addition to the base material 501, the floor material 502, and the wall material 503. The image 520 shown in FIG. 6 (c) includes the architectural elements included in the image 510. Specifically, the architectural element information 521 to 524 is set corresponding to the base material 501 to gypsum board 511. Then, the ratio of each architectural element can be calculated by using the area of each architectural element.

次に、支援サーバ20の制御部21は、教師データの記録処理を実行する(ステップS1−7)。具体的には、制御部21の教師データ生成部211は、モデリング部210からパース画像を取得する。次に、教師データ生成部211は、パース画像内で、各建築要素の面積の割合を算出する。そして、教師データ生成部211は、パース画像に関連付けて各建築要素の面積割合(工程の進捗状況)を設定した教師データを教師情報記憶部23に記録する。
そして、支援サーバ20の制御部21は、視点位置、レンダリング条件、工程毎に、上述した処理を繰り返す。
Next, the control unit 21 of the support server 20 executes the recording process of the teacher data (step S1-7). Specifically, the teacher data generation unit 211 of the control unit 21 acquires a perspective image from the modeling unit 210. Next, the teacher data generation unit 211 calculates the ratio of the area of each building element in the perspective image. Then, the teacher data generation unit 211 records the teacher data in which the area ratio (progress of the process) of each building element is set in association with the perspective image in the teacher information storage unit 23.
Then, the control unit 21 of the support server 20 repeats the above-described processing for each viewpoint position, rendering condition, and process.

(学習処理)
次に、図5(a)を用いて、学習処理を説明する。
まず、支援サーバ20の制御部21は、教師データの呼出処理を実行する(ステップS2−1)。具体的には、制御部21の学習部212は、教師情報記憶部23から、教師データ230を取得する。この教師データ230は、パース画像に含まれる各建築要素に対して割合が記録されている。
(Learning process)
Next, the learning process will be described with reference to FIG. 5A.
First, the control unit 21 of the support server 20 executes the call processing of the teacher data (step S2-1). Specifically, the learning unit 212 of the control unit 21 acquires the teacher data 230 from the teacher information storage unit 23. The teacher data 230 records a ratio for each architectural element included in the perspective image.

次に、支援サーバ20の制御部21は、機械学習処理を実行する(ステップS2−2)。ここでは、機械学習として、入力層、中間層(隠れ層)、出力層に含まれる複数のノードを結合する深層学習(ディープラーニング)を用いる。具体的には、制御部21の学習部212は、入力層にはパース画像を用い、出力層の各ノードには、建築要素の面積割合を用いる。そして、入力層のノードから出力層のノードを結びつける中間層のノード、結合からなる予測モデル(建築要素判定モデル)を生成する。そして、学習部212は、生成した予測モデルを、学習結果記憶部24に記録する。 Next, the control unit 21 of the support server 20 executes the machine learning process (step S2-2). Here, as machine learning, deep learning that connects a plurality of nodes included in the input layer, the intermediate layer (hidden layer), and the output layer is used. Specifically, the learning unit 212 of the control unit 21 uses a perspective image for the input layer and uses the area ratio of the building element for each node of the output layer. Then, a prediction model (building element determination model) consisting of intermediate layer nodes and connections that connect the nodes of the input layer to the nodes of the output layer is generated. Then, the learning unit 212 records the generated prediction model in the learning result storage unit 24.

(工程判定処理)
次に、図5(b)を用いて、工程判定処理を説明する。
まず、支援サーバ20の制御部21は、撮影画像の取得処理を実行する(ステップS3−1)。具体的には、建築工事の工事現場を、ユーザ端末10を用いて撮影する。この場合、ユーザ端末10は、現場の撮影画像を生成する。そして、ユーザ端末10は、撮影日時を、ユーザ端末10のシステムタイマから取得する。また、ユーザ端末10は、ユーザインターフェースを用いた手入力や、GPS(Global Positioning System)等の位置特定手段により、撮影した場所を特定する識別子を取得する。そして、ユーザ端末10は、生成した撮影画像を、撮影日時及び撮影場所を特定する識別子を関連付けて記憶する。更に、ユーザ端末10は、記憶した撮影画像を、支援サーバ20にアップロードする。この撮影画像は、撮影日時及び場所に関する情報が関連付けられた状態でアップロードされる。制御部21の予測部213は、アップロードされた撮影画像に対して、画像コードを付与して、現場画像情報記憶部25に記録する。
(Process judgment processing)
Next, the process determination process will be described with reference to FIG. 5 (b).
First, the control unit 21 of the support server 20 executes the acquisition process of the captured image (step S3-1). Specifically, the construction site of the construction work is photographed using the user terminal 10. In this case, the user terminal 10 generates a captured image of the site. Then, the user terminal 10 acquires the shooting date and time from the system timer of the user terminal 10. In addition, the user terminal 10 acquires an identifier that identifies the shooting location by manual input using the user interface or by a position specifying means such as GPS (Global Positioning System). Then, the user terminal 10 stores the generated captured image in association with an identifier that specifies the shooting date and time and the shooting location. Further, the user terminal 10 uploads the stored photographed image to the support server 20. This captured image is uploaded with information about the capture date and time and location associated with it. The prediction unit 213 of the control unit 21 assigns an image code to the uploaded captured image and records it in the on-site image information storage unit 25.

次に、支援サーバ20の制御部21は、現場画像情報記憶部25に記録された撮影画像を順次特定し、処理対象画像毎に以下の処理を繰り返す。
まず、支援サーバ20の制御部21は、建築要素の予測処理を実行する(ステップS3−2)。具体的には、制御部21の予測部213は、処理対象画像を、予測モデルの入力層に入力し、出力層で各建築要素の割合を予測する。
Next, the control unit 21 of the support server 20 sequentially identifies the captured images recorded in the on-site image information storage unit 25, and repeats the following processing for each processing target image.
First, the control unit 21 of the support server 20 executes the architectural element prediction process (step S3-2). Specifically, the prediction unit 213 of the control unit 21 inputs the image to be processed into the input layer of the prediction model, and predicts the ratio of each building element in the output layer.

次に、支援サーバ20の制御部21は、工程の予測処理を実行する(ステップS3−3)。具体的には、制御部21の判定部214は、BIM情報記憶部22を用いて、予測モデルにより予測した各建築要素が属性に記録されている要素モデルを特定する。この場合、予測した割合が近い順番に各建築要素の要素モデルを特定する。更に、判定部214は、特定した要素モデルに関連付けられた工程を検索する。そして、検索により抽出した工程を特定する。例えば、建築要素が「コンクリート」、「ウレタン」に関連付けられた工程を検索し、これら建築要素に関連付けられた工程として「断熱材塗布後」を抽出した場合には、この「断熱材塗布後」を特定する。なお、撮影画像に含まれない「軽鉄」や「床パネル」は、それぞれ工程「ボード貼り前」や、工程「ボード貼り後」に含まれるが、「断熱材塗布後」には含まれない。一方、BIM情報記憶部22の各工程に含まれる建築要素が、撮影画像に含まれる建築要素において過不足がある場合には、工程を特定できないと判定する。 Next, the control unit 21 of the support server 20 executes the process prediction process (step S3-3). Specifically, the determination unit 214 of the control unit 21 uses the BIM information storage unit 22 to specify an element model in which each building element predicted by the prediction model is recorded in the attribute. In this case, the element model of each architectural element is specified in the order in which the predicted ratios are close to each other. Further, the determination unit 214 searches for the process associated with the specified element model. Then, the process extracted by the search is specified. For example, if a process in which a building element is associated with "concrete" or "urethane" is searched and "after heat insulating material is applied" is extracted as a process associated with these building elements, this "after heat insulating material is applied". To identify. The "light iron" and "floor panel" that are not included in the photographed image are included in the process "before board pasting" and the process "after board pasting", respectively, but are not included in "after applying heat insulating material". .. On the other hand, if the building elements included in each process of the BIM information storage unit 22 have excess or deficiency in the building elements included in the captured image, it is determined that the process cannot be specified.

ここで、工程を特定できないと判定した場合、判定部214は、撮影画像に含まれる建築要素の少なくとも一つが含まれる工程を、工程候補として特定する。そして、判定部214は、特定した建築候補を管理者のユーザ端末10に出力する。この場合、BIM情報記憶部22に記録された建築要素と、撮影画像に含まれる建築要素とで共通した建築要素が多い順番に、工程候補を出力する。そして、判定部214は、予測した工程候補のうち、ユーザ端末10を介して管理者によって指定された工程を取得する。 Here, when it is determined that the process cannot be specified, the determination unit 214 specifies a process including at least one of the building elements included in the photographed image as a process candidate. Then, the determination unit 214 outputs the specified building candidate to the user terminal 10 of the administrator. In this case, the process candidates are output in the order in which the building elements recorded in the BIM information storage unit 22 and the building elements included in the captured image have the most common building elements. Then, the determination unit 214 acquires the process designated by the administrator from the predicted process candidates via the user terminal 10.

次に、支援サーバ20の制御部21は、工程の記録処理を実行する(ステップS3−4)。具体的には、制御部21の判定部214は、特定した工程とともに、撮影画像に含まれる建築要素の割合を記録した進捗管理データ260を進捗情報記憶部26に記録する。更に、判定部214は、BIM情報記憶部22から、撮影場所、工程が記録されたBIMデータ220を取得する。次に、判定部214は、BIMデータ220に記録された予定日と、現場画像情報記憶部25に記録された撮影日とを比較して差分日数を算出する。そして、判定部214は、進捗管理データ260に状況を記録する。ここでは、撮影日が完了予定日よりも遅い場合には、「差分日数の遅延」を状況データ領域に記録する。一方、撮影日が完了予定日よりも早い場合や、撮影日と完了予定日とが一致している場合には、「予定通り」を状況データ領域に記録する。
以上の処理を、すべての撮影画像について終了するまで繰り返す。
Next, the control unit 21 of the support server 20 executes the process recording process (step S3-4). Specifically, the determination unit 214 of the control unit 21 records the progress management data 260 recording the ratio of the building elements included in the captured image in the progress information storage unit 26 together with the specified process. Further, the determination unit 214 acquires BIM data 220 in which the shooting location and the process are recorded from the BIM information storage unit 22. Next, the determination unit 214 compares the scheduled date recorded in the BIM data 220 with the shooting date recorded in the on-site image information storage unit 25, and calculates the difference number of days. Then, the determination unit 214 records the situation in the progress management data 260. Here, when the shooting date is later than the scheduled completion date, the "delay of the difference days" is recorded in the status data area. On the other hand, if the shooting date is earlier than the scheduled completion date, or if the shooting date and the scheduled completion date match, "as scheduled" is recorded in the status data area.
The above process is repeated until all captured images are completed.

本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態では、教師データ作成処理において、支援サーバ20の制御部21は、BIMデータの取得処理(ステップS1−1)、サーフィスモデルの生成処理(ステップS1−2)、CG画像の生成処理(ステップS1−6)、教師データの記録処理(ステップS1−7)を実行する。通常、機械学習のための教師データの準備負担は大きい。また、個別の建築要素の画像を教師データとして準備することができたとしても、工事現場そのものを撮影した画像を教師データとして準備することは困難である。本実施形態では、BIMデータを用いることにより、機械学習に用いる教師データを効率的に生成することができる。
According to this embodiment, the following effects can be obtained.
(1) In the present embodiment, in the teacher data creation process, the control unit 21 of the support server 20 performs a BIM data acquisition process (step S1-1), a surface model generation process (step S1-2), and a CG image. The generation process (step S1-6) and the teacher data recording process (step S1-7) are executed. Usually, the burden of preparing teacher data for machine learning is large. Further, even if images of individual architectural elements can be prepared as teacher data, it is difficult to prepare images of the construction site itself as teacher data. In the present embodiment, by using BIM data, teacher data used for machine learning can be efficiently generated.

(2)本実施形態では、支援サーバ20の制御部21は、レンダリング条件の特定処理(ステップS1−3)、レンダリング処理(ステップS1−4)を実行する。これにより、工程が実施される時期に応じて、現実に近いパース画像を生成し、教師データとして用いることができる。 (2) In the present embodiment, the control unit 21 of the support server 20 executes the rendering condition specifying process (step S1-3) and the rendering process (step S1-4). As a result, a perspective image close to reality can be generated and used as teacher data according to the time when the process is performed.

(3)本実施形態では、支援サーバ20の制御部21は、視点位置の特定処理を実行する(ステップS1−5)。これにより、担当者による撮影状況を考慮して、機械学習に用いる教師データを生成することができる。 (3) In the present embodiment, the control unit 21 of the support server 20 executes the viewpoint position specifying process (step S1-5). As a result, teacher data used for machine learning can be generated in consideration of the shooting situation by the person in charge.

(4)本実施形態では、支援サーバ20の制御部21は、建築要素の予測処理を実行する(ステップS3−2)、工程の予測処理(ステップS3−3)を実行する。これにより、撮影画像に含まれる建築要素の割合に応じて、工程の進捗状況を判定することができる。 (4) In the present embodiment, the control unit 21 of the support server 20 executes the architectural element prediction process (step S3-2) and the process prediction process (step S3-3). Thereby, the progress status of the process can be determined according to the ratio of the building elements included in the photographed image.

本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記実施形態では、BIM情報記憶部22に記録されたBIMデータ220を用いて、パース画像を生成し教師データとして用いる。このパース画像に含める要素は、建築要素に限定されるものではない。例えば、工事現場に配置される仮置き資材を含めるようにしてもよい。この場合、BIM情報記憶部22に、建築に用いる資材毎に、仮置きする場合の形状についての3次元モデルを記憶させておく。例えば、石膏ボードを仮置きする場合には、複数枚の石膏ボードを平積みした形状の3次元モデルを記録しておく。
This embodiment can be modified and implemented as follows. The present embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.
-In the above embodiment, the BIM data 220 recorded in the BIM information storage unit 22 is used to generate a perspective image and use it as teacher data. The elements included in this perspective image are not limited to architectural elements. For example, temporary storage materials placed at the construction site may be included. In this case, the BIM information storage unit 22 stores a three-dimensional model of the shape when temporarily placed for each material used for construction. For example, when temporarily placing gypsum boards, a three-dimensional model in which a plurality of gypsum boards are stacked flat is recorded.

そこで、図7を用いて、仮置きした資材を含むサーフィスモデルの生成処理(ステップS1−2)を説明する。ここでは、モデル空間に、仮置き資材の3次元モデルを配置する。
まず、支援サーバ20の制御部21は、建築要素の配置処理を実行する(ステップS4−1)。具体的には、制御部21の教師データ生成部211は、BIM情報記憶部22に記録されたBIMデータ220を用いて、処理対象の工程までに設定された建築要素を特定する。そして、教師データ生成部211は、モデリング部210に対して、特定した建築要素の3次元モデルを用いて、建築物のサーフィスモデルの作成を指示する。
Therefore, the process of generating the surface model including the temporarily placed material (step S1-2) will be described with reference to FIG. 7. Here, a three-dimensional model of the temporary storage material is arranged in the model space.
First, the control unit 21 of the support server 20 executes the architectural element placement process (step S4-1). Specifically, the teacher data generation unit 211 of the control unit 21 uses the BIM data 220 recorded in the BIM information storage unit 22 to specify the architectural elements set up to the process to be processed. Then, the teacher data generation unit 211 instructs the modeling unit 210 to create a surface model of the building by using the three-dimensional model of the specified building element.

次に、支援サーバ20の制御部21は、仮置き資材の特定処理を実行する(ステップS4−2)。具体的には、制御部21の教師データ生成部211は、BIM情報記憶部22を用いて、処理対象の工程が行なわれる時期に、仮置きされる可能性がある資材を特定する。例えば、処理対象の工程の前後の工程を特定し、この工程において用いられる建築要素(資材)を、仮置き資材として特定する。 Next, the control unit 21 of the support server 20 executes the process of specifying the temporary storage material (step S4-2). Specifically, the teacher data generation unit 211 of the control unit 21 uses the BIM information storage unit 22 to identify materials that may be temporarily placed at the time when the process to be processed is performed. For example, the processes before and after the process to be processed are specified, and the building element (material) used in this process is specified as a temporary storage material.

次に、支援サーバ20の制御部21は、仮置き資材の配置処理を実行する(ステップS4−3)。具体的には、制御部21の教師データ生成部211は、BIM情報記憶部22から、仮置き資材の3次元モデルを取得する。そして、教師データ生成部211は、この工程のモデル空間内の床上でランダムの位置に、仮置き資材の3次元モデルを配置する。 Next, the control unit 21 of the support server 20 executes the temporary storage material placement process (step S4-3). Specifically, the teacher data generation unit 211 of the control unit 21 acquires a three-dimensional model of the temporary storage material from the BIM information storage unit 22. Then, the teacher data generation unit 211 arranges a three-dimensional model of the temporary placement material at a random position on the floor in the model space of this process.

ここでは、図8(a)に示すように、建築要素600に対して、第1位置に、仮置き資材の3次元モデル601を配置する。更に、図8(b)、(c)に示すように、モデル空間内で、第2位置,第3位置に、仮置き資材の3次元モデル601を配置する。また、図8(d)、(e)、(f)に示すように、モデル空間内で、任意の第1角度〜第3角度で、仮置き資材の3次元モデル601を回転させる。
この場合、教師データのパース画像において、仮置き資材であることを示すラベル(属性)を付加する。
Here, as shown in FIG. 8A, the three-dimensional model 601 of the temporary storage material is arranged at the first position with respect to the architectural element 600. Further, as shown in FIGS. 8 (b) and 8 (c), the three-dimensional model 601 of the temporary storage material is arranged at the second and third positions in the model space. Further, as shown in FIGS. 8 (d), 8 (e), and (f), the three-dimensional model 601 of the temporary storage material is rotated at arbitrary first to third angles in the model space.
In this case, a label (attribute) indicating that the material is temporarily placed is added to the perspective image of the teacher data.

そして、学習処理において、仮置き資材が配置されたパース画像を用いて、機械学習を行なう。工程判定処理においては、撮影画像において仮置き資材を除外して、建築要素の割合を算出する。
これにより、工事現場において、仮置き資材が配置されている場合にも、仮置き資材を除いて、建築要素により工程の進捗を判定することができる。
更に、除外した仮置き資材の材質を用いて、進捗を判定してもよい。この場合には、次の後続工程で使用される仮置き資材を検知した場合には、後続工程の準備が行なわれていると判定する。
Then, in the learning process, machine learning is performed using the perspective image in which the temporary placement material is arranged. In the process determination process, the ratio of building elements is calculated by excluding the temporary placement material in the photographed image.
As a result, even when the temporary storage material is arranged at the construction site, the progress of the process can be determined by the building element except for the temporary storage material.
Further, the progress may be determined by using the material of the temporarily placed material excluded. In this case, when the temporary storage material used in the next subsequent process is detected, it is determined that the subsequent process is being prepared.

・上記実施形態では、ユーザ端末10及び支援サーバ20を用いる。そして、支援サーバ20において、工程判定処理を実行する。工程判定処理を実行するハードウェアは、支援サーバ20に限定されるものではない。例えば、ユーザ端末10に学習結果記憶部24〜進捗情報記憶部26を設けて、ユーザ端末10において、工程判定処理を実行するようにしてもよい。 -In the above embodiment, the user terminal 10 and the support server 20 are used. Then, the support server 20 executes the process determination process. The hardware that executes the process determination process is not limited to the support server 20. For example, the user terminal 10 may be provided with the learning result storage unit 24 to the progress information storage unit 26, and the user terminal 10 may execute the process determination process.

・上記実施形態では、支援サーバ20の制御部21は、学習処理を実行する。この学習処理において、検証処理を実行してもよい。この場合には、教師データ作成処理において作成した複数のパース画像の一部を用いて機械学習を行なう。そして、検証処理においては、機械学習に利用していないパース画像を用いて、制御部21は、工程の予測処理(ステップS3−3)を実行する。この検証処理において、制御部21は、予測した工程がBIM情報記憶部22に記録された工程と一致する場合と、一致しない場合との割合に応じて、正しく工程を判定できなかった割合(エラーレート)を算出する。 -In the above embodiment, the control unit 21 of the support server 20 executes the learning process. In this learning process, a verification process may be executed. In this case, machine learning is performed using a part of a plurality of perspective images created in the teacher data creation process. Then, in the verification process, the control unit 21 executes the process prediction process (step S3-3) using the perspective image that is not used for machine learning. In this verification process, the control unit 21 could not correctly determine the process according to the ratio of the case where the predicted process matches the process recorded in the BIM information storage unit 22 and the case where the predicted process does not match (error). Rate) is calculated.

制御部21は、エラーレートが基準値未満の場合には、生成した予測モデルを学習結果記憶部24に記録する。一方、エラーレートが基準値以上の場合には、制御部21は、教師データ生成処理を再実行して、教師データを追加し、追加された教師データを用いて、学習処理を再実行する。 When the error rate is less than the reference value, the control unit 21 records the generated prediction model in the learning result storage unit 24. On the other hand, when the error rate is equal to or higher than the reference value, the control unit 21 re-executes the teacher data generation process, adds the teacher data, and re-executes the learning process using the added teacher data.

・上記実施形態では、教師データとして、パース画像を用いる。教師データはパース画像に限定されるものではない。例えば、上下左右全方位の360度のパノラマ画像を用いてもよい。この場合には、モデル空間において、視点からのパノラマ画像を生成する。そして、現場の撮影時には、パノラマ画像を撮影可能な全天球カメラを用いる。
更に、教師データは、BIMデータを用いたCG画像に限定されるものではない。例えば、実写画像とCG画像とによる画像(Mixed Reality画像等)を用いてもよい。この場合、背景に実写画像を用いたり、実写の建築要素画像をBIMモデル上に重ねた画像を用いたりすることができる。
-In the above embodiment, a perspective image is used as the teacher data. Teacher data is not limited to perspective images. For example, a 360-degree panoramic image in all directions, up, down, left, and right may be used. In this case, a panoramic image from the viewpoint is generated in the model space. Then, when shooting the site, a spherical camera capable of shooting a panoramic image is used.
Further, the teacher data is not limited to the CG image using the BIM data. For example, an image (Mixed Reality image, etc.) consisting of a live-action image and a CG image may be used. In this case, a live-action image can be used as the background, or an image in which a live-action architectural element image is superimposed on the BIM model can be used.

・上記実施形態では、支援サーバ20の制御部21は、機械学習処理を実行する(ステップS2−2)。ここでは、入力層にはパース画像を用い、出力層の各ノードには、工程の進捗状況を示す情報として、建築要素の面積割合を用いる。出力層には、工程を予測できる情報を設定すればよい。例えば、入力層にはパース画像を用い、出力層の各ノードには、建築要素を用いてもよい。この場合には、撮影画像を用いて予測した建築要素の組み合わせにより工程の進捗状況を推定する。 -In the above embodiment, the control unit 21 of the support server 20 executes the machine learning process (step S2-2). Here, a perspective image is used for the input layer, and the area ratio of the building element is used for each node of the output layer as information indicating the progress of the process. Information that can predict the process may be set in the output layer. For example, a perspective image may be used for the input layer, and architectural elements may be used for each node of the output layer. In this case, the progress of the process is estimated by the combination of the building elements predicted by using the photographed image.

・上記実施形態では、支援サーバ20の制御部21は、レンダリング条件の特定処理を実行する(ステップS1−3)。ここでは、予定日、時間帯を用いてレンダリング条件を特定する。レンダリング条件は、予定日、時間帯を用いる場合に限定されない。例えば、光源の影響を低減し、見えうる建築資材を特徴付ける画像処理を行なった画像を用いてもよい。この場合には、工程判定処理時に、撮影画像においても、同じ画像処理を行なう。 -In the above embodiment, the control unit 21 of the support server 20 executes the rendering condition specifying process (step S1-3). Here, the rendering conditions are specified using the scheduled date and time zone. Rendering conditions are not limited to the case where the scheduled date and time zone are used. For example, an image processed image that reduces the influence of the light source and characterizes the visible building material may be used. In this case, the same image processing is performed on the captured image at the time of the process determination process.

・上記実施形態では、支援サーバ20の制御部21は、レンダリング条件の特定処理を実行する(ステップS1−3)。ここで、工事現場の周囲環境を考慮してもよい。この場合には、BIM情報記憶部22に、周囲の建築物の3次元モデルを記憶しておく。そして、パース画像を生成する場合に、周囲の建築物を考慮して、光源の配置を決定する。また、構築物の開口部から見える周囲の建築物を、建築要素以外の情報としてパース画像に含めてもよい。これにより、現実に近いCG画像を用いて、機械学習を行なうことができる。 -In the above embodiment, the control unit 21 of the support server 20 executes the rendering condition specifying process (step S1-3). Here, the surrounding environment of the construction site may be taken into consideration. In this case, the BIM information storage unit 22 stores a three-dimensional model of the surrounding building. Then, when generating the perspective image, the arrangement of the light source is determined in consideration of the surrounding buildings. Further, the surrounding building seen from the opening of the structure may be included in the perspective image as information other than the architectural element. As a result, machine learning can be performed using CG images that are close to reality.

・上記実施形態では、支援サーバ20の制御部21は、教師データの記録処理(ステップS1−7)、機械学習処理(ステップS2−2)を実行する。そして、工程判定処理において、支援サーバ20の制御部21は、建築要素の予測処理を実行する(ステップS3−2)。ここでは、教師データ生成部211は、パース画像に関連付けて各建築要素の面積割合を設定した教師データを用いて機械学習を行なう。教師データは、面積割合を用いる場合に限定されるものではない。例えば、画像から直接、工程を予測してもよい。この場合には、パース画像に関連付けて工程情報を設定した教師データを用いて機械学習を行なう。そして、入力層にはパース画像を用い、出力層には工程情報を用いた予測モデルを生成する。この場合には、支援サーバ20の制御部21は、この予測モデルを用いて、工程の予測処理を実行する(ステップS3−3)。 -In the above embodiment, the control unit 21 of the support server 20 executes the teacher data recording process (step S1-7) and the machine learning process (step S2-2). Then, in the process determination process, the control unit 21 of the support server 20 executes the architectural element prediction process (step S3-2). Here, the teacher data generation unit 211 performs machine learning using the teacher data in which the area ratio of each building element is set in association with the perspective image. The teacher data is not limited to the case of using the area ratio. For example, the process may be predicted directly from the image. In this case, machine learning is performed using the teacher data in which the process information is set in association with the perspective image. Then, a perspective image is used for the input layer, and a prediction model using process information is generated for the output layer. In this case, the control unit 21 of the support server 20 executes the process prediction process using this prediction model (step S3-3).

・上記実施形態では、支援サーバ20の制御部21は、工程の記録処理を実行する(ステップS3−4)。ここでは、BIMデータ220に記録された予定日と、現場画像情報記憶部25に記録された撮影日とを比較して差分日数を算出し、進捗管理データ260に状況を記録する。工程の記録内容は、これに限定されるものではない。例えば、BIMデータ220に予定日が記録されていない場合には、撮影日に関連付けて工程情報を記録する。 -In the above embodiment, the control unit 21 of the support server 20 executes the process recording process (step S3-4). Here, the scheduled date recorded in the BIM data 220 and the shooting date recorded in the on-site image information storage unit 25 are compared to calculate the difference number of days, and the situation is recorded in the progress management data 260. The recorded contents of the process are not limited to this. For example, when the scheduled date is not recorded in the BIM data 220, the process information is recorded in association with the shooting date.

10…ユーザ端末、20…支援サーバ、21…制御部、210…モデリング部、211…教師データ生成部、212…学習部、213…予測部、214…工程判定部、22…BIM情報記憶部、23…教師情報記憶部、24…学習結果記憶部、25…現場画像情報記憶部、26…進捗情報記憶部。 10 ... user terminal, 20 ... support server, 21 ... control unit, 210 ... modeling unit, 211 ... teacher data generation unit, 212 ... learning unit, 213 ... prediction unit, 214 ... process determination unit, 22 ... BIM information storage unit, 23 ... Teacher information storage unit, 24 ... Learning result storage unit, 25 ... Site image information storage unit, 26 ... Progress information storage unit.

Claims (9)

各工程に関連付けられた建築要素を含めた3次元の要素モデルにより構成された構築物の設計情報を記録した設計情報記憶部と、
機械学習に用いる教師データを記録する教師情報記憶部と、
各工程の進捗状況を予測する予測モデルを生成するための制御部とを備えた学習支援システムであって、
前記制御部が、
前記設計情報を用いて、各工程で用いられる建築要素の要素モデルを組み合わせた3次元モデルをモデル空間内に、順次、配置し、
前記モデル空間内の視点で、前記3次元モデルを撮影した2次元画像を生成して、前記教師情報記憶部に記録し、
前記教師情報記憶部に記録された教師データを用いて、撮影画像から各工程の進捗状況を予測する予測モデルを生成することを特徴とする学習支援システム。
A design information storage unit that records design information of a structure composed of a three-dimensional element model including architectural elements associated with each process, and a design information storage unit.
A teacher information storage unit that records teacher data used for machine learning,
It is a learning support system equipped with a control unit for generating a prediction model that predicts the progress of each process.
The control unit
Using the design information, a three-dimensional model combining element models of architectural elements used in each process is sequentially arranged in the model space.
A two-dimensional image obtained by photographing the three-dimensional model is generated from the viewpoint in the model space and recorded in the teacher information storage unit.
A learning support system characterized in that a prediction model for predicting the progress of each process is generated from a captured image using the teacher data recorded in the teacher information storage unit.
前記制御部が、前記2次元画像において含まれる建築要素を予測する予測モデルを生成することを特徴とする請求項1に記載の学習支援システム。 The learning support system according to claim 1, wherein the control unit generates a prediction model for predicting architectural elements included in the two-dimensional image. 前記制御部が、前記モデル空間に配置された光源を用いて、レンダリングを行なうことを特徴とする請求項1又は2に記載の学習支援システム。 The learning support system according to claim 1 or 2, wherein the control unit performs rendering using a light source arranged in the model space. 前記制御部が、撮影時期に基づいた照明条件で前記光源を設定することを特徴とする請求項3に記載の学習支援システム。 The learning support system according to claim 3, wherein the control unit sets the light source under lighting conditions based on the shooting time. 前記制御部が、前記モデル空間内で異なる複数の視点の位置を決定し、前記異なる視点の位置から撮影した複数の2次元画像を生成することを特徴とする請求項1〜3の何れか一項に記載の学習支援システム。 Any one of claims 1 to 3, wherein the control unit determines the positions of a plurality of different viewpoints in the model space and generates a plurality of two-dimensional images taken from the positions of the different viewpoints. The learning support system described in the section. 前記制御部が、教師データ毎に、前記モデル空間内に、仮置き資材の3次元モデルを配置して、前記2次元画像を生成することを特徴とする請求項1〜5の何れか一項に記載の学習支援システム。 Any one of claims 1 to 5, wherein the control unit arranges a three-dimensional model of the temporary placement material in the model space for each teacher data and generates the two-dimensional image. The learning support system described in. 前記制御部が、教師データを作成する前後の工程で用いる建築要素を特定し、前記仮置き資材として用いることを特徴とする請求項6に記載の学習支援システム。 The learning support system according to claim 6, wherein the control unit identifies a building element used in a process before and after creating teacher data and uses it as the temporary storage material. 各工程に関連付けられた建築要素を含めた3次元の要素モデルにより構成された構築物の設計情報を記録した設計情報記憶部と、
機械学習に用いる教師データを記録する教師情報記憶部と、
各工程の進捗状況を予測する予測モデルを生成するための制御部とを備えた学習支援システムを用いて学習支援を行なう方法であって、
前記制御部が、
前記設計情報を用いて、各工程で用いられる建築要素の要素モデルを組み合わせた3次元モデルをモデル空間内に、順次、配置し、
前記モデル空間内の視点で、前記3次元モデルを撮影した2次元画像を生成して、前記教師情報記憶部に記録し、
前記教師情報記憶部に記録された教師データを用いて、撮影画像から各工程の進捗状況を予測する予測モデルを生成することを特徴とする学習支援方法。
A design information storage unit that records design information of a structure composed of a three-dimensional element model including architectural elements associated with each process, and a design information storage unit.
A teacher information storage unit that records teacher data used for machine learning,
It is a method of providing learning support using a learning support system equipped with a control unit for generating a prediction model that predicts the progress of each process.
The control unit
Using the design information, a three-dimensional model combining element models of architectural elements used in each process is sequentially arranged in the model space.
A two-dimensional image obtained by photographing the three-dimensional model is generated from the viewpoint in the model space and recorded in the teacher information storage unit.
A learning support method characterized in that a prediction model for predicting the progress of each process is generated from a captured image using the teacher data recorded in the teacher information storage unit.
各工程に関連付けられた建築要素を含めた3次元の要素モデルにより構成された構築物の設計情報を記録した設計情報記憶部と、
機械学習に用いる教師データを記録する教師情報記憶部と、
各工程の進捗状況を予測する予測モデルを生成するための制御部とを備えた学習支援システムを用いて学習支援を行なうためのプログラムであって、
前記制御部を、
前記設計情報を用いて、各工程で用いられる建築要素の要素モデルを組み合わせた3次元モデルをモデル空間内に、順次、配置し、
前記モデル空間内の視点で、前記3次元モデルを撮影した2次元画像を生成して、前記教師情報記憶部に記録し、
前記教師情報記憶部に記録された教師データを用いて、撮影画像から各工程の進捗状況を予測する予測モデルを生成する手段として機能させることを特徴とする学習支援プログラム。
A design information storage unit that records design information of a structure composed of a three-dimensional element model including architectural elements associated with each process, and a design information storage unit.
A teacher information storage unit that records teacher data used for machine learning,
It is a program for providing learning support using a learning support system equipped with a control unit for generating a prediction model that predicts the progress of each process.
The control unit
Using the design information, a three-dimensional model combining element models of architectural elements used in each process is sequentially arranged in the model space.
A two-dimensional image obtained by photographing the three-dimensional model is generated from the viewpoint in the model space and recorded in the teacher information storage unit.
A learning support program characterized in that it functions as a means for generating a prediction model for predicting the progress of each process from a captured image by using the teacher data recorded in the teacher information storage unit.
JP2019170707A 2019-09-19 2019-09-19 Learning support system, learning support method, and learning support program Active JP7375405B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019170707A JP7375405B2 (en) 2019-09-19 2019-09-19 Learning support system, learning support method, and learning support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019170707A JP7375405B2 (en) 2019-09-19 2019-09-19 Learning support system, learning support method, and learning support program

Publications (2)

Publication Number Publication Date
JP2021047715A true JP2021047715A (en) 2021-03-25
JP7375405B2 JP7375405B2 (en) 2023-11-08

Family

ID=74878547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019170707A Active JP7375405B2 (en) 2019-09-19 2019-09-19 Learning support system, learning support method, and learning support program

Country Status (1)

Country Link
JP (1) JP7375405B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022191830A (en) * 2021-06-16 2022-12-28 G.I.E株式会社 Process management system
WO2023074124A1 (en) * 2021-10-28 2023-05-04 株式会社 Sai Building inside structure recognition system and building inside structure recognition method
JP7289175B1 (en) 2023-01-12 2023-06-09 新日本建工株式会社 architectural system
WO2023132275A1 (en) * 2022-01-05 2023-07-13 株式会社 Sai Object measurement device and object measurement method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140207512A1 (en) * 2013-01-24 2014-07-24 DPR Construction Timeline-Based Visual Dashboard For Construction
JP2015032256A (en) * 2013-08-06 2015-02-16 Kddi株式会社 Image processing device and database construction device therefor
JP2016143345A (en) * 2015-02-04 2016-08-08 株式会社建設システム Program, information processor, and information processing method
JP2017107443A (en) * 2015-12-10 2017-06-15 株式会社大林組 Situation determination system, situation determination method, and situation determination program
JP2018197998A (en) * 2017-05-24 2018-12-13 株式会社大林組 Work support system, work support method and work support program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140207512A1 (en) * 2013-01-24 2014-07-24 DPR Construction Timeline-Based Visual Dashboard For Construction
JP2015032256A (en) * 2013-08-06 2015-02-16 Kddi株式会社 Image processing device and database construction device therefor
JP2016143345A (en) * 2015-02-04 2016-08-08 株式会社建設システム Program, information processor, and information processing method
JP2017107443A (en) * 2015-12-10 2017-06-15 株式会社大林組 Situation determination system, situation determination method, and situation determination program
JP2018197998A (en) * 2017-05-24 2018-12-13 株式会社大林組 Work support system, work support method and work support program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石井 和美: "メガソフト 3Dインテリアデザイナー", DOS/V MAGAZINE, vol. 第11巻 第2号, JPN6023024758, 15 January 2002 (2002-01-15), JP, pages 199, ISSN: 0005086482 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022191830A (en) * 2021-06-16 2022-12-28 G.I.E株式会社 Process management system
WO2023074124A1 (en) * 2021-10-28 2023-05-04 株式会社 Sai Building inside structure recognition system and building inside structure recognition method
WO2023132275A1 (en) * 2022-01-05 2023-07-13 株式会社 Sai Object measurement device and object measurement method
JP7289175B1 (en) 2023-01-12 2023-06-09 新日本建工株式会社 architectural system

Also Published As

Publication number Publication date
JP7375405B2 (en) 2023-11-08

Similar Documents

Publication Publication Date Title
JP7375405B2 (en) Learning support system, learning support method, and learning support program
Quattrini et al. From TLS to HBIM. High quality semantically-aware 3D modeling of complex architecture
KR101273044B1 (en) Apparatus for virtual reality design
JP4905210B2 (en) Three-dimensional internal space model generation method, apparatus, and program
CN104933753A (en) Three-dimensional virtual roaming scene construction platform based on Internet
Barrile et al. Integration of 3D model from UAV survey in BIM environment
US20200258285A1 (en) Distributed computing systems, graphical user interfaces, and control logic for digital image processing, visualization and measurement derivation
CN109191577A (en) A kind of distribution BIM collaborative platform
Barrile et al. A proposal of a 3D segmentation tool for HBIM management
Schirmer et al. Using shape grammars as a rule based approach in urban planning: A report on practice
Li Simulating virtual construction scenes on openstreetmap
Banfi et al. Generative modeling, virtual reality and HBIM interaction: Immersive environment for built heritage: Case study of shaikh isa bin ali house, Bahrain
CN113051645A (en) Engineering construction management digitization method, system, terminal and medium based on BIM
Ippoliti et al. 2.5 D/3D Models for the enhancement of architectural-urban heritage. An Virtual Tour of design of the Fascist headquarters in Littoria
JPH06348815A (en) Method for setting three-dimensional model of building aspect in cg system
Fangi et al. The metric documentation of Cham Towers in Vietnam by spherical photogrammetry
WO2020113273A1 (en) Mixed reality visualisation system
Ghadban et al. The development of an interactive virtual environment for Hisham Palace in Jericho, Palestine
Wesołowski Virtual reality and BIM as a potential tool for architectural engineers’ education
Liu et al. Reexamining the Old Depot Museum in Selma, Alabama, USA
CN113989680B (en) Automatic building three-dimensional scene construction method and system
US20160349409A1 (en) Photovoltaic shade impact prediction
TWI541671B (en) Method of outdoor design
JP6792136B2 (en) Information processing equipment, information processing system, its control method and program
US20230297732A1 (en) System and Method of Imaging a Construction Plan onto a Walkable Area

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231009

R150 Certificate of patent or registration of utility model

Ref document number: 7375405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150