JP2020149546A - Construction support system and construction support device - Google Patents

Construction support system and construction support device Download PDF

Info

Publication number
JP2020149546A
JP2020149546A JP2019048252A JP2019048252A JP2020149546A JP 2020149546 A JP2020149546 A JP 2020149546A JP 2019048252 A JP2019048252 A JP 2019048252A JP 2019048252 A JP2019048252 A JP 2019048252A JP 2020149546 A JP2020149546 A JP 2020149546A
Authority
JP
Japan
Prior art keywords
dimensional shape
shape data
construction
construction support
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019048252A
Other languages
Japanese (ja)
Other versions
JP7240573B2 (en
Inventor
一樹 中野
Kazuki Nakano
一樹 中野
崇利 岡本
Takatoshi Okamoto
崇利 岡本
航星 石田
Kosei Ishida
航星 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Dai Dan Co Ltd
Original Assignee
Waseda University
Dai Dan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University, Dai Dan Co Ltd filed Critical Waseda University
Priority to JP2019048252A priority Critical patent/JP7240573B2/en
Publication of JP2020149546A publication Critical patent/JP2020149546A/en
Application granted granted Critical
Publication of JP7240573B2 publication Critical patent/JP7240573B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To improve convenience for construction management.SOLUTION: There is provided a construction support device 3 for supporting construction for fitting a member B forming a building facility K to an architectural structure, comprising: a construction plan information storage part 11 for storing a three-dimensional model; a three-dimensional shape data generation part 22b for generating three-dimensional shape data with advance of a work using a photographic image imaged by a camera 2 fitted to an operator S; a matching processing part 24a for comparing the three-dimensional model with the three-dimensional shape data at a specific time, for determining whether or not there is a newly matched fitting completion member; and a first association processing part 24b for, if there is the newly matched fitting completion member, detecting a region corresponding to the fitting completion member on the three-dimensional shape data at a previous time of the specific time, and associating fitting completion member identification information for identifying the fitting completion member to at least any one of the detected region of the three-dimensional shape data and the photographic image in which the region is imaged.SELECTED DRAWING: Figure 1

Description

本発明は、施工支援システムおよび施工支援装置に関する。 The present invention relates to a construction support system and a construction support device.

近年、建築設備(例えば、空調ダクト、衛生配管、設備機器など)の施工を行う場合、CAD(Computer Aided Design)やBIM(Building Information Modeling)などのソフトウェアを用いて設計を行うのが一般的である。これらのソフトウェアを用いて設計を行うことで、コンピュータ上に実物と同じ三次元モデル(立体モデル)を再現できる。 In recent years, when constructing building equipment (for example, air conditioning ducts, sanitary pipes, equipment, etc.), it is common to design using software such as CAD (Computer Aided Design) and BIM (Building Information Modeling). is there. By designing using these software, the same three-dimensional model (three-dimensional model) as the real thing can be reproduced on a computer.

従来、建築設備の施工や完成後の維持管理に三次元モデルを利用することが検討されており、関連する技術として、例えば次のようなものがある。
特許文献1には、建築物の既存部分に対して新たに部材を設置する際の方法が記載されている。特許文献1の技術では、三次元レーザースキャナによって取得した点群データから三次元ポリゴンモデルを作成し、当該三次元ポリゴンモデルに新たに施工される部材エレメントを配置することで部材の施工位置を算出する。そして、可視レーザー照射で算出した施工位置を指し示し、その示された位置に部材を取り付ける。
Conventionally, it has been considered to use a three-dimensional model for construction of building equipment and maintenance after completion, and related technologies include, for example, the following.
Patent Document 1 describes a method for installing a new member in an existing part of a building. In the technique of Patent Document 1, a three-dimensional polygon model is created from the point cloud data acquired by the three-dimensional laser scanner, and the construction position of the member is calculated by arranging the member element to be newly constructed on the three-dimensional polygon model. To do. Then, the construction position calculated by the visible laser irradiation is pointed out, and the member is attached to the indicated position.

また、特許文献2には、施工現場における部材の施工状態を設計データに対応付けて記録する方法が記載されている。特許文献2の技術では、施工現場において変更、削除、追加された属性データおよび部材の画像データをCAD装置にメール送信し、それらの情報をCAD装置にインポートさせることで施工状態を記録する(例えば、段落[0069]〜[0071]参照)。 Further, Patent Document 2 describes a method of recording a construction state of a member at a construction site in association with design data. In the technique of Patent Document 2, the attribute data changed, deleted, and added at the construction site and the image data of the members are sent by e-mail to the CAD device, and the information is imported into the CAD device to record the construction state (for example). , Paragraphs [0069] to [0071]).

特開2013−149119号公報Japanese Unexamined Patent Publication No. 2013-149119 特開2012−226525号公報Japanese Unexamined Patent Publication No. 2012-226525

しかし、従来の技術では、施工現場の施工過程(搬入〜仮置き〜設置など)に対応付けて、部材や作業員の管理を行えるものが提案されていなかった。そのため、例えば、以下に示す課題があった。
第一に、施工対象物を構成する部材単位でのトレーサビリティ(施工工程まで遡ったトレースバック)ができず、完成後に施工ミスが発覚した場合に、当該部材の施工を担当した作業員や原因を早期に特定できなかった。
第二に、作業員が効率的な作業を行えているか否かの判断を行うことができなかった。
その結果、従来の技術では、施工管理に対する支援が十分なものではなく、管理者や作業者にとって利便性がよいとは必ずしもいえなかった。
However, in the conventional technique, there has not been proposed a technique capable of managing members and workers in association with the construction process (carry-in-temporary placement-installation, etc.) at the construction site. Therefore, for example, there are the following problems.
First, if traceability (traceback back to the construction process) is not possible for each member that composes the construction object and a construction error is discovered after completion, the worker or cause responsible for the construction of the member can be identified. It could not be identified early.
Secondly, it was not possible to judge whether or not the workers were able to perform efficient work.
As a result, the conventional technology does not provide sufficient support for construction management, and is not always convenient for managers and workers.

このような観点から、本発明は、施工管理の利便性を向上させることができる、施工支援システムおよび施工支援装置を提供する。 From this point of view, the present invention provides a construction support system and a construction support device that can improve the convenience of construction management.

前記課題を解決するため、本発明に係る施工支援システムは、建築設備を構成する部材を建築物に取り付ける施工を支援する施工支援システムである。
この施工支援システムは、作業員に装着されたカメラと、前記施工を支援する施工支援
装置とを備え、前記カメラは、作業空間で作業を行う前記作業員の作業内容を撮影する。
前記施工支援装置は、記憶部と、三次元形状データ生成部と、マッチング処理部と、第一紐付け処理部と、を備える。
記憶部は、前記部材を取り付けた後の前記作業空間内の状態を示す情報である三次元モデルを記憶する。
三次元形状データ生成部は、前記カメラで撮影した撮影画像を用いて、前記作業空間を三次元形状化した三次元形状データを作業の進行とともに生成する。
マッチング処理部は、前記三次元モデルと特定時刻の前記三次元形状データとを比較し、新たに一致した取付完了部材があるか否かを判定する。
第一紐付け処理部は、新たに一致した前記取付完了部材がある場合に、前記特定時刻よりも過去の三次元形状データにおける当該取付完了部材に対応する領域を検出し、検出した前記三次元形状データの領域および当該領域が撮影される撮影画像の少なくとも何れか一方に前記取付完了部材を識別する取付完了部材識別情報を紐付ける。
In order to solve the above problems, the construction support system according to the present invention is a construction support system that supports construction in which members constituting building equipment are attached to a building.
This construction support system includes a camera attached to the worker and a construction support device that supports the construction, and the camera captures the work contents of the worker who works in the work space.
The construction support device includes a storage unit, a three-dimensional shape data generation unit, a matching processing unit, and a first associating processing unit.
The storage unit stores a three-dimensional model which is information indicating a state in the work space after the member is attached.
The three-dimensional shape data generation unit uses the captured image taken by the camera to generate three-dimensional shape data in which the work space is three-dimensionally shaped as the work progresses.
The matching processing unit compares the three-dimensional model with the three-dimensional shape data at a specific time, and determines whether or not there is a newly matched mounting complete member.
When there is a newly matched attachment complete member, the first association processing unit detects a region corresponding to the attachment complete member in the three-dimensional shape data earlier than the specific time, and detects the three-dimensional shape. The attachment completed member identification information that identifies the attachment completed member is associated with at least one of the shape data area and the captured image in which the area is captured.

また、本発明に係る施工支援装置は、建築設備を構成する部材を建築物に取り付ける施工を支援する施工支援装置である。
この施工支援装置は、記憶部と、三次元形状データ生成部と、マッチング処理部と、第一紐付け処理部と、を備える。
記憶部は、前記部材を取り付けた後の作業空間内の状態を示す情報である三次元モデルを記憶する。
三次元形状データ生成部は、作業員に装着されたカメラで撮影した撮影画像を用いて、前記作業空間を三次元形状化した三次元形状データを作業の進行とともに生成する。
マッチング処理部は、前記三次元モデルと特定時刻の前記三次元形状データとを比較し、新たに一致した取付完了部材があるか否かを判定する。
第一紐付け処理部は、新たに一致した前記取付完了部材がある場合に、前記特定時刻よりも過去の三次元形状データにおける当該取付完了部材に対応する領域を検出し、検出した前記三次元形状データの領域および当該領域が撮影される撮影画像の少なくとも何れか一方に前記取付完了部材を識別する取付完了部材識別情報を紐付ける。
Further, the construction support device according to the present invention is a construction support device that supports the construction of attaching the members constituting the building equipment to the building.
This construction support device includes a storage unit, a three-dimensional shape data generation unit, a matching processing unit, and a first associating processing unit.
The storage unit stores a three-dimensional model which is information indicating a state in the work space after the member is attached.
The three-dimensional shape data generation unit uses a photographed image taken by a camera mounted on the worker to generate three-dimensional shape data obtained by shaping the work space into a three-dimensional shape as the work progresses.
The matching processing unit compares the three-dimensional model with the three-dimensional shape data at a specific time, and determines whether or not there is a newly matched mounting complete member.
When there is a newly matched attachment complete member, the first association processing unit detects a region corresponding to the attachment complete member in the three-dimensional shape data earlier than the specific time, and detects the three-dimensional shape. The attachment completed member identification information that identifies the attachment completed member is associated with at least one of the shape data area and the captured image in which the area is captured.

本発明に係る施工支援システムおよび施工支援装置においては、取付完了部材識別情報を用いて部材の過去の三次元形状データや撮影画像を検索することによって、作業完了後に当該部材の施工中の三次元形状データや撮影画像を確認することができる。その為、完成後に施工ミスが発覚した場合に、当該部材の施工を担当した作業員や原因を早期に特定できる。 In the construction support system and the construction support device according to the present invention, by searching the past three-dimensional shape data and the photographed image of the member using the installation completed member identification information, the three-dimensional during construction of the member after the work is completed. You can check the shape data and captured images. Therefore, when a construction error is discovered after completion, the worker in charge of construction of the member and the cause can be identified at an early stage.

前記作業員の時間の経過に伴う位置を算出する移動経路算出部と、第二紐付け処理部と、をさらに備える構成にしてもよい。
第二紐付け処理部は、新たに一致した前記取付完了部材があった場合に、前記特定時刻よりも過去の三次元形状データにおける当該取付完了部材に対応する領域を検出し、検出した前記三次元形状データの領域の周囲に居る前記作業員の移動経路に前記取付完了部材識別情報を紐付ける。
The configuration may further include a movement route calculation unit for calculating the position of the worker with the passage of time and a second association processing unit.
When there is a newly matched attachment complete member, the second association processing unit detects a region corresponding to the attachment complete member in the three-dimensional shape data earlier than the specific time, and detects the tertiary. The attachment completed member identification information is associated with the movement path of the worker who is around the area of the original shape data.

このようにすると、取付完了部材識別情報を用いて検索することによって、作業完了後に当該部材の施工中の移動経路を確認することができる。その為、当該部材の施工を担当した作業員や原因を早期に特定できる。 In this way, it is possible to confirm the movement route of the member during construction after the work is completed by searching using the attachment completed member identification information. Therefore, the worker in charge of the construction of the member and the cause can be identified at an early stage.

前記移動経路算出部は、前記撮影画像を写真測量技術による三次元合成処理(例:SfM(Structure from Motion))した情報または、前記作業員が別途装着する三次元レー
ザースキャナから出力される情報を点群処理した情報を用いて算出してもよい。
The movement path calculation unit receives information obtained by performing three-dimensional composition processing (eg, SfM (Structure from Motion)) of the captured image by photogrammetry technology or information output from a three-dimensional laser scanner separately attached by the worker. It may be calculated using the information processed by the point cloud.

前記部材には、当該部材を特定可能な部材識別情報が記載されており、前記マッチング処理部は、前記撮影画像または前記三次元形状データに含まれる前記部材識別情報を読み取り、読み取った前記部材識別情報を比較対象の特定に用いるのがよい。このようにすると、マッチング処理や紐付け処理のミスを低減できる。 The member identification information that can identify the member is described in the member, and the matching processing unit reads and reads the member identification information included in the photographed image or the three-dimensional shape data. The information should be used to identify the comparison target. By doing so, it is possible to reduce mistakes in the matching process and the linking process.

前記部材には、当該部材を特定可能な部材識別情報が表示されており、前記マッチング処理部は、前記撮影画像または前記三次元形状データに含まれる前記部材識別情報を読み取り、読み取った前記部材識別情報を前記三次元形状データの位置の補正に用いるのがよい。このようにすると、マッチング処理によって三次元モデルと三次元形状データとを比較する精度が向上する。 The member identification information that can identify the member is displayed on the member, and the matching processing unit reads and reads the member identification information included in the photographed image or the three-dimensional shape data to identify the member. The information may be used to correct the position of the three-dimensional shape data. In this way, the accuracy of comparing the 3D model and the 3D shape data by the matching process is improved.

また、本発明に係る施工支援システムは、建築設備を構成する部材を建築物に取り付ける施工を支援する施工支援システムである。
この施工支援システムは、作業員に装着されたカメラと、前記施工を支援する施工支援装置とを備え、前記カメラは、作業空間で作業を行う前記作業員の作業内容を撮影する。
前記施工支援装置は、三次元形状データ生成部と、移動経路算出部と、を備える。
三次元形状データ生成部は、前記カメラで撮影した撮影画像を用いて、前記作業空間を三次元形状化した三次元形状データを作業の進行とともに生成する。
移動経路算出部は、写真測量技術による三次元合成処理を利用して前記三次元形状データから前記作業員の位置を算出する。
Further, the construction support system according to the present invention is a construction support system that supports the construction of attaching the members constituting the building equipment to the building.
This construction support system includes a camera attached to the worker and a construction support device that supports the construction, and the camera captures the work contents of the worker who works in the work space.
The construction support device includes a three-dimensional shape data generation unit and a movement route calculation unit.
The three-dimensional shape data generation unit uses the captured image taken by the camera to generate three-dimensional shape data in which the work space is three-dimensionally shaped as the work progresses.
The movement route calculation unit calculates the position of the worker from the three-dimensional shape data by using the three-dimensional composition processing by the photogrammetry technique.

このようにすると、施工中の作業員の移動経路を特定することが可能である。その為、例えば、優秀な作業員の移動経路とそうでない作業員の移動経路を比較することが可能であり、作業効率の分析などを行うことができる。 In this way, it is possible to identify the movement route of the worker during construction. Therefore, for example, it is possible to compare the movement route of an excellent worker and the movement route of a poor worker, and it is possible to analyze the work efficiency.

また、本発明に係る施工支援システムは、建築設備を構成する部材を建築物に取り付ける施工を支援する施工支援システムである。
この施工支援システムは、作業員に装着されたカメラと、前記施工を支援する施工支援装置とを備え、前記カメラは、作業空間で作業を行う前記作業員の作業内容を撮影する。
前記施工支援装置は、記憶部と、三次元形状データ生成部と、マッチング処理部と、第三紐付け処理部と、学習用データ収集部とを備える。
記憶部は、前記部材を取り付けた後の前記作業空間内の状態を示す情報である三次元モデルを記憶する。
三次元形状データ生成部は、前記カメラで撮影した撮影画像を用いて、前記作業空間を三次元形状化した三次元形状データを作業の進行とともに生成する。
マッチング処理部は、前記三次元モデルと特定時刻の前記三次元形状データとを比較し、新たに一致した取付完了部材があるか否かを判定する。
第三紐付け処理部は、新たに一致した前記取付完了部材がある場合に、前記特定時刻よりも過去の三次元形状データにおける当該取付完了部材に対応する領域を検出し、検出した前記三次元形状データの領域が撮影される撮影画像に前記取付完了部材をグループ分けする分類情報を紐付ける。
学習用データ収集部は、前記分類情報ごとに前記撮影画像を収集する。
Further, the construction support system according to the present invention is a construction support system that supports the construction of attaching the members constituting the building equipment to the building.
This construction support system includes a camera attached to the worker and a construction support device that supports the construction, and the camera captures the work contents of the worker who works in the work space.
The construction support device includes a storage unit, a three-dimensional shape data generation unit, a matching processing unit, a third association processing unit, and a learning data collection unit.
The storage unit stores a three-dimensional model which is information indicating a state in the work space after the member is attached.
The three-dimensional shape data generation unit uses the captured image taken by the camera to generate three-dimensional shape data in which the work space is three-dimensionally shaped as the work progresses.
The matching processing unit compares the three-dimensional model with the three-dimensional shape data at a specific time, and determines whether or not there is a newly matched mounting complete member.
When there is a newly matched attachment completion member, the third association processing unit detects a region corresponding to the attachment completion member in the three-dimensional shape data earlier than the specific time, and detects the three-dimensional shape. The classification information for grouping the mounting completed members is associated with the captured image in which the shape data area is captured.
The learning data collection unit collects the captured image for each of the classification information.

このようにすると、機械学習用のデータを容易に収集することができる。 In this way, data for machine learning can be easily collected.

また、本発明に係る施工支援システムは、建築設備を構成する部材を建築物に取り付ける施工を支援する施工支援システムである。
この施工支援システムは、作業員に装着された三次元レーザースキャナと、前記施工を支援する施工支援装置と、を備え、前記三次元レーザースキャナは、作業空間内の点群データを取得する。
前記施工支援装置は、記憶部と、三次元形状データ生成部と、マッチング処理部と、第一紐付け処理部と、を備える。
記憶部は、前記部材を取り付けた後の前記作業空間内の状態を示す情報である三次元モデルを記憶する。
三次元形状データ生成部は、前記三次元レーザースキャナで取得した点群データを用いて、前記作業空間を三次元形状化した三次元形状データを作業の進行とともに生成する。
マッチング処理部は、前記三次元モデルと特定時刻の前記三次元形状データとを比較し、新たに一致した取付完了部材があるか否かを判定する。
第一紐付け処理部は、新たに一致した前記取付完了部材がある場合に、前記特定時刻よりも過去の三次元形状データにおける当該取付完了部材に対応する領域を検出し、検出した前記三次元形状データの領域に前記取付完了部材を識別する取付完了部材識別情報を紐付ける。
Further, the construction support system according to the present invention is a construction support system that supports the construction of attaching the members constituting the building equipment to the building.
This construction support system includes a three-dimensional laser scanner mounted on a worker and a construction support device that supports the construction, and the three-dimensional laser scanner acquires point cloud data in the work space.
The construction support device includes a storage unit, a three-dimensional shape data generation unit, a matching processing unit, and a first associating processing unit.
The storage unit stores a three-dimensional model which is information indicating a state in the work space after the member is attached.
The three-dimensional shape data generation unit uses the point cloud data acquired by the three-dimensional laser scanner to generate three-dimensional shape data obtained by shaping the work space into a three-dimensional shape as the work progresses.
The matching processing unit compares the three-dimensional model with the three-dimensional shape data at a specific time, and determines whether or not there is a newly matched mounting complete member.
When there is a newly matched attachment complete member, the first association processing unit detects a region corresponding to the attachment complete member in the three-dimensional shape data earlier than the specific time, and detects the three-dimensional shape. The mounting completed member identification information that identifies the mounting completed member is linked to the shape data area.

本発明に係る施工支援システムにおいては、取付完了部材識別情報を用いて部材の過去の三次元形状データを検索することによって、作業完了後に当該部材の施工中の三次元形状データを確認することができる。その為、完成後に施工ミスが発覚した場合に、当該部材の施工を担当した作業員や原因を早期に特定できる。 In the construction support system according to the present invention, it is possible to confirm the three-dimensional shape data during construction of the member after the work is completed by searching the past three-dimensional shape data of the member using the mounting completed member identification information. it can. Therefore, when a construction error is discovered after completion, the worker in charge of construction of the member and the cause can be identified at an early stage.

本発明によれば、施工管理の利便性を向上させることができる。本発明の一態様による効果を以下に示す。
本発明の一態様によれば、GPS(Global Positioning System)衛生からの電波が届
かない屋内でも、三次元形状データからカメラの位置情報(つまり、カメラを装着する作業員の位置情報)を取得することができる。これにより、作業員の作業分析(動線分析)を行い、施工効率化に活かすことができる。
また、この三次元形状データを工事中において経時的に蓄積することにより、工事現場における施工プロセスの様々な記録が可能になる。これにより、例えば、施工プロセスのトレーサビリティが可能となり、バリテーション(施工品質管理のための施工プロセスの記録)に利用することができる。また、施工後に不具合が生じた場合に蓄積した施工プロセスデータを分析することで、不具合原因の発見を行うことができる。
According to the present invention, the convenience of construction management can be improved. The effects of one aspect of the present invention are shown below.
According to one aspect of the present invention, the position information of the camera (that is, the position information of the worker who wears the camera) is acquired from the three-dimensional shape data even indoors where the radio wave from GPS (Global Positioning System) hygiene does not reach. be able to. As a result, the work analysis (flow line analysis) of the worker can be performed and utilized for improving the construction efficiency.
In addition, by accumulating this three-dimensional shape data over time during construction, it becomes possible to record various construction processes at the construction site. As a result, for example, traceability of the construction process becomes possible, and it can be used for validation (recording of the construction process for construction quality control). In addition, the cause of the defect can be found by analyzing the construction process data accumulated when a defect occurs after the construction.

本発明の第1実施形態に係る施工支援システムの概略構成図である。It is a schematic block diagram of the construction support system which concerns on 1st Embodiment of this invention. 作業員が建築設備の施工を行う作業空間のイメージ図である。It is an image diagram of a work space where a worker constructs a building facility. 本発明の第1実施形態に係る施工支援システムの動作(施工情報の登録処理)を示すフローチャートである。It is a flowchart which shows the operation (registration process of construction information) of the construction support system which concerns on 1st Embodiment of this invention. 三次元モデルのイメージ図である。It is an image diagram of a three-dimensional model. 建築設備の施工作業を示す図である。It is a figure which shows the construction work of a building facility. 建築設備の施工作業を示す図である。It is a figure which shows the construction work of a building facility. 紐付け処理を説明するための図である。It is a figure for demonstrating the associating process. 建築設備の施工作業を示す図である。It is a figure which shows the construction work of a building facility. 建築設備の施工作業を示す図である。It is a figure which shows the construction work of a building facility. 本発明の第2実施形態に係る施工支援システムの概略構成図である。It is a schematic block diagram of the construction support system which concerns on 2nd Embodiment of this invention.

以下、本発明の実施をするための形態を、適宜図面を参照しながら詳細に説明する。各図は、本発明を十分に理解できる程度に、概略的に示してあるに過ぎない。よって、本発明は、図示例のみに限定されるものではない。また、実施形態では、本発明と直接的に関連しない構成や周知な構成については、説明を省略する場合がある。また、各図において、共通する構成要素や同様な構成要素については、同一の符号を付し、それらの重複する
説明を省略する。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings as appropriate. Each figure is only schematically shown to the extent that the present invention can be fully understood. Therefore, the present invention is not limited to the illustrated examples. Further, in the embodiment, description may be omitted for a configuration that is not directly related to the present invention or a well-known configuration. Further, in each figure, common components and similar components are designated by the same reference numerals, and duplicate description thereof will be omitted.

[第1実施形態]
<第1実施形態に係る施工支援システムの構成>
図1を参照して、第1実施形態に係る施工支援システム1の構成について説明する。施工支援システム1は、建築設備の施工、施工プロセスの記録および完成後の維持管理を支援するシステムである。建築設備は、建築物に設ける各種設備のことであり、例えば空調ダクトなどである。本実施形態では、特に、建築物の躯体に取り付けられる建築設備を想定する。
[First Embodiment]
<Structure of construction support system according to the first embodiment>
The configuration of the construction support system 1 according to the first embodiment will be described with reference to FIG. The construction support system 1 is a system that supports the construction of building equipment, the recording of the construction process, and the maintenance after completion. Building equipment refers to various types of equipment provided in a building, such as an air conditioning duct. In this embodiment, it is assumed that the building equipment is attached to the frame of the building.

図1に示す施工支援システム1は、建築設備Kの施工を担当する作業員Sに装着されるカメラ2と、カメラ2で撮影した映像(画像でもよい)を用いて各種処理を実行する施工支援装置3とを主に備える。カメラ2の数(すなわち、作業員Sの数)は特に限定されず、例えば作業空間内に複数のカメラ2が存在していてもよい。カメラ2と施工支援装置3とは、何らかの通信手段(例えば、無線LAN(Local Area Network)や通信ケーブル)を介して常時または一時的に通信可能である。なお、カメラ2で撮影した映像をコンピュータによる読み取り可能な記録媒体(例えば、メモリカード)に記録し、その記録媒体を必要に応じて施工支援装置3に装着することで施工支援装置3に映像を取り込んでもよい。 The construction support system 1 shown in FIG. 1 is a construction support that executes various processes using a camera 2 mounted on a worker S in charge of construction of building equipment K and an image (or an image) taken by the camera 2. It mainly includes a device 3. The number of cameras 2 (that is, the number of workers S) is not particularly limited, and for example, a plurality of cameras 2 may exist in the work space. The camera 2 and the construction support device 3 can always or temporarily communicate with each other via some kind of communication means (for example, a wireless LAN (Local Area Network) or a communication cable). The image captured by the camera 2 is recorded on a computer-readable recording medium (for example, a memory card), and the recording medium is attached to the construction support device 3 as needed to display the image on the construction support device 3. You may import it.

カメラ2は、作業員Sによって行われる建築設備Kに関する作業を撮影するものであり、例えば作業員Sの頭部に装着されて作業員Sの正面方向(目線方向)にある対象を撮影する(図2参照)。ここでのカメラ2は、建築設備Kの形状や建築設備Kを構成する各パーツ(以下では、「部材B」と称する)に取り付けられたタグTを認識できる解像度を有している。タグTには、バーコード、QRコード(登録商標)、手書き文字列などの手段によって、部材Bを識別する部材識別情報が記載されている。タグTの種類や形状は特に限定されず、部材Bに取り付け可能のものであればよい。カメラ2は、例えばデジタルビデオカメラであり、1秒間に数十枚の画像(フレームとも呼ぶ)を撮影する。 The camera 2 photographs the work performed by the worker S regarding the building equipment K, for example, an object mounted on the head of the worker S and in the front direction (line-of-sight direction) of the worker S ( See FIG. 2). The camera 2 here has a resolution capable of recognizing the shape of the building equipment K and the tag T attached to each part (hereinafter, referred to as “member B”) constituting the building equipment K. On the tag T, member identification information for identifying the member B by means such as a bar code, a QR code (registered trademark), and a handwritten character string is described. The type and shape of the tag T are not particularly limited as long as they can be attached to the member B. The camera 2 is, for example, a digital video camera, and captures several tens of images (also referred to as frames) per second.

施工支援装置3は、建築設備の施工および完成後の維持管理を支援する装置である。施工支援装置3は、例えば施工現場の管理室内に設置された管理用パソコン(PC:Personal Computer)、施工現場から離れた場所にあるサーバである。施工支援装置3は、クラ
ウドサーバまたはクラウドシステムの一部をなすものであってもよい。施工支援装置3は、記憶手段10と、制御手段20とを主に備える。なお、詳細は後記するが、記憶手段10は、写真測量技術による三次元合成処理を行った情報が記憶される。本実施形態では、写真測量技術による三次元合成処理の一例としてSfM(Structure from Motion)を例
示しており、当該三次元合成処理を行った情報を記憶する記憶部の一例としてSfM情報記憶部13を例示している。
The construction support device 3 is a device that supports the construction and maintenance of building equipment after completion. The construction support device 3 is, for example, a management personal computer (PC) installed in the management room of the construction site, or a server located away from the construction site. The construction support device 3 may be a part of a cloud server or a cloud system. The construction support device 3 mainly includes a storage means 10 and a control means 20. Although the details will be described later, the storage means 10 stores the information obtained by performing the three-dimensional composition processing by the photogrammetry technique. In the present embodiment, SfM (Structure from Motion) is illustrated as an example of the three-dimensional composition processing by the photogrammetry technique, and the SfM information storage unit 13 is an example of the storage unit that stores the information obtained by performing the three-dimensional composition processing. Is illustrated.

記憶手段10は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶媒体により構成される。
記憶手段10には、施工支援装置3が実行する処理で必要な情報が記憶されている。
ここでの記憶手段10は、施工計画情報記憶部11と、撮影画像記憶部12と、SfM情報記憶部13と、作業員情報記憶部14と、部材情報記憶部15と、を主に備える。
The storage means 10 is composed of, for example, a storage medium such as a RAM (Random Access Memory), a ROM (Read Only Memory), an HDD (Hard Disk Drive), and a flash memory.
The storage means 10 stores information necessary for processing executed by the construction support device 3.
The storage means 10 here mainly includes a construction plan information storage unit 11, a captured image storage unit 12, an SfM information storage unit 13, a worker information storage unit 14, and a member information storage unit 15.

施工計画情報記憶部11には、施工計画に関する情報が記憶されている。施工計画情報記憶部11に記憶される情報には、施工完了後の状態を示した三次元モデルが含まれる。三次元モデルは、CADやBIMなどのソフトウェアを用いて作成される。三次元モデルは、複数のエレメント(「オブジェクト」とも呼ばれる)の集合体である。空調ダクトを取り付ける施工を想定した場合、各エレメントは、例えば空調ダクトを構成する各パーツ
(例えば、直管やエルボ)である。各エレメントには、例えばエレメントを識別するエレメントID(Identification)、三次元形状、品番、寸法、素材、位置などの属性情報(エレメント情報)が登録される。
Information about the construction plan is stored in the construction plan information storage unit 11. The information stored in the construction plan information storage unit 11 includes a three-dimensional model showing the state after the construction is completed. The three-dimensional model is created using software such as CAD and BIM. A three-dimensional model is a collection of elements (also called "objects"). Assuming the construction of installing the air conditioning duct, each element is, for example, each part (for example, a straight pipe or an elbow) constituting the air conditioning duct. For example, attribute information (element information) such as an element ID (Identification) for identifying an element, a three-dimensional shape, a product number, a dimension, a material, and a position is registered in each element.

撮影画像記憶部12には、カメラ2で撮影された映像が記憶されている。撮影画像記憶部12には、例えばリアルタイムにカメラ2から取得した映像が格納される。映像を構成する各画像(フレーム)には、例えばカメラ2を識別するカメラID、撮影時刻、撮影位置などの属性情報(撮影情報)が登録される。なお、カメラ2の撮影場所が屋内である場合、カメラ2が一般的に備えるGPS(Global Positioning System)受信機は、GPS
衛星から発信される電波を受信できないので撮影位置を特定できない。建築設備の施工は、一般的には屋内で行われるので、以下ではGPSを用いての撮影位置の特定ができないことを想定して説明する。撮影画像記憶部12には、映像以外の情報として、カメラ2の情報(画角、解像度、フレームレートなど)が記憶されていてもよい。
The captured image storage unit 12 stores an image captured by the camera 2. The captured image storage unit 12 stores, for example, an image acquired from the camera 2 in real time. Attribute information (shooting information) such as a camera ID for identifying the camera 2, a shooting time, and a shooting position is registered in each image (frame) constituting the video. When the shooting location of the camera 2 is indoors, the GPS (Global Positioning System) receiver generally provided in the camera 2 is GPS.
Since the radio waves transmitted from the satellite cannot be received, the shooting position cannot be specified. Since the construction of building equipment is generally performed indoors, it will be described below assuming that the shooting position cannot be specified using GPS. The captured image storage unit 12 may store information (angle of view, resolution, frame rate, etc.) of the camera 2 as information other than video.

SfM情報記憶部13には、撮影画像記憶部12に記憶される映像をSfM処理した情報が記憶されている。SfMは、画像に映った対象物の幾何学形状とカメラの動き(時系列のカメラ位置)を同時に復元する手法である。SfM情報記憶部13に記憶される情報には、映像に映った対象物(ここでは、特に建築設備Kの各パーツ)の三次元形状データやカメラ2の動きが含まれる。 The SfM information storage unit 13 stores information obtained by SfM processing the image stored in the captured image storage unit 12. SfM is a method of simultaneously restoring the geometric shape of an object reflected in an image and the movement of the camera (camera position in time series). The information stored in the SfM information storage unit 13 includes the three-dimensional shape data of the object (here, each part of the building equipment K in particular) reflected in the image and the movement of the camera 2.

作業員情報記憶部14には、建築設備Kの施工を担当する作業員Sに関する情報が記憶されている。作業員情報記憶部14に記憶される情報には、作業員Sを識別する作業員ID、作業員Sが装着するカメラ2のカメラID、作業員Sの移動経路などの情報が含まれる。作業員Sの移動経路は、SfM技術によって算出したカメラ2の動きを作業員Sに対応付けたものである。 The worker information storage unit 14 stores information about the worker S who is in charge of the construction of the building equipment K. The information stored in the worker information storage unit 14 includes information such as a worker ID for identifying the worker S, a camera ID of the camera 2 worn by the worker S, and a movement route of the worker S. The movement path of the worker S corresponds to the movement of the camera 2 calculated by the SfM technique with the worker S.

部材情報記憶部15には、建築設備Kを構成する各パーツ(部材B)に関する情報が記憶されている。部材情報記憶部15に記憶される情報には、部材Bの品番、寸法、素材などの情報が含まれる。 The member information storage unit 15 stores information about each part (member B) constituting the building equipment K. The information stored in the member information storage unit 15 includes information such as a product number, dimensions, and material of the member B.

制御手段20は、例えば、CPU(Central Processing Unit)によるプログラムの実
行処理や、専用回路等により実現される。制御手段20がプログラムによって実現される場合、そのプログラムをコンピュータによる読み取り可能な記録媒体(例:CD−ROM)に記憶して提供することができる。また、そのプログラムを、インターネットなどのネットワークを通して提供することもできる。
The control means 20 is realized by, for example, a program execution process by a CPU (Central Processing Unit), a dedicated circuit, or the like. When the control means 20 is realized by a program, the program can be stored and provided on a computer-readable recording medium (eg, CD-ROM). The program can also be provided through a network such as the Internet.

制御手段20は、画像取得部21と、SfM処理部22と、移動経路算出部23と、紐付け処理部24と、タグ処理部25と、表示制御部26と、学習用データ収集部27と、を主に備える。 The control means 20 includes an image acquisition unit 21, an SfM processing unit 22, a movement route calculation unit 23, a linking processing unit 24, a tag processing unit 25, a display control unit 26, and a learning data collection unit 27. , Is mainly provided.

画像取得部21は、作業員Sのカメラ2で撮影した映像を取得する機能である。画像取得部21によって取得される映像は、後記するSfM処理によって部材Bの形状やカメラ2の動きを算出できる程度のものであればよい。画像取得部21がカメラ2の映像を取得する時期は特に限定されず、リアルタイムに映像を取得してもよいし、施工が完了した後で施工を撮影した映像をまとめて取得してもよい。なお、画像取得部21は、SfM処理に適さない画像(フレーム)を除外するのがよい。適さない画像(フレーム)は、例えば作業員Sが勢いよく頭部を動かした際のぶれた画像や、接近しすぎて撮影対象の形状を判別できない画像である。 The image acquisition unit 21 is a function of acquiring an image captured by the camera 2 of the worker S. The image acquired by the image acquisition unit 21 may be such that the shape of the member B and the movement of the camera 2 can be calculated by the SfM process described later. The time when the image acquisition unit 21 acquires the image of the camera 2 is not particularly limited, and the image may be acquired in real time, or the images of the construction taken after the construction is completed may be collectively acquired. The image acquisition unit 21 should exclude images (frames) that are not suitable for SfM processing. The unsuitable image (frame) is, for example, a blurred image when the worker S vigorously moves his head, or an image that is too close to determine the shape of the object to be photographed.

SfM処理部22は、カメラ2によって撮影された映像をSfM処理する機能である。
SfM処理部22は、カメラ位置・姿勢推定部22aと、三次元形状データ生成部22bとを有する。なお、SfM技術は既知の技術であるので、ここでは詳細な説明は省略する。
The SfM processing unit 22 is a function of performing SfM processing on the image captured by the camera 2.
The SfM processing unit 22 includes a camera position / orientation estimation unit 22a and a three-dimensional shape data generation unit 22b. Since the SfM technique is a known technique, detailed description thereof will be omitted here.

カメラ位置・姿勢推定部22aは、取得した映像からカメラ2の位置や姿勢を作業の進行とともに推定する。ここで「作業の進行とともに推定」とは、時間の経過とともにカメラ2の位置や姿勢を連続的に推定する場合や、何らかのイベントごとにカメラ2の位置や姿勢を離散的に推定する場合を含む意図である。 The camera position / posture estimation unit 22a estimates the position and posture of the camera 2 from the acquired image as the work progresses. Here, "estimate with the progress of work" includes a case where the position and posture of the camera 2 are continuously estimated with the passage of time, and a case where the position and posture of the camera 2 are discretely estimated for each event. It is an intention.

三次元形状データ生成部22bは、取得した映像に映った対象物(ここでは、特に建築設備の各パーツ)の三次元形状データを作業の進行とともに生成する。ここで「作業の進行とともに生成」とは、時間の経過とともに三次元形状データを連続的に生成する場合や、何らかのイベントごとに三次元形状データを離散的に生成する場合を含む意図である。 The three-dimensional shape data generation unit 22b generates three-dimensional shape data of the object (here, in particular, each part of the building equipment) reflected in the acquired image as the work progresses. Here, "generated with the progress of work" is intended to include a case where three-dimensional shape data is continuously generated with the passage of time and a case where three-dimensional shape data is discretely generated for each event.

移動経路算出部23は、カメラ2と作業員Sとの対応付けを行い、SfM技術によって算出したカメラ2の動きを作業員Sの移動経路として算出する。 The movement route calculation unit 23 associates the camera 2 with the worker S, and calculates the movement of the camera 2 calculated by the SfM technique as the movement route of the worker S.

紐付け処理部24は、部材Bが建築物に新たに取り付けられた場合に、過去に遡って情報の関連づけを行う機能である。紐付け処理部24は、マッチング処理部24aと、第一紐付け処理部24bと、第二紐付け処理部24cと、第三紐付け処理部24dとを有する。 The association processing unit 24 is a function of retroactively associating information with the member B when the member B is newly attached to the building. The tying processing unit 24 has a matching processing unit 24a, a first tying processing unit 24b, a second tying processing unit 24c, and a third tying processing unit 24d.

マッチング処理部24aは、建築物に新たに取り付けられた部材Bがあるか否かを判定する。マッチング処理部24aによるこの判定方法は特に限定されない。例えば、マッチング処理部24aは、施工完了後の状態を示した三次元モデルと最新の三次元形状データとを比較し、エレメントに対応する位置に何らかの物体が配置された場合に新たに部材Bが取り付けられたと判定する。また、部材Bの取付完了のタイミングで、作業員Sが図示しない携帯端末を操作して取付完了を示す情報の入力を行ったり、カメラ2の前で合図を行い、マッチング処理部24aがそれらの情報や合図を検出することで新たに部材Bが取り付けられたことを判定してもよい。 The matching processing unit 24a determines whether or not there is a member B newly attached to the building. This determination method by the matching processing unit 24a is not particularly limited. For example, the matching processing unit 24a compares the three-dimensional model showing the state after the completion of construction with the latest three-dimensional shape data, and when some object is arranged at the position corresponding to the element, the member B is newly added. Judge that it is attached. Further, at the timing of the completion of the mounting of the member B, the worker S operates a mobile terminal (not shown) to input information indicating the completion of mounting, or gives a signal in front of the camera 2, and the matching processing unit 24a thereof It may be determined that the member B is newly attached by detecting the information or the signal.

また、マッチング処理部24aは、該当するエレメントの形状や体積と、三次元形状データの対応する部分の形状や体積とを比較することで、設計通りに部材Bが取り付けられているか否かを判定する。設計通りに部材Bが取り付けられていない場合、マッチング処理部24aは、取り付けられた部材Bの周囲にいる作業員Sを当該部材Bの施工を行った施工者であると特定し、図示しない報知手段を用いて当該施工者や監督者に施工ミスであることを報知する。なお、設計通りに部材が取り付けられているか否かの判定に関して、カメラ2による撮影状況や三次元形状データを生成する精度によっては、三次元モデルと三次元形状データとが完全に一致しないことも想定される。その場合には、例えば許容値を設け、三次元モデルと三次元形状データとのずれが所定の範囲内であれば設計通りに部材Bが取り付けられていると判定してもよい。 Further, the matching processing unit 24a determines whether or not the member B is attached as designed by comparing the shape and volume of the corresponding element with the shape and volume of the corresponding portion of the three-dimensional shape data. To do. When the member B is not attached as designed, the matching processing unit 24a identifies the worker S around the attached member B as the builder who performed the construction of the member B, and notifies (not shown). Notify the contractor or supervisor of the construction error by using means. Regarding the determination of whether or not the members are attached as designed, the 3D model and the 3D shape data may not completely match depending on the shooting conditions by the camera 2 and the accuracy of generating the 3D shape data. is assumed. In that case, for example, an allowable value may be provided, and if the deviation between the three-dimensional model and the three-dimensional shape data is within a predetermined range, it may be determined that the member B is attached as designed.

第一紐付け処理部24bは、建築設備Kを構成する各部材Bと三次元形状データや撮影画像との紐付けを行う。具体的には、第一紐付け処理部24bは、部材Bが建築物に新たに取り付けられた時点よりも過去(取り付けられた時点を含んでもよい)の三次元形状データを参照し、各々の三次元形状データの当該部材Bに対応する領域を抽出する。第一紐付け処理部24bは、例えば形状や色に基づいて当該部材Bに対応する領域を抽出する。なお、第一紐付け処理部24bは、施工計画情報記憶部11を参照して、取り付けられた部材Bに関する情報(例えば、三次元形状、品番、寸法、素材など)を取得し、取得した情報を用いて三次元形状データから領域を抽出してもよい。そして、第一紐付け処理部2
4bは、抽出した領域に当該部材Bを識別する情報(例えば、エレメントID)を紐付ける。また、第一紐付け処理部24bは、抽出した領域が撮影される撮影画像に当該部材Bを識別する情報(例えば、エレメントID)を紐付ける。なお、第一紐付け処理部24bは、部材Bを撮影画像から認識する画像認識モデルを有していてもよく、この画像認識モデルを用いて抽出した領域が撮影される撮影画像を特定してもよい。また、第一紐付け処理部24bは、当該部材Bを識別する情報(例えば、エレメントID)以外の情報を三次元形状データや撮影画像に紐付けてもよい。なお、取り付けられた部材Bを識別する情報を特に「取付完了部材識別情報」と呼ぶ場合がある。
The first associating processing unit 24b associates each member B constituting the building equipment K with the three-dimensional shape data and the photographed image. Specifically, the first associative processing unit 24b refers to the three-dimensional shape data in the past (may include the time when the member B is attached) from the time when the member B is newly attached to the building, and each of them is referred to. A region corresponding to the member B of the three-dimensional shape data is extracted. The first association processing unit 24b extracts a region corresponding to the member B based on, for example, a shape or a color. The first associative processing unit 24b acquires information (for example, three-dimensional shape, product number, dimensions, material, etc.) regarding the attached member B with reference to the construction plan information storage unit 11, and the acquired information. The region may be extracted from the three-dimensional shape data using. Then, the first link processing unit 2
In 4b, information (for example, element ID) for identifying the member B is associated with the extracted region. Further, the first associating processing unit 24b associates information (for example, element ID) for identifying the member B with the photographed image in which the extracted area is photographed. The first associative processing unit 24b may have an image recognition model that recognizes the member B from the captured image, and specifies a captured image in which a region extracted using this image recognition model is captured. May be good. Further, the first association processing unit 24b may associate information other than the information for identifying the member B (for example, the element ID) with the three-dimensional shape data or the captured image. In addition, the information for identifying the attached member B may be particularly referred to as "attachment completed member identification information".

第二紐付け処理部24cは、建築設備Kを構成する各部材Bと作業員Sの移動経路との紐付けを行う。具体的には、第二紐付け処理部24cは、第一紐付け処理部24bと同様の方法により過去の三次元形状データから当該部材Bに対応する領域を抽出する。そして、第二紐付け処理部24cは、抽出した領域の周囲にいる作業員S(抽出した領域との距離が近い位置のカメラ2を装着する作業員S)を当該部材Bの搬送を行った作業員であると特定し、特定した作業員Sの移動経路に当該部材Bを識別する情報(例えば、エレメントID)を紐付ける。ここで、部材Bの受け渡しが行われた場合、受け渡しを行った時点を境界にして異なる作業員Sの移動経路に当該部材Bを識別する情報の紐付けを行う。 The second associating processing unit 24c associates each member B constituting the building equipment K with the movement path of the worker S. Specifically, the second association processing unit 24c extracts a region corresponding to the member B from the past three-dimensional shape data by the same method as the first association processing unit 24b. Then, the second associating processing unit 24c conveyed the member B to the worker S (the worker S who attaches the camera 2 at a position close to the extracted area) around the extracted area. It is identified as a worker, and information (for example, element ID) that identifies the member B is associated with the movement path of the specified worker S. Here, when the member B is delivered, the information for identifying the member B is associated with the movement path of the different worker S with the time of delivery as the boundary.

第三紐付け処理部24dは、部材Bをグループ分けする分類情報と撮影画像との紐付けを行う。具体的には、第三紐付け処理部24dは、第一紐付け処理部24bと同様の方法により過去の三次元形状データから当該部材Bに対応する領域を抽出する。そして、第三紐付け処理部24dは、抽出した領域が撮影される撮影画像に当該部材Bをグループ分けする分類情報(例えば、品番)を紐付ける。 The third associating processing unit 24d associates the classification information for grouping the member B with the photographed image. Specifically, the third association processing unit 24d extracts a region corresponding to the member B from the past three-dimensional shape data by the same method as the first association processing unit 24b. Then, the third associating processing unit 24d associates the photographed image in which the extracted region is photographed with the classification information (for example, the product number) for grouping the member B.

タグ処理部25は、タグTを用いた種々の処理を行う機能である。タグ処理部25は、部材特定部25aと、位置補正部25bとを有する。 The tag processing unit 25 is a function of performing various processes using the tag T. The tag processing unit 25 has a member identification unit 25a and a position correction unit 25b.

部材特定部25aは、カメラ2によって撮影された画像または三次元形状データからタグTに記載された部材識別情報(例えば、エレメントID)を読み取り、画像に映る部材Bや三次元形状データに含まれる部材Bを特定する。なお、タグTの読み取りに関する技術(文字認識技術)は、既知の技術であるので、ここでは詳細な説明は省略する。部材特定部25aによって特定された部材識別情報は、紐付け処理部24による情報の関連づけに利用される。例えば、マッチング処理部24aによる比較対象の特定、並びに、第一紐付け処理部24b、第二紐付け処理部24cおよび第三紐付け処理部24dによる部材Bの領域の抽出や撮影画像の選定などに利用される。つまり、第一紐付け処理部24b、第二紐付け処理部24cおよび第三紐付け処理部24dは、タグTによって特定された部材識別情報を用いて、三次元形状データや撮影画像から部材Bを抽出してもよい。これにより、マッチング処理や紐付け処理のミスを低減できる。 The member identification unit 25a reads the member identification information (for example, element ID) described in the tag T from the image taken by the camera 2 or the three-dimensional shape data, and is included in the member B or the three-dimensional shape data displayed in the image. Identify member B. Since the technique related to reading the tag T (character recognition technique) is a known technique, detailed description thereof will be omitted here. The member identification information specified by the member identification unit 25a is used for associating the information by the association processing unit 24. For example, the matching processing unit 24a identifies the comparison target, and the first association processing unit 24b, the second association processing unit 24c, and the third association processing unit 24d extract the region of the member B and select the captured image. Used for. That is, the first association processing unit 24b, the second association processing unit 24c, and the third association processing unit 24d use the member identification information specified by the tag T to obtain the member B from the three-dimensional shape data and the captured image. May be extracted. As a result, mistakes in the matching process and the linking process can be reduced.

位置補正部25bは、不動点(例えば、壁などに設けたスリーブ)に付されたタグT(以下、「基準タグT」と呼ぶ場合がある)をカメラ2によって撮影された画像または三次元形状データから読み取り、三次元形状データの当該位置に基準点を設定する。ここで、施工完了後の状態を示した三次元モデルにも基準タグTが付された位置を基準点として設定しており、位置補正部25bは、三次元モデルの基準点と三次元形状データの基準点とを位置合わせすることで、三次元形状データの位置を補正する。これにより、マッチング処理部24aによって三次元モデルと三次元形状データとを比較する精度が向上する。なお、位置補正部25bは、部材Bに取り付けたタグTを用いて三次元形状データの位置を補正してもよい。 The position correction unit 25b has an image or a three-dimensional shape of a tag T (hereinafter, may be referred to as a “reference tag T”) attached to a fixed point (for example, a sleeve provided on a wall or the like) taken by the camera 2. Read from the data and set a reference point at the relevant position in the 3D shape data. Here, the position where the reference tag T is attached is also set as the reference point in the three-dimensional model showing the state after the completion of construction, and the position correction unit 25b sets the reference point of the three-dimensional model and the three-dimensional shape data. By aligning with the reference point of, the position of the three-dimensional shape data is corrected. As a result, the accuracy of comparing the three-dimensional model and the three-dimensional shape data by the matching processing unit 24a is improved. The position correction unit 25b may correct the position of the three-dimensional shape data by using the tag T attached to the member B.

表示制御部26は、建築設備Kの施工に関する種々の情報を表示する。表示制御部26
は、例えば、三次元形状データを見下図などに切り替えて表示する。また、表示制御部26は、作業の進捗状況や出来形に関する情報を表示する。また、表示制御部26は、設計通りに部材Bが取り付けられていない場合に不一致の箇所(部材)を強調して表示するとともに、施工ミスが発生した時刻や作業を行った作業員を表示する。また、表示制御部26は、紐付け処理部24で紐付けられた情報などを表示する紐付け情報表示部26aを有する。
The display control unit 26 displays various information regarding the construction of the building equipment K. Display control unit 26
Displays, for example, switching the three-dimensional shape data to the figure below. In addition, the display control unit 26 displays information on the progress of work and the finished product. Further, the display control unit 26 emphasizes and displays the inconsistent portion (member) when the member B is not attached as designed, and also displays the time when the construction error occurred and the worker who performed the work. .. Further, the display control unit 26 has a linking information display unit 26a for displaying information and the like linked by the linking processing unit 24.

紐付け情報表示部26aは、例えば、部材Bを識別する情報(例えば、エレメントID)の入力を受け付けて、入力された部材Bを含む三次元形状データやその基になる撮影画像を抽出して表示する。また、紐付け情報表示部26aは、入力された部材Bの移動経路を表示する。 The association information display unit 26a receives, for example, input of information for identifying the member B (for example, an element ID), and extracts three-dimensional shape data including the input member B and a captured image as a basis thereof. indicate. Further, the association information display unit 26a displays the input movement path of the member B.

また、紐付け情報表示部26aは、例えば、作業員Sを識別する情報(例えば、作業員ID)の入力を受け付けて、入力された作業員Sの移動経路を表示する。なお、複数の作業員Sの移動経路を一つの画面に並べてまたは重ねて表示し、作業員Sの移動経路を比較できるようにしてもよい。これにより、例えば、優秀な作業員Sの移動経路とそうでない作業員Sの移動経路を比較することが可能であり、作業効率の分析などを行うことができる。また、紐付け情報表示部26aは、部材Bの取り付けに要した時間や所定時間における施工作業量などを作業員Sごとに表示してもよい。 Further, the association information display unit 26a accepts, for example, input of information for identifying the worker S (for example, a worker ID) and displays the input movement route of the worker S. The movement routes of the plurality of workers S may be displayed side by side or overlapped on one screen so that the movement routes of the workers S can be compared. Thereby, for example, it is possible to compare the movement route of the excellent worker S and the movement route of the poor worker S, and it is possible to analyze the work efficiency. Further, the linking information display unit 26a may display the time required for attaching the member B, the amount of construction work in a predetermined time, and the like for each worker S.

学習用データ収集部27は、機械学習用のデータを収集する機能である。ここで、第三紐付け処理部24dによって撮影画像に当該部材をグループ分けする分類情報(例えば、品番)が紐付けられている。学習用データ収集部27は、例えば、部材Bをグループ分けする分類情報(例えば、品番)の入力を受け付けて、当該情報を基にして撮影画像を収集する。収集された撮影画像は、例えば、教師付きの学習データとして利用することができ、当該学習データを用いて学習を行うことで部材Bの自動認識能力の向上が期待できる。 The learning data collection unit 27 is a function of collecting data for machine learning. Here, the third associating processing unit 24d associates the photographed image with classification information (for example, a product number) for grouping the members. The learning data collection unit 27 receives, for example, input of classification information (for example, a product number) for grouping member B, and collects captured images based on the information. The collected captured image can be used as, for example, supervised learning data, and it can be expected that the automatic recognition ability of the member B will be improved by performing learning using the learning data.

<第1実施形態に係る施工支援システムの動作>
図3を参照して、第1実施形態に係る施工支援システム1の動作(施工情報の登録処理)について説明する。図3は、第1実施形態に係る施工支援システムの動作(施工情報の登録処理)を示すフローチャートである。
<Operation of construction support system according to the first embodiment>
The operation (registration process of construction information) of the construction support system 1 according to the first embodiment will be described with reference to FIG. FIG. 3 is a flowchart showing the operation (registration process of construction information) of the construction support system according to the first embodiment.

(施工情報の登録処理)
最初に、施工支援装置3の画像取得部21は、作業員Sのカメラ2で撮影した映像を取得する(ステップS1)。画像取得部21は、SfM処理において適さない画像(不要な画像)を除外する(ステップS2)。
(Registration process of construction information)
First, the image acquisition unit 21 of the construction support device 3 acquires an image taken by the camera 2 of the worker S (step S1). The image acquisition unit 21 excludes images (unnecessary images) that are not suitable for SfM processing (step S2).

次に、三次元形状データ生成部22bは、SfM処理によって、映像に映った対象物(ここでは、特に建築設備Kを構成する部材B)の三次元形状データを作業の進行とともに生成する(ステップS3)。また、カメラ位置・姿勢推定部22aは、SfM処理により取得した三次元形状データを用いて、カメラ2の位置や姿勢を作業の進行とともに推定する(ステップS3)。そして、カメラ位置・姿勢推定部22aは、推定したカメラ2の位置(動き)を作業員Sの位置(移動経路)として作業員情報記憶部14に登録する(ステップS4)。また、三次元形状データ生成部22bは、生成した三次元形状データをSfM情報記憶部13に登録する(ステップS4)。なお、カメラ位置・姿勢を推定するタイミングと三次元形状データを生成するタイミングとは異なっていてもよい。また、所定期間内にカメラ位置・姿勢を推定する回数と三次元形状データを生成する回数とは異なっていてもよい。 Next, the three-dimensional shape data generation unit 22b generates three-dimensional shape data of the object (here, in particular, the member B constituting the building equipment K) reflected in the image by SfM processing as the work progresses (step). S3). Further, the camera position / posture estimation unit 22a estimates the position and posture of the camera 2 as the work progresses by using the three-dimensional shape data acquired by the SfM processing (step S3). Then, the camera position / posture estimation unit 22a registers the estimated position (movement) of the camera 2 as the position (movement path) of the worker S in the worker information storage unit 14 (step S4). Further, the three-dimensional shape data generation unit 22b registers the generated three-dimensional shape data in the SfM information storage unit 13 (step S4). The timing of estimating the camera position / orientation and the timing of generating the three-dimensional shape data may be different. Further, the number of times the camera position / orientation is estimated and the number of times the three-dimensional shape data is generated within a predetermined period may be different.

次に、マッチング処理部24aは、建築物に新たな部材Bが取り付けられたか否かを判
定する(ステップS5)。新たな部材Bが取り付けられていない場合(ステップS5で“No”)、制御手段20は、処理をステップS1に戻して引き続き映像を取得する。一方、新たな部材が取り付けられている場合(ステップS5で“Yes”)、マッチング処理部24aは、設計通りに部材Bが取り付けられたか否かを判定する(ステップS6)。マッチング処理部24aは、例えば三次元モデルと三次元形状データとを比較し、該当する部分の形状や体積が一致するか否かにより設計通りであるか否かを判定する。
Next, the matching processing unit 24a determines whether or not a new member B is attached to the building (step S5). When the new member B is not attached (“No” in step S5), the control means 20 returns the process to step S1 and continues to acquire the image. On the other hand, when a new member is attached (“Yes” in step S5), the matching processing unit 24a determines whether or not the member B is attached as designed (step S6). The matching processing unit 24a compares, for example, the three-dimensional model with the three-dimensional shape data, and determines whether or not the design is correct depending on whether or not the shapes and volumes of the corresponding portions match.

設計通りに部材Bが取り付けられていない場合(ステップS6で“No”)、マッチング処理部24aは、取り付けられた部材Bの周囲にいる作業員Sを当該部材の施工を行った施工者であると特定し、図示しない報知手段を用いて当該作業員Sや監督者に施工ミスであることを報知する(ステップS7)。一方、設計通りに部材Bが取り付けられている場合(ステップS6で“Yes”)、ステップS8〜ステップS10で過去に遡って情報の関連づけを行う。例えば、第一紐付け処理部24bは、建築設備Kを構成する部材Bを識別する情報(例えば、エレメントID)を三次元形状データや撮影画像に関連付ける第一紐付け処理を行う(ステップS8)。また、第二紐付け処理部24cは、建築設備Kを構成する部材Bを識別する情報(例えば、エレメントID)を作業員Sの移動経路に関連付ける第二紐付け処理を行う(ステップS9)。また、第三紐付け処理部24dは、部材Bをグループ分けする分類情報を撮影画像に関連付ける第三紐付け処理を行う(ステップS10)。 When the member B is not attached as designed (“No” in step S6), the matching processing unit 24a is a builder who constructs the member S around the attached member B. (Step S7), the worker S and the supervisor are notified of the construction error by using a notification means (not shown). On the other hand, when the member B is attached as designed (“Yes” in step S6), information is associated retroactively in steps S8 to S10. For example, the first linking processing unit 24b performs the first linking process of associating the information (for example, the element ID) that identifies the member B constituting the building equipment K with the three-dimensional shape data or the captured image (step S8). .. In addition, the second linking processing unit 24c performs the second linking process of associating the information (for example, the element ID) that identifies the member B constituting the building equipment K with the movement path of the worker S (step S9). Further, the third linking processing unit 24d performs a third linking process of associating the classification information for grouping the member B with the captured image (step S10).

次に、マッチング処理部24aは、建築物に全ての部材Bが取り付けられたか否かを判定する(ステップS11)。全ての部材Bが取り付けられていない場合(ステップS11で“No”)、制御手段20は、処理をステップS1に戻して引き続き映像を取得する。一方、全ての部材Bが取り付けられている場合(ステップS11で“Yes”)、処理を終了する。 Next, the matching processing unit 24a determines whether or not all the members B are attached to the building (step S11). When all the members B are not attached (“No” in step S11), the control means 20 returns the process to step S1 and continues to acquire an image. On the other hand, when all the members B are attached (“Yes” in step S11), the process ends.

[実施例]
図2に示すように、ダクトB0に三つのダクトBa,Bb,Bcを取り付ける施工を例にとり、第1実施形態に係る施工支援システムの動作について説明する。図2では、取り付け後の状態を仮想線で表している。図2の施工における三次元モデルEを図4に示す。三次元モデルEは、ダクトB0(図2参照)に対応するエレメントe1と、ダクトBa,Bb,Bc(図2参照)に対応するエレメントe2,e3,e4を有する。
[Example]
As shown in FIG. 2, the operation of the construction support system according to the first embodiment will be described by taking as an example the construction in which three ducts Ba, Bb, and Bc are attached to the duct B0. In FIG. 2, the state after mounting is represented by a virtual line. The three-dimensional model E in the construction of FIG. 2 is shown in FIG. The three-dimensional model E has an element e1 corresponding to the duct B0 (see FIG. 2) and elements e2, e3, e4 corresponding to the ducts Ba, Bb, Bc (see FIG. 2).

図5に示すように、時刻t1の時点で紙面右側にいた作業員S1が紙面左側に移動し、時刻t3の時点でダクトBaの近くに移動したとする。また、図6に示すように、作業員S1は、時刻t4の時点でダクトBaを持ち上げて、時刻t6の時点でダクトB0にダクトBaを取り付けたとする。 As shown in FIG. 5, it is assumed that the worker S1 who was on the right side of the paper at the time t1 moved to the left side of the paper and moved near the duct Ba at the time t3. Further, as shown in FIG. 6, it is assumed that the worker S1 lifts the duct Ba at the time t4 and attaches the duct Ba to the duct B0 at the time t6.

この場合のカメラ2の撮影画像、生成した三次元形状データ、および三次元モデルと三次元形状データとの比較結果は、図7に示す通りであったとする。図7に示すように、時刻t1,t2の撮影画像F11,F12にはダクトBaが映っておらず、時刻t3〜t6の撮影画像F13〜F16にはダクトBaが映っている。また、時刻t1,t2の三次元形状データG1にはダクトBaが含まれておらず、時刻t3〜t6の三次元形状データG3〜G6にはダクトBaが含まれている。また、三次元モデルと三次元形状データとの比較結果は、ダクトBaを取り付ける前の時刻t1〜t5ではエレメントe2の比較結果が不一致であり、ダクトBaを取り付けた時刻t6になってエレメントe2の比較結果が一致している。 It is assumed that the captured image of the camera 2 in this case, the generated three-dimensional shape data, and the comparison result between the three-dimensional model and the three-dimensional shape data are as shown in FIG. As shown in FIG. 7, the duct Ba is not reflected in the captured images F11 and F12 at times t1 and t2, and the duct Ba is reflected in the captured images F13 to F16 at times t3 to t6. Further, the three-dimensional shape data G1 at times t1 and t2 does not include the duct Ba, and the three-dimensional shape data G3 to G6 at times t3 to t6 include the duct Ba. Further, as for the comparison result between the three-dimensional model and the three-dimensional shape data, the comparison result of the element e2 does not match at the times t1 to t5 before the duct Ba is attached, and the time t6 when the duct Ba is attached is the time t6 of the element e2. The comparison results are in agreement.

この場合、第一紐付け処理部24bは、ダクトBaがダクトB0に取り付けられた時刻t6よりも過去(時刻t6も含む)の三次元形状データG1〜G6を参照し、各々の三次
元形状データG1〜G6からダクトBaに対応する領域を抽出する。ここでは、三次元形状データG3〜G6にダクトBaが含まれていたので、三次元形状データG3〜G6の該当する領域が抽出される。そして、第一紐付け処理部24bは、三次元形状データG3〜G6から抽出した領域にダクトBaを識別する情報(エレメントID「e2」)を紐付ける。また、第一紐付け処理部24bは、抽出した領域(つまり、ダクトBa)が撮影される撮影画像F13〜F16にダクトBaを識別する情報(エレメントID「e2」)を紐付ける。
In this case, the first associating processing unit 24b refers to the three-dimensional shape data G1 to G6 before the time t6 when the duct Ba is attached to the duct B0 (including the time t6), and each three-dimensional shape data. The region corresponding to the duct Ba is extracted from G1 to G6. Here, since the duct Ba is included in the three-dimensional shape data G3 to G6, the corresponding region of the three-dimensional shape data G3 to G6 is extracted. Then, the first associating processing unit 24b associates the information (element ID “e2”) for identifying the duct Ba with the region extracted from the three-dimensional shape data G3 to G6. Further, the first association processing unit 24b associates information (element ID “e2”) for identifying the duct Ba with the photographed images F13 to F16 in which the extracted area (that is, the duct Ba) is photographed.

また、第二紐付け処理部24cは、第一紐付け処理部24bと同様の方法により過去の三次元形状データG1〜G6からダクトBaに対応する領域を抽出する。そして、第二紐付け処理部24cは、三次元形状データG3〜G6の抽出した領域の周囲にいる作業員S1をダクトBaの搬送を行った作業員であると特定し、特定した作業員S1の移動経路にダクトBaを識別する情報(エレメントID「e2」)を紐付ける。 Further, the second tying processing unit 24c extracts a region corresponding to the duct Ba from the past three-dimensional shape data G1 to G6 by the same method as the first tying processing unit 24b. Then, the second associating processing unit 24c identifies the worker S1 around the extracted region of the three-dimensional shape data G3 to G6 as the worker who carried the duct Ba, and identifies the worker S1. The information for identifying the duct Ba (element ID "e2") is associated with the movement path of.

また、第三紐付け処理部24dは、第一紐付け処理部24bと同様の方法により過去の三次元形状データG1〜G6からダクトBaに対応する領域を抽出する。そして、第三紐付け処理部24dは、三次元形状データG3〜G6の抽出した領域が撮影される撮影画像F13〜F16にダクトBaをグループ分けする分類情報(例えば、「空調ダクト」)を紐付ける。 Further, the third association processing unit 24d extracts a region corresponding to the duct Ba from the past three-dimensional shape data G1 to G6 by the same method as the first association processing unit 24b. Then, the third linking processing unit 24d links the classification information (for example, "air conditioning duct") for grouping the ducts Ba into the captured images F13 to F16 in which the extracted regions of the three-dimensional shape data G3 to G6 are photographed. wear.

以降では、図8に示すように、作業員S1がダクトBbをダクトBaに取り付けた時点でダクトBbに関する情報を過去の三次元形状データや撮影画像に紐付ける処理を行う。また、同様にして、図9に示すように、作業員S1がダクトBcをダクトBbに取り付けた時点でダクトBcに関する情報を過去の三次元形状データや撮影画像に紐付ける処理を行う。 After that, as shown in FIG. 8, when the worker S1 attaches the duct Bb to the duct Ba, the process of associating the information about the duct Bb with the past three-dimensional shape data and the captured image is performed. Further, in the same manner, as shown in FIG. 9, when the worker S1 attaches the duct Bc to the duct Bb, the process of associating the information about the duct Bc with the past three-dimensional shape data and the captured image is performed.

以上のように、第1実施形態に係る施工支援システム1は、部材Bを識別する情報を用いて過去の三次元形状データや撮影画像を検索することによって、作業完了後に当該部材Bの施工中の三次元形状データや撮影画像を確認することができる。
また、第1実施形態に係る施工支援システム1は、部材Bを識別する情報を用いて検索することによって、作業完了後に当該部材Bの施工中の移動経路を確認することができる。
その為、完成後に施工ミスが発覚した場合に、当該部材Bの施工を担当した作業員Sや原因を早期に特定できる。
As described above, the construction support system 1 according to the first embodiment is constructing the member B after the work is completed by searching the past three-dimensional shape data and the photographed image using the information for identifying the member B. You can check the 3D shape data and captured images of.
Further, the construction support system 1 according to the first embodiment can confirm the movement route of the member B during construction after the work is completed by searching using the information for identifying the member B.
Therefore, when a construction error is discovered after completion, the worker S in charge of the construction of the member B and the cause can be identified at an early stage.

[第2実施形態]
<第2実施形態に係る施工支援システムの構成>
図10を参照して、第2実施形態に係る施工支援システム101の構成について説明する。施工支援システム101は、作業員Sに装着するのが三次元レーザースキャナ102に変更されている。また、施工支援装置103は、記憶手段10がスキャナ情報記憶部113を備え、さらに、制御手段20がスキャナ情報処理部122を備える。
[Second Embodiment]
<Structure of construction support system according to the second embodiment>
The configuration of the construction support system 101 according to the second embodiment will be described with reference to FIG. The construction support system 101 is changed to the three-dimensional laser scanner 102 to be attached to the worker S. Further, in the construction support device 103, the storage means 10 includes the scanner information storage unit 113, and the control means 20 includes the scanner information processing unit 122.

三次元レーザースキャナ102は、レーザー光を対象物(ここでは、特に建築設備の各パーツ)に照射し、反射光が戻ってくる時間とレーザーの照射角度から作業員Sの周囲にある対象物の三次元座標(点群データ)を取得する。 The three-dimensional laser scanner 102 irradiates the object (here, each part of the building equipment in particular) with the laser beam, and the object around the worker S is determined by the time when the reflected light returns and the laser irradiation angle. Acquire 3D coordinates (point cloud data).

スキャナ情報記憶部113には、三次元レーザースキャナ102によって取得した対象物の三次元座標(点群データ)を処理した情報が記憶されている。スキャナ情報記憶部113に記憶される情報には、作業員Sの周囲にある対象物(ここでは、特に建築設備の各パーツ)の三次元形状データや三次元レーザースキャナ102の動きが含まれる。 The scanner information storage unit 113 stores information processed by processing the three-dimensional coordinates (point cloud data) of the object acquired by the three-dimensional laser scanner 102. The information stored in the scanner information storage unit 113 includes three-dimensional shape data of an object (here, each part of a building facility in particular) around the worker S and the movement of the three-dimensional laser scanner 102.

スキャナ情報処理部122は、三次元レーザースキャナ102によって取得した対象物の三次元座標(点群データ)を処理する機能である。スキャナ情報処理部122は、スキャナ位置・姿勢推定部122aと、三次元形状データ生成部122bとを有する。
スキャナ位置・姿勢推定部122aは、取得した対象物の三次元座標(点群データ)から三次元レーザースキャナ102の位置や静止を作業の進行とともに推定する。
三次元形状データ生成部122bは、取得した対象物の三次元座標(点群データ)を点群処理することによって三次元形状データを作業の進行とともに生成する。
The scanner information processing unit 122 is a function of processing the three-dimensional coordinates (point cloud data) of the object acquired by the three-dimensional laser scanner 102. The scanner information processing unit 122 has a scanner position / orientation estimation unit 122a and a three-dimensional shape data generation unit 122b.
The scanner position / orientation estimation unit 122a estimates the position and stillness of the three-dimensional laser scanner 102 from the acquired three-dimensional coordinates (point cloud data) of the object as the work progresses.
The three-dimensional shape data generation unit 122b generates three-dimensional shape data as the work progresses by performing point cloud processing on the acquired three-dimensional coordinates (point cloud data) of the object.

以上のように、第2実施形態に係る施工支援システム101によっても、第1実施形態と略同等の効果を奏することができる。 As described above, the construction support system 101 according to the second embodiment can also achieve substantially the same effect as that of the first embodiment.

[変形例]
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、特許請求の範囲の趣旨を変えない範囲で実施することができる。各実施形態の変形例は、例えば以下に示すものである。
[Modification example]
Although the embodiments of the present invention have been described above, the present invention is not limited to this, and can be carried out within a range that does not change the gist of the claims. Modifications of each embodiment are shown below, for example.

第1実施形態の施工支援システム1では、カメラ2としてビデオカメラを想定し、1秒間に数十枚の画像(フレームとも呼ぶ)を撮影する場合を例示していた。しかしながら、カメラ2による撮影方法はこれに限定されない。例えば、作業員Sの両手にマーカを付しておき、作業員Sの両手に付けられた2つのマーカをAND認識したときに自動撮影(イベントドリブン的な撮影)を行ってもよい。この撮影方法は、「作業員の両手が映像に映る」ということは何らかの作業(イベント)を行っている時であるという考え方によるものである。この場合、写真データが膨大になりすぎない利点がある。 In the construction support system 1 of the first embodiment, a case where a video camera is assumed as the camera 2 and several tens of images (also referred to as frames) are taken per second has been illustrated. However, the shooting method by the camera 2 is not limited to this. For example, markers may be attached to both hands of the worker S, and automatic shooting (event-driven shooting) may be performed when the two markers attached to both hands of the worker S are AND-recognized. This shooting method is based on the idea that "both hands of the worker are reflected in the image" is when some work (event) is being performed. In this case, there is an advantage that the photographic data does not become too large.

また、第1実施形態では、第一紐付け処理部24bによって、抽出した領域が撮影される撮影画像に当該部材Bを識別する情報(例えば、エレメントID)を紐付けていた。しかしながら、当該部材Bを識別する情報(例えば、エレメントID)と共に抽出した領域が写っている位置情報を撮影画像に紐付けてもよい。これにより、一つの撮影画像に複数の部材Bが写っている場合に、該当する部材Bの特定が容易になる。 Further, in the first embodiment, the first associating processing unit 24b associates the extracted area with the photographed image in which the member B is identified (for example, the element ID). However, the position information in which the extracted region is shown together with the information for identifying the member B (for example, the element ID) may be associated with the captured image. As a result, when a plurality of members B are shown in one captured image, it becomes easy to identify the corresponding member B.

また、第1実施形態で説明した施工支援システム1と第2実施形態で説明した施工支援システム101との技術とを組み合わせることも可能である。例えば、作業員Sは、カメラ2と三次元レーザースキャナ102の両方を装着してもよい。 It is also possible to combine the techniques of the construction support system 1 described in the first embodiment and the construction support system 101 described in the second embodiment. For example, the worker S may be equipped with both the camera 2 and the three-dimensional laser scanner 102.

1,101 施工支援システム
2 カメラ
3,103 施工支援装置
11 施工計画情報記憶部
12 撮影画像記憶部
13 SfM情報記憶部
14 作業員情報記憶部
15 部材情報記憶部
21 画像取得部
22 SfM処理部
22a カメラ位置・姿勢推定部
22b 三次元形状データ生成部
23 移動経路算出部
24 紐付け処理部
24a マッチング処理部
24b 第一紐付け処理部
24c 第二紐付け処理部
24d 第三紐付け処理部
25 タグ処理部
25a 部材特定部
25b 位置補正部
26 表示制御部
26a 紐付け情報表示部
27 学習用データ収集部
102 三次元レーザースキャナ
1,101 Construction support system 2 Camera 3,103 Construction support device 11 Construction plan information storage unit 12 Photographed image storage unit 13 SfM information storage unit 14 Worker information storage unit 15 Member information storage unit 21 Image acquisition unit 22 SfM processing unit 22a Camera position / orientation estimation unit 22b 3D shape data generation unit 23 Movement path calculation unit 24 Linking processing unit 24a Matching processing unit 24b First linking processing unit 24c Second linking processing unit 24d Third linking processing unit 25 tags Processing unit 25a Member identification unit 25b Position correction unit 26 Display control unit 26a Linking information display unit 27 Learning data collection unit 102 Three-dimensional laser scanner

Claims (9)

建築設備を構成する部材を建築物に取り付ける施工を支援する施工支援システムであって、
作業員に装着されたカメラと、
前記施工を支援する施工支援装置と、を備え、
前記カメラは、作業空間で作業を行う前記作業員の作業内容を撮影し、
前記施工支援装置は、
前記部材を取り付けた後の前記作業空間内の状態を示す情報である三次元モデルを記憶する記憶部と、
前記カメラで撮影した撮影画像を用いて、前記作業空間を三次元形状化した三次元形状データを作業の進行とともに生成する三次元形状データ生成部と、
前記三次元モデルと特定時刻の前記三次元形状データとを比較し、新たに一致した取付完了部材があるか否かを判定するマッチング処理部と、
新たに一致した前記取付完了部材がある場合に、前記特定時刻よりも過去の三次元形状データにおける当該取付完了部材に対応する領域を検出し、検出した前記三次元形状データの領域および当該領域が撮影される撮影画像の少なくとも何れか一方に前記取付完了部材を識別する取付完了部材識別情報を紐付ける第一紐付け処理部と、を備える、
ことを特徴とする施工支援システム。
It is a construction support system that supports the construction of attaching the members that make up the building equipment to the building.
The camera attached to the worker and
Equipped with a construction support device that supports the construction
The camera captures the work contents of the worker who works in the work space.
The construction support device is
A storage unit that stores a three-dimensional model that is information indicating a state in the work space after the member is attached, and a storage unit.
A three-dimensional shape data generation unit that generates three-dimensional shape data obtained by shaping the work space into a three-dimensional shape as the work progresses, using the captured image taken by the camera.
A matching processing unit that compares the three-dimensional model with the three-dimensional shape data at a specific time and determines whether or not there is a newly matched mounting completed member.
When there is a newly matched mounting completed member, a region corresponding to the mounting completed member in the three-dimensional shape data earlier than the specific time is detected, and the detected region of the three-dimensional shape data and the region are A first associating processing unit for associating attachment completion member identification information for identifying the attachment completion member with at least one of the captured images to be photographed is provided.
A construction support system characterized by this.
前記作業員の時間の経過に伴う位置を算出する移動経路算出部と、
新たに一致した前記取付完了部材があった場合に、前記特定時刻よりも過去の三次元形状データにおける当該取付完了部材に対応する領域を検出し、検出した前記三次元形状データの領域の周囲に居る前記作業員の移動経路に前記取付完了部材識別情報を紐付ける第二紐付け処理部と、を備える、
ことを特徴とする請求項1に記載の施工支援システム。
A movement route calculation unit that calculates the position of the worker over time, and
When there is a newly matched attachment completed member, a region corresponding to the attachment completed member in the three-dimensional shape data earlier than the specific time is detected, and around the detected region of the three-dimensional shape data. It is provided with a second linking processing unit that links the mounting completed member identification information to the moving path of the worker.
The construction support system according to claim 1, wherein the construction support system is characterized in that.
前記移動経路算出部は、前記撮影画像を写真測量技術による三次元合成処理した情報または、前記作業員が別途装着する三次元レーザースキャナから出力される情報を点群処理した情報を用いて算出する、
ことを特徴とする請求項2に記載の施工支援システム。
The movement path calculation unit calculates using information obtained by three-dimensionally synthesizing the captured image by photogrammetry technology or information output from a three-dimensional laser scanner separately attached by the worker, using point cloud processing information. ,
The construction support system according to claim 2, wherein the construction support system is characterized in that.
前記部材には、当該部材を特定可能な部材識別情報が記載されており、
前記マッチング処理部は、前記撮影画像または前記三次元形状データに含まれる前記部材識別情報を読み取り、読み取った前記部材識別情報を比較対象の特定に用いる、
ことを特徴とする請求項1ないし請求項3の何れか一項に記載の施工支援システム。
Member identification information that can identify the member is described in the member.
The matching processing unit reads the member identification information included in the captured image or the three-dimensional shape data, and uses the read member identification information to identify the comparison target.
The construction support system according to any one of claims 1 to 3, wherein the construction support system is characterized in that.
前記部材には、当該部材を特定可能な部材識別情報が表示されており、
前記マッチング処理部は、前記撮影画像または前記三次元形状データに含まれる前記部材識別情報を読み取り、読み取った前記部材識別情報を前記三次元形状データの位置の補正に用いる、
ことを特徴とする請求項1ないし請求項4の何れか一項に記載の施工支援システム。
Member identification information that can identify the member is displayed on the member.
The matching processing unit reads the member identification information included in the captured image or the three-dimensional shape data, and uses the read member identification information to correct the position of the three-dimensional shape data.
The construction support system according to any one of claims 1 to 4, wherein the construction support system is characterized in that.
建築設備を構成する部材を建築物に取り付ける施工を支援する施工支援装置であって、
前記部材を取り付けた後の作業空間内の状態を示す情報である三次元モデルを記憶する記憶部と、
作業員に装着されたカメラで撮影した撮影画像を用いて、前記作業空間を三次元形状化した三次元形状データを作業の進行とともに生成する三次元形状データ生成部と、
前記三次元モデルと特定時刻の前記三次元形状データとを比較し、新たに一致した取付完了部材があるか否かを判定するマッチング処理部と、
新たに一致した前記取付完了部材がある場合に、前記特定時刻よりも過去の三次元形状データにおける当該取付完了部材に対応する領域を検出し、検出した前記三次元形状データの領域および当該領域が撮影される撮影画像の少なくとも何れか一方に前記取付完了部材を識別する取付完了部材識別情報を紐付ける第一紐付け処理部と、を備える、
ことを特徴とする施工支援装置。
It is a construction support device that supports the construction of attaching the members that make up the building equipment to the building.
A storage unit that stores a three-dimensional model, which is information indicating the state in the work space after the member is attached,
A three-dimensional shape data generation unit that generates three-dimensional shape data obtained by shaping the work space into a three-dimensional shape as the work progresses, using images taken by a camera attached to the worker.
A matching processing unit that compares the three-dimensional model with the three-dimensional shape data at a specific time and determines whether or not there is a newly matched mounting completed member.
When there is a newly matched mounting completed member, a region corresponding to the mounting completed member in the three-dimensional shape data earlier than the specific time is detected, and the detected region of the three-dimensional shape data and the region are A first associating processing unit for associating attachment completion member identification information for identifying the attachment completion member with at least one of the captured images to be photographed is provided.
A construction support device characterized by this.
建築設備を構成する部材を建築物に取り付ける施工を支援する施工支援システムであって、
作業員に装着されたカメラと、
前記施工を支援する施工支援装置と、を備え、
前記カメラは、作業空間で作業を行う前記作業員の作業内容を撮影し、
前記施工支援装置は、
前記カメラで撮影した撮影画像を用いて、前記作業空間を三次元形状化した三次元形状データを作業の進行とともに生成する三次元形状データ生成部と、
写真測量技術による三次元合成処理を利用して前記三次元形状データから前記作業員の位置を算出する移動経路算出部と、を備える、
ことを特徴とする施工支援システム。
It is a construction support system that supports the construction of attaching the members that make up the building equipment to the building.
The camera attached to the worker and
Equipped with a construction support device that supports the construction
The camera captures the work contents of the worker who works in the work space.
The construction support device is
A three-dimensional shape data generation unit that generates three-dimensional shape data obtained by shaping the work space into a three-dimensional shape as the work progresses, using the captured image taken by the camera.
It is provided with a movement route calculation unit that calculates the position of the worker from the three-dimensional shape data by using a three-dimensional composition process by photogrammetry technology.
A construction support system characterized by this.
建築設備を構成する部材を建築物に取り付ける施工を支援する施工支援システムであって、
作業員に装着されたカメラと、
前記施工を支援する施工支援装置と、を備え、
前記カメラは、作業空間で作業を行う前記作業員の作業内容を撮影し、
前記施工支援装置は、
前記部材を取り付けた後の前記作業空間内の状態を示す情報である三次元モデルを記憶する記憶部と、
前記カメラで撮影した撮影画像を用いて、前記作業空間を三次元形状化した三次元形状データを作業の進行とともに生成する三次元形状データ生成部と、
前記三次元モデルと特定時刻の前記三次元形状データとを比較し、新たに一致した取付完了部材があるか否かを判定するマッチング処理部と、
新たに一致した前記取付完了部材がある場合に、前記特定時刻よりも過去の三次元形状データにおける当該取付完了部材に対応する領域を検出し、検出した前記三次元形状データの領域が撮影される撮影画像に前記取付完了部材をグループ分けする分類情報を紐付ける第三紐付け処理部と、
前記分類情報ごとに前記撮影画像を収集する学習用データ収集部と、を備える、
ことを特徴とする施工支援システム。
It is a construction support system that supports the construction of attaching the members that make up the building equipment to the building.
The camera attached to the worker and
Equipped with a construction support device that supports the construction
The camera captures the work contents of the worker who works in the work space.
The construction support device is
A storage unit that stores a three-dimensional model that is information indicating a state in the work space after the member is attached, and a storage unit.
A three-dimensional shape data generation unit that generates three-dimensional shape data obtained by shaping the work space into a three-dimensional shape as the work progresses, using the captured image taken by the camera.
A matching processing unit that compares the three-dimensional model with the three-dimensional shape data at a specific time and determines whether or not there is a newly matched mounting completed member.
When there is a newly matched mounting completed member, a region corresponding to the mounting completed member in the three-dimensional shape data earlier than the specific time is detected, and the detected region of the three-dimensional shape data is photographed. A third linking processing unit that links the captured image with classification information that groups the mounting completed members,
A learning data collecting unit that collects the captured image for each of the classification information is provided.
A construction support system characterized by this.
建築設備を構成する部材を建築物に取り付ける施工を支援する施工支援システムであって、
作業員に装着された三次元レーザースキャナと、
前記施工を支援する施工支援装置と、を備え、
前記三次元レーザースキャナは、作業空間内の点群データを取得し、
前記施工支援装置は、
前記部材を取り付けた後の前記作業空間内の状態を示す情報である三次元モデルを記憶する記憶部と、
前記三次元レーザースキャナで取得した点群データを用いて、前記作業空間を三次元形状化した三次元形状データを作業の進行とともに生成する三次元形状データ生成部と、
前記三次元モデルと特定時刻の前記三次元形状データとを比較し、新たに一致した取付完了部材があるか否かを判定するマッチング処理部と、
新たに一致した前記取付完了部材がある場合に、前記特定時刻よりも過去の三次元形状
データにおける当該取付完了部材に対応する領域を検出し、検出した前記三次元形状データの領域に前記取付完了部材を識別する取付完了部材識別情報を紐付ける第一紐付け処理部と、を備える、
ことを特徴とする施工支援システム。
It is a construction support system that supports the construction of attaching the members that make up the building equipment to the building.
A 3D laser scanner mounted on the worker and
Equipped with a construction support device that supports the construction
The three-dimensional laser scanner acquires point cloud data in the work space and
The construction support device is
A storage unit that stores a three-dimensional model that is information indicating a state in the work space after the member is attached, and a storage unit.
Using the point cloud data acquired by the three-dimensional laser scanner, a three-dimensional shape data generation unit that generates three-dimensional shape data obtained by shaping the work space into three dimensions as the work progresses.
A matching processing unit that compares the three-dimensional model with the three-dimensional shape data at a specific time and determines whether or not there is a newly matched mounting completed member.
When there is a newly matched attachment complete member, a region corresponding to the attachment complete member in the three-dimensional shape data earlier than the specific time is detected, and the attachment completion is performed in the detected three-dimensional shape data region. A first linking processing unit for linking member identification information is provided.
A construction support system characterized by this.
JP2019048252A 2019-03-15 2019-03-15 Construction support system and construction support device Active JP7240573B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019048252A JP7240573B2 (en) 2019-03-15 2019-03-15 Construction support system and construction support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019048252A JP7240573B2 (en) 2019-03-15 2019-03-15 Construction support system and construction support device

Publications (2)

Publication Number Publication Date
JP2020149546A true JP2020149546A (en) 2020-09-17
JP7240573B2 JP7240573B2 (en) 2023-03-16

Family

ID=72430616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019048252A Active JP7240573B2 (en) 2019-03-15 2019-03-15 Construction support system and construction support device

Country Status (1)

Country Link
JP (1) JP7240573B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022101972A1 (en) * 2020-11-10 2022-05-19 三菱電機株式会社 Information management system and information management method
JP7125524B1 (en) 2021-04-09 2022-08-24 株式会社イクシス Management support system for buildings or civil engineering structures
WO2023007889A1 (en) * 2021-07-30 2023-02-02 株式会社クボタ Work management device, work management method, and work-in-progress estimation model
CN116257926A (en) * 2023-05-09 2023-06-13 宇动源(北京)信息技术有限公司 BIM-based Internet of things data binding method, device, equipment and storage medium
CN116703127A (en) * 2023-08-03 2023-09-05 山东青建智慧建筑科技有限公司 Building construction supervision method and system based on BIM

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130155058A1 (en) * 2011-12-14 2013-06-20 The Board Of Trustees Of The University Of Illinois Four-dimensional augmented reality models for interactive visualization and automated construction progress monitoring
US20150310135A1 (en) * 2014-04-24 2015-10-29 The Board Of Trustees Of The University Of Illinois 4d vizualization of building design and construction modeling with photographs
JP2016045868A (en) * 2014-08-26 2016-04-04 大成建設株式会社 Building survey support apparatus
JP2017091091A (en) * 2015-11-06 2017-05-25 三菱電機株式会社 Work information generation device
JP2017191351A (en) * 2016-04-11 2017-10-19 株式会社日立製作所 Work support system and method
JP2018116571A (en) * 2017-01-19 2018-07-26 株式会社大林組 Management system, management method, and management program
JP2019016016A (en) * 2017-07-03 2019-01-31 高砂熱学工業株式会社 Registration program, portable terminal, registration method, server device, management program and management method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130155058A1 (en) * 2011-12-14 2013-06-20 The Board Of Trustees Of The University Of Illinois Four-dimensional augmented reality models for interactive visualization and automated construction progress monitoring
US20150310135A1 (en) * 2014-04-24 2015-10-29 The Board Of Trustees Of The University Of Illinois 4d vizualization of building design and construction modeling with photographs
JP2016045868A (en) * 2014-08-26 2016-04-04 大成建設株式会社 Building survey support apparatus
JP2017091091A (en) * 2015-11-06 2017-05-25 三菱電機株式会社 Work information generation device
JP2017191351A (en) * 2016-04-11 2017-10-19 株式会社日立製作所 Work support system and method
JP2018116571A (en) * 2017-01-19 2018-07-26 株式会社大林組 Management system, management method, and management program
JP2019016016A (en) * 2017-07-03 2019-01-31 高砂熱学工業株式会社 Registration program, portable terminal, registration method, server device, management program and management method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022101972A1 (en) * 2020-11-10 2022-05-19 三菱電機株式会社 Information management system and information management method
JP7125524B1 (en) 2021-04-09 2022-08-24 株式会社イクシス Management support system for buildings or civil engineering structures
WO2022215724A1 (en) * 2021-04-09 2022-10-13 株式会社イクシス Management assistance system for building or civil-engineering structure
JP2022161411A (en) * 2021-04-09 2022-10-21 株式会社イクシス Management assistance system for building or civil-engineering structure
WO2023007889A1 (en) * 2021-07-30 2023-02-02 株式会社クボタ Work management device, work management method, and work-in-progress estimation model
CN116257926A (en) * 2023-05-09 2023-06-13 宇动源(北京)信息技术有限公司 BIM-based Internet of things data binding method, device, equipment and storage medium
CN116257926B (en) * 2023-05-09 2023-08-22 宇动源(北京)信息技术有限公司 BIM-based Internet of things data binding method, device, equipment and storage medium
CN116703127A (en) * 2023-08-03 2023-09-05 山东青建智慧建筑科技有限公司 Building construction supervision method and system based on BIM
CN116703127B (en) * 2023-08-03 2024-05-14 山东青建智慧建筑科技有限公司 Building construction supervision method and system based on BIM

Also Published As

Publication number Publication date
JP7240573B2 (en) 2023-03-16

Similar Documents

Publication Publication Date Title
JP7240573B2 (en) Construction support system and construction support device
US10674135B2 (en) Handheld portable optical scanner and method of using
Golparvar-Fard et al. Visualization of construction progress monitoring with 4D simulation model overlaid on time-lapsed photographs
Golparvar-Fard et al. D4AR–a 4-dimensional augmented reality model for automating construction progress monitoring data collection, processing and communication
JP6510247B2 (en) Survey data processing apparatus, survey data processing method and program
JP6700580B2 (en) Situation determination system, situation determination method, and situation determination program
CN110148196A (en) A kind of image processing method, device and relevant device
JP6353175B1 (en) Automatically combine images using visual features
JP7456536B2 (en) Mobile object tracking system, mobile object tracking method and program
EP2987322A1 (en) Handheld portable optical scanner and method of using
CN111105495A (en) Laser radar mapping method and system fusing visual semantic information
JP2017194787A (en) Image processing device and area tracking program
US11734338B2 (en) Image search in walkthrough videos
JP2012159958A (en) Moving object tracking device
JP7379065B2 (en) Information processing device, information processing method, and program
CN116188703B (en) Building engineering visual management system based on BIM
JP2007122247A (en) Automatic landmark information production method and system
EP4317910A1 (en) Computer program, model generation method, estimation method and estimation device
KR102029741B1 (en) Method and system of tracking object
JP5707238B2 (en) Image search apparatus and image search system
JP6943183B2 (en) Positioning device, position identification method, position identification program and camera device
CN110232558A (en) Engineering project progress msg monitoring method
JP7102383B2 (en) Road surface image management system and its road surface image management method
CN115132370A (en) Flow adjustment auxiliary method and device based on machine vision and deep learning
CN114329724A (en) Building information model BIM updating method and system based on vision

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230201

R150 Certificate of patent or registration of utility model

Ref document number: 7240573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150