JP7095232B2 - Work support system, work support method and work support program - Google Patents

Work support system, work support method and work support program Download PDF

Info

Publication number
JP7095232B2
JP7095232B2 JP2017102910A JP2017102910A JP7095232B2 JP 7095232 B2 JP7095232 B2 JP 7095232B2 JP 2017102910 A JP2017102910 A JP 2017102910A JP 2017102910 A JP2017102910 A JP 2017102910A JP 7095232 B2 JP7095232 B2 JP 7095232B2
Authority
JP
Japan
Prior art keywords
work
control unit
area
work support
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017102910A
Other languages
Japanese (ja)
Other versions
JP2018197998A (en
Inventor
理史 鈴木
智弥 金子
拓馬 中林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Obayashi Corp
Original Assignee
Obayashi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Obayashi Corp filed Critical Obayashi Corp
Priority to JP2017102910A priority Critical patent/JP7095232B2/en
Publication of JP2018197998A publication Critical patent/JP2018197998A/en
Application granted granted Critical
Publication of JP7095232B2 publication Critical patent/JP7095232B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、構造物の施工現場における作業を支援する作業支援システム、作業支援方法及び作業支援プログラムに関する。 The present invention relates to a work support system, a work support method, and a work support program that support work at a construction site of a structure.

建築物の施工に必要となる作業量、作業時間、コスト、材料、資材、材料や資材の量、必要となる機器の種類や大きさなどを推測するための技術が検討されている(例えば、特許文献1参照)。これらの文献に記載の技術においては、施工補助装置は、施工対象物の画像に基づいて、施工対象物の所定領域の面積を算出し、施工対象物の周辺情報を記憶する。そして、施工対象物の施工に必要となる要素である施工要素を記憶し、所定領域の面積、周辺情報及び施工要素の少なくとも2以上に基づいて、施工対象物の施工特性を算出する。 Techniques for estimating the amount of work required for building construction, work time, cost, materials, materials, amount of materials and materials, type and size of required equipment, etc. are being studied (for example). See Patent Document 1). In the techniques described in these documents, the construction assisting device calculates the area of a predetermined area of the construction target based on the image of the construction target, and stores the peripheral information of the construction target. Then, the construction element, which is an element necessary for the construction of the construction target, is stored, and the construction characteristics of the construction target are calculated based on the area of the predetermined area, the peripheral information, and at least two or more of the construction elements.

また、建設現場では、多様な資機材が用いられている。このような資機材を画像により認識する技術も検討されている(例えば、非特許文献1参照)。この文献に記載の技術においては、資機材が被写体として撮影された画像を機械学習により認識して、資機材を特定する。 In addition, various materials and equipment are used at construction sites. Techniques for recognizing such materials and equipment by images are also being studied (see, for example, Non-Patent Document 1). In the technique described in this document, the material / equipment is specified by recognizing the image taken by the material / equipment as a subject by machine learning.

特開2013-88895号公報Japanese Unexamined Patent Publication No. 2013-88895

株式会社大林組、「ロボティクスコンストラクション02施工現場の無人化を進める」、[online]、[平成29年4月7日検索]、インターネット<https://www.obayashi.co.jp/technofair2016/03robotics/03_02.html>Obayashi Corporation, "Promote unmanned construction site of Robotics Construction 02", [online], [Search on April 7, 2017], Internet <https://www.obayashi.co.jp/technofair2016/03robotics/ 03_02.html>

特許文献1に記載されているように、施工対象範囲の面積により作業量や作業内容が異なる。しかしながら、この文献に記載された技術では、面積を算出する範囲を指定する必要があり、手間がかかる。また、非特許文献1に記載された技術においては、搬入された資機材の種類を特定することを目的としており、このような資機材を用いた作業の作業量や作業内容の評価は想定されていない。 As described in Patent Document 1, the amount of work and the contents of work differ depending on the area of the construction target range. However, in the technique described in this document, it is necessary to specify the range for calculating the area, which is troublesome. Further, in the technique described in Non-Patent Document 1, the purpose is to specify the type of materials and equipment carried in, and it is assumed that the amount of work and the contents of work using such materials and equipment are evaluated. Not.

・上記課題を解決する作業支援システムは、被写体を撮影した撮影画像を生成する撮影部と、資材を用いた作業を評価するための管理情報を記録した管理情報記憶部とに接続された制御部とを備える。そして、前記制御部が、前記撮影部から、作業現場の撮影画像を取得し、前記撮影画像に含まれる作業対象の資材を特定し、前記撮影画像において前記資材が撮影された領域を特定し、前記領域の実面積を算出し、前記実面積及び前記管理情報記憶部に記録された管理情報に基づいて、前記資材を用いた作業の作業評価情報を算出する。これにより、撮影画像に写り込んだ資材に基づいて面積を算出し、この資材に関する作業を効率的に評価することができる。 -The work support system that solves the above problems is a control unit connected to a shooting unit that generates a captured image of the subject and a management information storage unit that records management information for evaluating work using materials. And prepare. Then, the control unit acquires a photographed image of the work site from the photographing unit, identifies the material to be worked included in the photographed image, and identifies the area where the material is photographed in the photographed image. The actual area of the area is calculated, and the work evaluation information of the work using the material is calculated based on the actual area and the management information recorded in the management information storage unit. This makes it possible to calculate the area based on the material reflected in the photographed image and efficiently evaluate the work related to this material.

・上記作業支援システムにおいて、前記制御部が、撮影画像の撮影条件を取得し、前記撮影条件を用いて、前記領域の実面積を算出することが好ましい。これにより、撮影画像に基づいて資材が施工された実面積を算出することができる。 -In the work support system, it is preferable that the control unit acquires the shooting conditions of the shot image and calculates the actual area of the region using the shooting conditions. This makes it possible to calculate the actual area where the material is constructed based on the photographed image.

・上記作業支援システムにおいて、前記制御部が、前記資材に応じた分割粗度を用いて、前記撮影画像を分割した分割画像を生成し、前記分割画像毎に、撮影された資材を特定することが好ましい。これにより、資材の認識精度を考慮して、資材領域を特定するための分割グリッドを生成することができる。 -In the work support system, the control unit generates a divided image obtained by dividing the captured image using the divided roughness according to the material, and specifies the captured material for each divided image. Is preferable. As a result, it is possible to generate a divided grid for specifying the material area in consideration of the recognition accuracy of the material.

・上記作業支援システムにおいて、前記制御部が、前記実面積に基づいて、前記資材を用いた作業の進捗状況を、前記作業評価情報として算出することが好ましい。これにより、撮影画像に基づいて、作業の進捗状況を把握することができる。 -In the work support system, it is preferable that the control unit calculates the progress of work using the material as the work evaluation information based on the actual area. This makes it possible to grasp the progress of the work based on the captured image.

・上記作業支援システムにおいて、前記制御部が、作業対象範囲の出来形マップにおける前記資材の実面積と、前記領域の実面積とを比較した評価結果を、前記作業評価情報として算出することが好ましい。これにより、模範画像との比較により、作業状況を把握することができる。 -In the work support system, it is preferable that the control unit calculates the evaluation result of comparing the actual area of the material and the actual area of the area in the finished map of the work target range as the work evaluation information. .. As a result, the work status can be grasped by comparing with the model image.

・上記作業支援システムにおいて、前記制御部が、作業対象範囲の出来形マップにおける画素毎の資材と、前記撮影画像において前記資材が撮影された領域とを比較し、一致しない資材の画素の位置情報を出力することが好ましい。これにより、資材の配置の的確性を確認することができる。 -In the work support system, the control unit compares the material for each pixel in the finished map of the work target range with the area where the material is photographed in the photographed image, and the position information of the pixels of the materials that do not match. Is preferable to output. This makes it possible to confirm the accuracy of the arrangement of materials.

・上記作業支援システムにおいて、前記制御部が、前記作業対象範囲において特定した資材の面積を算出し、前記面積が判定閾値よりも小さい場合には、警告情報を出力することが好ましい。これにより、資材が配置された面積に基づいて、施工作業の的確性を確認することができる。 -In the work support system, it is preferable that the control unit calculates the area of the material specified in the work target range and outputs warning information when the area is smaller than the determination threshold value. This makes it possible to confirm the accuracy of the construction work based on the area where the materials are arranged.

・上記作業支援システムにおいて、前記制御部が、前記実面積における、前記資材を用いた作業負荷を、前記作業評価情報として算出することが好ましい。これにより、効率的に作業負荷を予測することができる。 -In the work support system, it is preferable that the control unit calculates the work load using the material in the actual area as the work evaluation information. As a result, the workload can be predicted efficiently.

・上記作業支援システムにおいて、前記制御部が、前記撮影画像において、前記資材の劣化状況を特定し、更に、前記劣化状況に応じて、前記作業負荷を算出することが好ましい。これにより、資材の劣化を補修するための作業負荷を予測することができる。 -In the work support system, it is preferable that the control unit identifies the deterioration state of the material in the photographed image, and further calculates the work load according to the deterioration state. This makes it possible to predict the workload for repairing the deterioration of the material.

・上記作業支援システムにおいて、前記制御部が、前記撮影画像において、前記作業の難易度を特定し、更に、前記難易度に応じて、前記作業負荷を算出することが好ましい。これにより、作業の難易度を考慮して作業負荷を予測することができる。 -In the work support system, it is preferable that the control unit specifies the difficulty level of the work in the captured image, and further calculates the work load according to the difficulty level. This makes it possible to predict the workload in consideration of the difficulty of the work.

本発明によれば、構造物の施工現場における作業を支援することができる。 According to the present invention, it is possible to support work at a construction site of a structure.

第1の実施形態における作業支援システムの説明図。Explanatory drawing of the work support system in 1st Embodiment. 第1の実施形態における管理システムの各記憶部に記憶された情報の説明図であって、(a)は学習情報記憶部、(b)は資材情報記憶部、(c)は作業情報記憶部、(d)は評価情報記憶部の説明図。It is explanatory drawing of the information stored in each storage part of the management system in 1st Embodiment, (a) is a learning information storage part, (b) is a material information storage part, (c) is a work information storage part. , (D) is an explanatory diagram of the evaluation information storage unit. 第1の実施形態における処理手順の説明図。Explanatory drawing of the processing procedure in 1st Embodiment. 第1の実施形態における説明図であって、(a)は作業対象の建物、(b)は撮影画像、(c)は撮影条件の説明図。It is explanatory drawing in 1st Embodiment, (a) is a building to work, (b) is a photographed image, (c) is an explanatory diagram of photography conditions. 第1の実施形態における撮影画像の説明図。Explanatory drawing of photographed image in 1st Embodiment. 第2の実施形態における処理手順の説明図。Explanatory drawing of the processing procedure in 2nd Embodiment. 第2の実施形態における処理手順の説明図。Explanatory drawing of the processing procedure in 2nd Embodiment. 第2の実施形態における説明図であって、(a)撮影条件、(b)撮影画像、(c)は資材が異なるグリッドの説明図。It is explanatory drawing in 2nd Embodiment, (a) shooting condition, (b) photographed image, (c) is explanatory drawing of the grid with different materials.

(第1の実施形態)
以下、図1~図5を用いて、建物(構造物)の施工現場において、作業面積に応じて見積り概算金額を算出する作業支援システム、作業支援方法及び作業支援プログラムを具体化した第1の実施形態を説明する。本実施形態では、既存建物の壁面を撮影し、この壁面における作業対象領域の面積を算出する。更に、この面積に応じて、補修作業(資材を用いた施工作業)の見積り概算金額を算出する。ここでは、壁面における作業対象として、特定の資材(例えば、建物の壁面に貼付された外壁タイル等)を用いる。
(First Embodiment)
Hereinafter, using FIGS. 1 to 5, the first work support system, work support method, and work support program for calculating an estimated estimated amount according to the work area at the construction site of a building (structure) are embodied. An embodiment will be described. In this embodiment, the wall surface of an existing building is photographed, and the area of the work target area on this wall surface is calculated. Further, the estimated estimated amount of repair work (construction work using materials) is calculated according to this area. Here, a specific material (for example, an outer wall tile attached to the wall surface of a building) is used as a work target on the wall surface.

図1に示すように、本実施形態の作業支援システムは、ユーザ端末10に接続された管理サーバ20を含んで構成される。
ユーザ端末10は、見積り概算金額を算出する担当者が用いるコンピュータ端末であり、カメラ11、タッチパネルディスプレイ12及び通信部13を備える。
As shown in FIG. 1, the work support system of the present embodiment includes a management server 20 connected to a user terminal 10.
The user terminal 10 is a computer terminal used by a person in charge of calculating an estimated estimated amount of money, and includes a camera 11, a touch panel display 12, and a communication unit 13.

カメラ11は、被写体を撮影する撮影部として機能する。本実施形態では、既存建物について、補修対象の領域(壁面)を撮影した撮影画像を生成する。
タッチパネルディスプレイ12は、各種情報を入力するための入力部として機能するとともに、管理サーバ20から取得した各種情報を出力するための出力部として機能する。
The camera 11 functions as a shooting unit for shooting a subject. In the present embodiment, a photographed image of an area (wall surface) to be repaired is generated for an existing building.
The touch panel display 12 functions as an input unit for inputting various information and also as an output unit for outputting various information acquired from the management server 20.

通信部13は、タッチパネルディスプレイ12に入力された情報を管理サーバ20に送信するとともに、管理サーバ20から各種情報を受信する。
管理サーバ20は、担当者の作業を支援するためのコンピュータシステムである。この管理サーバ20は、制御部21、学習情報記憶部22、資材情報記憶部23、作業情報記憶部24、評価情報記憶部25を備えている。本実施形態では、資材情報記憶部23、作業情報記憶部24が管理情報記憶部として機能する。
The communication unit 13 transmits the information input to the touch panel display 12 to the management server 20, and also receives various information from the management server 20.
The management server 20 is a computer system for supporting the work of the person in charge. The management server 20 includes a control unit 21, a learning information storage unit 22, a material information storage unit 23, a work information storage unit 24, and an evaluation information storage unit 25. In the present embodiment, the material information storage unit 23 and the work information storage unit 24 function as the management information storage unit.

制御部21は、CPU、RAM、ROM等を備え、後述する処理(作業支援段階、画像取得段階、資材予測段階、面積管理段階等の各処理)を行なう。そのための作業支援プログラムを実行することにより、制御部21は、作業支援部211、画像取得部212、資材予測部213、面積管理部214として機能する。 The control unit 21 includes a CPU, RAM, ROM, and the like, and performs processes described later (each process such as a work support stage, an image acquisition stage, a material prediction stage, and an area management stage). By executing the work support program for that purpose, the control unit 21 functions as a work support unit 211, an image acquisition unit 212, a material prediction unit 213, and an area management unit 214.

作業支援部211は、ユーザ端末10を用いた作業を支援する処理を実行する。
画像取得部212は、ユーザ端末10のカメラ11を用いて撮影された撮影画像を取得する処理を実行する。画像取得部212は、撮影画像において、画像歪を修正するための歪パターンを保持している。
The work support unit 211 executes a process of supporting work using the user terminal 10.
The image acquisition unit 212 executes a process of acquiring a captured image captured by the camera 11 of the user terminal 10. The image acquisition unit 212 holds a distortion pattern for correcting image distortion in the captured image.

資材予測部213は、撮影画像に含まれる各領域の資材を予測する処理を実行する。本実施形態では、ディープラーニングによって、撮影画像に含まれる資材を予測する。この資材予測部213は、分割粗度に応じて機械学習した推定モデルを用いて、撮影画像に含まれる資材を予測する。
面積管理部214は、撮影画像において補修作業対象の資材が写っている領域の面積を算出する処理を実行する。
The material prediction unit 213 executes a process of predicting the material of each region included in the captured image. In this embodiment, the materials included in the captured image are predicted by deep learning. The material prediction unit 213 predicts the material contained in the captured image by using the estimation model machine-learned according to the division roughness.
The area management unit 214 executes a process of calculating the area of the area in which the material to be repaired is shown in the photographed image.

図2(a)に示すように、学習情報記憶部22には、資材の予測に用いる識別モデルデータ220が記録される。この識別モデルデータ220は、資材画像について学習を行なった場合に記録される。識別モデルデータ220は、分割粗度、識別モデルに関するデータを含んで構成される。 As shown in FIG. 2A, the learning information storage unit 22 records the discriminative model data 220 used for predicting the material. This discriminative model data 220 is recorded when learning is performed on the material image. The discriminative model data 220 is configured to include data relating to the division roughness and the discriminative model.

分割粗度データ領域には、撮影画像を複数のグリッドに分割する大きさ(画素数)に関するデータが記録される。
識別モデルデータ領域には、資材を認識するためのモデルであって、機械学習(ディープラーニング)における学習結果が記録される。この機械学習においては、ラベリング済みの教師データを用いて、被写体を判定するための識別モデルを生成する。識別モデルを用いることにより、未識別の被写体について、資材種別(資材コード)を予測する。
In the division roughness data area, data regarding the size (number of pixels) of dividing the captured image into a plurality of grids is recorded.
The discriminative model data area is a model for recognizing materials, and learning results in machine learning (deep learning) are recorded. In this machine learning, a discriminative model for determining a subject is generated using the labeled teacher data. By using the discriminative model, the material type (material code) is predicted for the unidentified subject.

図2(b)に示すように、資材情報記憶部23には、補修対象の資材についての資材管理レコード230が記録されている。この資材管理レコード230は、補修対象となる資材が登録された場合に記録される。この資材管理レコード230は、資材コード、資材単価に関するデータを含んで構成される。 As shown in FIG. 2B, the material information storage unit 23 records a material management record 230 for the material to be repaired. This material management record 230 is recorded when the material to be repaired is registered. The material management record 230 is configured to include data related to a material code and a material unit price.

資材コードデータ領域には、各資材を特定するための識別子に関するデータが記録される。
資材単価データ領域には、この資材の単位面積当たりの価格(単価)に関するデータが記録される。
In the material code data area, data regarding an identifier for identifying each material is recorded.
In the material unit price data area, data regarding the price (unit price) per unit area of this material is recorded.

図2(c)に示すように、作業情報記憶部24には、補修対象の資材についての作業管理レコード240が記録されている。この作業管理レコード240は、補修に必要な作業が登録された場合に記録される。この作業管理レコード240は、資材コード、作業種別、作業単価に関するデータを含んで構成される。 As shown in FIG. 2 (c), the work information storage unit 24 records a work management record 240 for the material to be repaired. This work management record 240 is recorded when the work required for repair is registered. The work management record 240 is configured to include data related to a material code, a work type, and a work unit price.

資材コードデータ領域には、補修対象の各資材を特定するための識別子に関するデータが記録される。
作業種別データ領域には、各資材の補修のために必要な作業を特定するための識別子に関するデータが記録される。例えば、タイルの場合には、「貼り替え」等の作業内容が記録されている。
作業単価データ領域には、この作業に要する単位面積当たりの作業単価に関するデータが記録される。
In the material code data area, data regarding an identifier for identifying each material to be repaired is recorded.
In the work type data area, data regarding an identifier for identifying the work required for repairing each material is recorded. For example, in the case of tiles, work contents such as "replacement" are recorded.
In the work unit price data area, data regarding the work unit price per unit area required for this work is recorded.

図2(d)に示すように、評価情報記憶部25には、補修対象の資材についての評価管理レコード250が記録されている。この評価管理レコード250は、補修に必要な作業が登録された場合に記録される。この評価管理レコード250は、評価対象、評価日、資材、面積、概算金額に関するデータを含んで構成される。 As shown in FIG. 2D, the evaluation information storage unit 25 records an evaluation management record 250 for the material to be repaired. This evaluation management record 250 is recorded when the work required for repair is registered. The evaluation management record 250 is configured to include data regarding an evaluation target, an evaluation date, materials, an area, and an estimated amount of money.

評価対象データ領域には、補修作業を特定するための識別子に関するデータが記録される。
評価日データ領域には、概算金額を算出した年月日に関するデータが記録される。
In the evaluation target data area, data regarding an identifier for identifying the repair work is recorded.
In the evaluation date data area, data regarding the date on which the estimated amount is calculated is recorded.

資材データ領域には、補修対象の資材を特定するための識別子(資材コード)に関するデータが記録される。
面積データ領域には、補修対象領域の面積に関するデータが記録される。
概算金額データ領域には、補修作業の見積り概算金額に関するデータが記録される。
In the material data area, data related to an identifier (material code) for identifying the material to be repaired is recorded.
In the area data area, data regarding the area of the area to be repaired is recorded.
In the estimated amount data area, data regarding the estimated estimated amount of repair work is recorded.

(見積もり概算処理)
次に、図3~図5を用いて、作業支援システムにおいて実行される見積もり概算処理について説明する。
ここでは、図4(a)に示すように、建物50の壁面51におけるタイル52を補修する場合を想定する。
まず、図3に示すように、管理サーバ20の制御部21は、対象範囲の撮影処理を実行する(ステップS1-1)。具体的には、担当者は、ユーザ端末10を用いて、補修対象の建物50を撮影する。この場合、ユーザ端末10は、通信部13を介して、カメラ11によって撮影された撮影画像を管理サーバ20に送信する。そして、管理サーバ20の制御部21の画像取得部212は、ユーザ端末10から撮影画像を取得する。
ここでは、図4(b)に示す撮影画像500を取得する。この撮影画像500には、被写体として、建物50の壁面51におけるタイル52の画像が含まれる。
(Estimation estimation processing)
Next, the estimation estimation process executed in the work support system will be described with reference to FIGS. 3 to 5.
Here, as shown in FIG. 4A, it is assumed that the tile 52 on the wall surface 51 of the building 50 is repaired.
First, as shown in FIG. 3, the control unit 21 of the management server 20 executes a shooting process of the target range (step S1-1). Specifically, the person in charge uses the user terminal 10 to take a picture of the building 50 to be repaired. In this case, the user terminal 10 transmits the captured image captured by the camera 11 to the management server 20 via the communication unit 13. Then, the image acquisition unit 212 of the control unit 21 of the management server 20 acquires the captured image from the user terminal 10.
Here, the captured image 500 shown in FIG. 4B is acquired. The captured image 500 includes an image of the tile 52 on the wall surface 51 of the building 50 as a subject.

次に、管理サーバ20の制御部21は、画像の歪み補正処理を実行する(ステップS1-2)。具体的には、制御部21の画像取得部212は、歪パターンを用いて、撮影画像において、カメラ11のレンズにより画像歪みを補正する。 Next, the control unit 21 of the management server 20 executes the image distortion correction process (step S1-2). Specifically, the image acquisition unit 212 of the control unit 21 corrects the image distortion in the captured image by the lens of the camera 11 by using the distortion pattern.

次に、管理サーバ20の制御部21は、判定対象資材の選定処理を実行する(ステップS1-3)。具体的には、制御部21の作業支援部211は、ユーザ端末10のタッチパネルディスプレイ12に、資材選択画面を出力する。この画面には、撮影画像において検出する資材の入力欄が設けられている。例えば、建物50の壁面51のタイル52を補修する場合には、資材選択画面の入力欄に「タイル」を設定する。 Next, the control unit 21 of the management server 20 executes a determination target material selection process (step S1-3). Specifically, the work support unit 211 of the control unit 21 outputs a material selection screen to the touch panel display 12 of the user terminal 10. This screen is provided with an input field for materials to be detected in the captured image. For example, when repairing the tile 52 on the wall surface 51 of the building 50, "tile" is set in the input field of the material selection screen.

次に、管理サーバ20の制御部21は、算定対象範囲の入力処理を実行する(ステップS1-4)。具体的には、制御部21の作業支援部211は、ユーザ端末10のタッチパネルディスプレイ12に、範囲入力画面を出力する。この範囲入力画面には、撮影場所から算定対象範囲(ここでは、被写体としての建物の壁面)までの距離、視線方向に対する被写体の角度及び被写体の幅長の撮影条件入力欄が設けられている。なお、撮影条件(距離、視角度及び幅長)については、3つの変数の内の2つを入力することにより、残りの1つの変数を算出するようにしてもよい。 Next, the control unit 21 of the management server 20 executes the input processing of the calculation target range (step S1-4). Specifically, the work support unit 211 of the control unit 21 outputs a range input screen to the touch panel display 12 of the user terminal 10. This range input screen is provided with shooting condition input fields for the distance from the shooting location to the calculation target range (here, the wall surface of the building as the subject), the angle of the subject with respect to the line-of-sight direction, and the width of the subject. Regarding the shooting conditions (distance, viewing angle, width and length), the remaining one variable may be calculated by inputting two of the three variables.

図4(c)は、建物50を上から見た図である。ここでは、位置55から壁面51を撮影する場合を想定する。この場合、撮影条件入力欄に、撮影場所から算定対象範囲(被写体)までの距離L1、視線方向に対する算定対象範囲の角度r1、算定対象範囲の幅長L2を入力する。 FIG. 4 (c) is a view of the building 50 as viewed from above. Here, it is assumed that the wall surface 51 is photographed from the position 55. In this case, the distance L1 from the shooting location to the calculation target range (subject), the angle r1 of the calculation target range with respect to the line-of-sight direction, and the width length L2 of the calculation target range are input in the shooting condition input field.

次に、管理サーバ20の制御部21は、分割粗度の特定処理を実行する(ステップS1-5)。具体的には、制御部21の作業支援部211は、ユーザ端末10のタッチパネルディスプレイ12に、分割粗度画面を出力する。この分割粗度画面には、撮影画像を分割するグリッドのサイズを設定するための入力欄が設けられている。例えば、比較的小さな領域で資材を認識できる場合には、分割粗度を小さくする。この場合には、撮影画像を分割するグリッドを小さくして、資材領域の端部においてもグリッドを対応させることができ、面積の算出時の誤差を小さくすることができる。一方、比較的大きな領域を用いることにより、的確に資材を認識できる場合には、分割粗度を大きくする。この場合には、資材領域の端部においてグリッドとのずれが大きくなり、面積の算出時の誤差は大きくなるが、資材の認識精度を向上させることができる。そして、作業支援部211は、分割粗度画面に入力された分割粗度を取得する。 Next, the control unit 21 of the management server 20 executes the division roughness specifying process (step S1-5). Specifically, the work support unit 211 of the control unit 21 outputs a division roughness screen to the touch panel display 12 of the user terminal 10. This division roughness screen is provided with an input field for setting the size of the grid for dividing the captured image. For example, if the material can be recognized in a relatively small area, the division roughness is reduced. In this case, the grid that divides the captured image can be made smaller so that the grid can be made to correspond even at the end of the material area, and the error in calculating the area can be reduced. On the other hand, if the material can be recognized accurately by using a relatively large area, the division roughness is increased. In this case, the deviation from the grid becomes large at the end of the material area, and the error in calculating the area becomes large, but the recognition accuracy of the material can be improved. Then, the work support unit 211 acquires the division roughness input to the division roughness screen.

次に、管理サーバ20の制御部21は、分割粗度に応じて推定モデルの選定処理を実行する(ステップS1-6)。具体的には、制御部21の資材予測部213は、撮影画像を、指定された分割粗度に応じた画素数で構成されたグリッドで、撮影画像を分割する。そして、資材予測部213は、学習情報記憶部22において、分割粗度に応じた推定モデルを選定する。 Next, the control unit 21 of the management server 20 executes the estimation model selection process according to the division roughness (step S1-6). Specifically, the material prediction unit 213 of the control unit 21 divides the captured image into a grid composed of the number of pixels corresponding to the designated division roughness. Then, the material prediction unit 213 selects an estimation model according to the division roughness in the learning information storage unit 22.

図5に示すように、撮影画像500において、指定された分割粗度で、複数のグリッド501が生成される。そして、各グリッド501において、選定された推定モデルを用いて、各グリッド501に含まれる資材画像を推定する。 As shown in FIG. 5, in the captured image 500, a plurality of grids 501 are generated with a specified division roughness. Then, in each grid 501, the material image included in each grid 501 is estimated using the selected estimation model.

次に、管理サーバ20の制御部21は、画像に含まれる資材範囲の特定処理を実行する(ステップS1-7)。具体的には、制御部21の資材予測部213は、撮影画像に含まれる各グリッドについて、推定モデルを用いて特定した推定資材と、ユーザ端末10において指定された判定対象資材とを比較する。そして、推定資材と判定対象資材とが一致したグリッドを特定し、資材範囲を特定する。図5に示す撮影画像500においては、グリッド502により資材範囲を構成する。 Next, the control unit 21 of the management server 20 executes the process of specifying the material range included in the image (step S1-7). Specifically, the material prediction unit 213 of the control unit 21 compares the estimated material specified by using the estimation model with the determination target material designated by the user terminal 10 for each grid included in the captured image. Then, the grid in which the estimated material and the judgment target material match is specified, and the material range is specified. In the captured image 500 shown in FIG. 5, the material range is configured by the grid 502.

次に、管理サーバ20の制御部21は、算定対象面積の計算処理を実行する(ステップS1-8)。具体的には、制御部21の面積管理部214は、特定した資材範囲のグリッド数を計数する。更に、面積管理部214は、範囲入力画面に入力された距離、視線方向に対する角度に基づいて、一つのグリッドの面積とグリッド数とを乗算することにより、判定対象資材の実面積(算定対象面積)を算出する。 Next, the control unit 21 of the management server 20 executes the calculation process of the calculation target area (step S1-8). Specifically, the area management unit 214 of the control unit 21 counts the number of grids in the specified material range. Further, the area management unit 214 multiplies the area of one grid and the number of grids based on the distance input on the range input screen and the angle with respect to the line-of-sight direction to obtain the actual area of the material to be determined (calculation target area). ) Is calculated.

次に、管理サーバ20の制御部21は、資材単価に基づく見積りの概算処理を実行する(ステップS1-9)。具体的には、制御部21の作業支援部211は、資材情報記憶部23から、判定対象資材の資材コードに関連付けられた資材単価を取得する。更に、作業情報記憶部24から、判定対象資材の資材コード、作業種別に関連付けられた作業単価を取得する。そして、作業支援部211は、資材単価と作業単価との合計額に、算定対象面積を乗算することにより、補修の見積り概算金額(作業評価情報)を算出する。 Next, the control unit 21 of the management server 20 executes an estimation process based on the material unit price (step S1-9). Specifically, the work support unit 211 of the control unit 21 acquires the material unit price associated with the material code of the determination target material from the material information storage unit 23. Further, the material code of the judgment target material and the work unit price associated with the work type are acquired from the work information storage unit 24. Then, the work support unit 211 calculates the estimated estimated amount of repair (work evaluation information) by multiplying the total amount of the material unit price and the work unit price by the calculation target area.

次に、管理サーバ20の制御部21は、概算結果の出力処理を実行する(ステップS1-10)。具体的には、制御部21の作業支援部211は、評価対象、評価日、資材、面積、概算金額に関するデータを含めた評価管理レコード250を生成し、評価情報記憶部25に記録する。更に、作業支援部211は、ユーザ端末10のタッチパネルディスプレイ12に、評価結果画面を出力する。この評価結果画面には、算出した作業見積りの概算金額を含める。 Next, the control unit 21 of the management server 20 executes the output processing of the estimation result (step S1-10). Specifically, the work support unit 211 of the control unit 21 generates an evaluation management record 250 including data related to the evaluation target, the evaluation date, the material, the area, and the estimated amount of money, and records the evaluation management record 250 in the evaluation information storage unit 25. Further, the work support unit 211 outputs an evaluation result screen to the touch panel display 12 of the user terminal 10. This evaluation result screen includes the estimated amount of the calculated work estimate.

本実施形態によれば、以下のような効果を得ることができる。
(1-1)本実施形態では、管理サーバ20の制御部21は、対象範囲の撮影処理(ステップS1-1)、判定対象資材の選定処理(ステップS1-3)、画像に含まれる資材範囲(ステップS1-7)、算定対象面積の計算処理(ステップS1-8)を実行する。これにより、撮影画像に含まれる資材を特定し、この資材に基づいて、作業対象の面積を算出することができる。
According to this embodiment, the following effects can be obtained.
(1-1) In the present embodiment, the control unit 21 of the management server 20 takes a picture of a target range (step S1-1), a process of selecting a material to be determined (step S1-3), and a range of materials included in the image. (Step S1-7), the calculation process of the calculation target area (step S1-8) is executed. Thereby, the material included in the photographed image can be specified, and the area of the work target can be calculated based on this material.

(1-2)本実施形態では、管理サーバ20の制御部21は、資材単価に基づく見積りの概算処理(ステップS1-9)、概算結果の出力処理(ステップS1-10)を実行する。これにより、作業対象の資材を考慮して、効率的に概算見積りを算出することができる。 (1-2) In the present embodiment, the control unit 21 of the management server 20 executes an estimation process (step S1-9) based on the material unit price and an output process (step S1-10) of the estimation result. As a result, it is possible to efficiently calculate a rough estimate in consideration of the material to be worked.

(1-3)本実施形態では、管理サーバ20の制御部21は、画像の歪み補正処理を実行する(ステップS1-2)。これにより、カメラレンズの影響により、画像領域によっては画像に歪が生じることがあるが、画像歪を考慮して、的確な面積を算出することができる。 (1-3) In the present embodiment, the control unit 21 of the management server 20 executes the image distortion correction process (step S1-2). As a result, the image may be distorted depending on the image area due to the influence of the camera lens, but an accurate area can be calculated in consideration of the image distortion.

(1-4)本実施形態では、管理サーバ20の制御部21は、算定対象範囲の入力処理を実行する(ステップS1-4)。これにより、画像に含まれる被写体の絶対値を算出することができる。 (1-4) In the present embodiment, the control unit 21 of the management server 20 executes the input processing of the calculation target range (step S1-4). This makes it possible to calculate the absolute value of the subject included in the image.

(1-5)本実施形態では、管理サーバ20の制御部21は、分割粗度の特定処理(ステップS1-5)、分割粗度に応じて推定モデルの選定処理(ステップS1-6)を実行する。これにより、資材に応じて、面積の算出精度を調整することができる。 (1-5) In the present embodiment, the control unit 21 of the management server 20 performs a division roughness specifying process (step S1-5) and an estimation model selection process (step S1-6) according to the division roughness. Run. Thereby, the calculation accuracy of the area can be adjusted according to the material.

(第2の実施形態)
次に、図6~図8を用いて、作業支援システム、作業支援方法及び作業支援プログラムを具体化した第2の実施形態について説明する。上述した第1の実施形態においては、撮影画像を用いて、補修対象の面積を算出し、この面積に応じた補修費の見積り金額を概算する作業支援を行なう場合を説明した。本実施形態においては、資材を用いた作業として、出来形の確認に用いる場合を説明する。
(Second embodiment)
Next, a second embodiment in which the work support system, the work support method, and the work support program are embodied will be described with reference to FIGS. 6 to 8. In the first embodiment described above, a case where the area to be repaired is calculated using the photographed image and the work support for estimating the estimated amount of the repair cost according to the area is performed has been described. In this embodiment, a case where the work is used for confirming the finished product as a work using materials will be described.

ここでは、建物の室内(建築現場)の施工現場においては、LGS(Light Gauge Steel:軽量鉄骨)、PB(石膏ボード)、ガラス、木材、金属パネル、制御盤、配管材、グラスウール、コンクリート等の資材が用いられる。そして、室内壁の施工時に室内を撮影し、出来形を確認する。
この場合、ユーザ端末10のカメラ11には、視野範囲が360度の全天球画像を撮影可能な全天球カメラを用いる。
Here, at the construction site inside the building (construction site), LGS (Light Gauge Steel: lightweight steel frame), PB (plaster board), glass, wood, metal panel, control panel, piping material, glass wool, concrete, etc. Materials are used. Then, when the interior wall is constructed, the interior is photographed and the finished shape is confirmed.
In this case, as the camera 11 of the user terminal 10, a spherical camera capable of capturing a spherical image having a viewing range of 360 degrees is used.

更に、図6に示すように、作業情報記憶部24には、出来形管理レコード241を記録する。この出来形管理レコード241は、出来形マップ登録処理を実行した場合に記録される。出来形管理レコード241には、工程コード、撮影範囲、分割粗度、確認方法、出来形マップに関するデータを含める。 Further, as shown in FIG. 6, the work information storage unit 24 records the finished product management record 241. This finished product management record 241 is recorded when the finished product map registration process is executed. The finished product management record 241 includes data related to the process code, shooting range, division roughness, confirmation method, and finished product map.

工程コードデータ領域には、出来形を確認する工程を特定するための識別子に関するデータが記録される。
撮影範囲データ領域には、出来形の確認場所において、出来形を確認する撮影範囲を特定するためのデータが記録される。例えば、部屋の壁の出来形を撮影する場合には、部屋の幅、奥行き、高さに関するデータが記録される。
In the process code data area, data regarding an identifier for identifying a process for confirming a finished product is recorded.
In the shooting range data area, data for specifying the shooting range for checking the finished shape is recorded at the place where the finished shape is confirmed. For example, when photographing the finished shape of the wall of a room, data on the width, depth, and height of the room are recorded.

分割粗度データ領域には、撮影画像を複数のグリッドに分割する場合のサイズに関するデータが記録される。
確認方法データ領域には、資材を確認する場合の方法を特定するためのフラグに関するデータが記録される。本実施形態では、確認方法として、資材種別による確認又は資材面積による確認の何れかを用いる。このため、本実施形態では、資材面積による確認の場合には、確認方法データ領域に、面積確認フラグが記録される。
出来形マップデータ領域には、先行構築における天球画像(模範画像)に含まれる各被写体の資材の配置に関するデータが記録される。
In the division roughness data area, data regarding the size when the captured image is divided into a plurality of grids is recorded.
In the confirmation method data area, data regarding a flag for specifying a method for confirming a material is recorded. In this embodiment, as the confirmation method, either confirmation by material type or confirmation by material area is used. Therefore, in the present embodiment, in the case of confirmation by the material area, the area confirmation flag is recorded in the confirmation method data area.
In the finished map data area, data regarding the arrangement of materials of each subject included in the celestial sphere image (model image) in the preceding construction is recorded.

(出来形マップ登録処理)
図6~図8を用いて、本実施形態の作業支援処理としての出来形マップ登録処理を説明する。
まず、出来形マップを作成するために、モデルルームの先行構築を行なう。この先行構築において、出来形を確認する必要がある各工程において、出来形マップ登録処理を実行する。
(Complete map registration process)
A completed map registration process as a work support process of the present embodiment will be described with reference to FIGS. 6 to 8.
First, in order to create a finished map, a model room is built in advance. In this pre-construction, the finished product map registration process is executed in each process where it is necessary to confirm the finished product.

この出来形マップ登録処理において、まず、管理サーバ20の制御部21は、撮影方向の確認処理を実行する(ステップS2-1)。具体的には、制御部21の作業支援部211は、ユーザ端末10に出来形を確認する部屋のサイズを入力するための撮影範囲設定画面を出力する。この撮影範囲設定画面には、出来形を確認する工程、部屋の幅、奥行き、高さに関する撮影範囲情報の入力欄を含める。そして、作業支援部211は、ユーザ端末10において入力された撮影範囲情報を取得する。 In this finished map registration process, first, the control unit 21 of the management server 20 executes a shooting direction confirmation process (step S2-1). Specifically, the work support unit 211 of the control unit 21 outputs a shooting range setting screen for inputting the size of the room for confirming the finished shape to the user terminal 10. This shooting range setting screen includes a process for confirming the finished shape, and input fields for shooting range information regarding the width, depth, and height of the room. Then, the work support unit 211 acquires the shooting range information input in the user terminal 10.

図8(a)に示すように、部屋60の幅L11、奥行き長さL12、高さL13を撮影確認画面に入力する。そして、作業支援部211は、工程コードに関連付けて、入力された撮影範囲情報を作業情報記憶部24に記録する。 As shown in FIG. 8A, the width L11, the depth length L12, and the height L13 of the room 60 are input to the shooting confirmation screen. Then, the work support unit 211 records the input shooting range information in the work information storage unit 24 in association with the process code.

次に、管理サーバ20の制御部21は、対象範囲の撮影処理を実行する(ステップS2-2)。具体的には、制御部21の画像取得部212は、ユーザ端末10に対して、撮影指示を出力する。この場合、ユーザ端末10は、カメラ11を用いて、部屋60内を撮影した視野範囲360度の全天球撮影画像を生成する。そして、画像取得部212は、ユーザ端末10から全天球撮影画像を取得する。 Next, the control unit 21 of the management server 20 executes the shooting process of the target range (step S2-2). Specifically, the image acquisition unit 212 of the control unit 21 outputs a shooting instruction to the user terminal 10. In this case, the user terminal 10 uses the camera 11 to generate a 360-degree spherical image of the inside of the room 60. Then, the image acquisition unit 212 acquires the spherically captured image from the user terminal 10.

次に、管理サーバ20の制御部21は、ステップS1-5と同様に、分割粗度の特定処理を実行する(ステップS2-3)。更に、作業支援部211は、取得した分割粗度を、工程コードに関連付けて、作業情報記憶部24の出来形管理レコード241に記録する。なお、分割粗度は、予め定められた固定値を用いるようにしてもよい。 Next, the control unit 21 of the management server 20 executes the division roughness specifying process in the same manner as in steps S1-5 (step S2-3). Further, the work support unit 211 associates the acquired division roughness with the process code and records it in the finished product management record 241 of the work information storage unit 24. A predetermined fixed value may be used for the division roughness.

次に、管理サーバ20の制御部21は、ステップS1-6と同様に、分割粗度に応じて推定モデルの選定処理を実行する(ステップS2-4)。
この場合、図8(b)に示すように、撮影画像600において、指定された分割粗度で、複数のグリッド601が生成される。ここでは、全天球画像において、撮影範囲情報で指定された幅、奥行き、高さの被写体(壁)を特定し、被写体画像を分割粗度で複数のグリッド601に分割する。
Next, the control unit 21 of the management server 20 executes the estimation model selection process according to the division roughness as in step S1-6 (step S2-4).
In this case, as shown in FIG. 8B, in the captured image 600, a plurality of grids 601 are generated with the specified division roughness. Here, in the spherical image, a subject (wall) having a width, depth, and height specified in the shooting range information is specified, and the subject image is divided into a plurality of grids 601 with a division roughness.

次に、管理サーバ20の制御部21は、資材判定処理を実行する(ステップS2-5)。具体的には、制御部21の資材予測部213は、全天球撮影画像に含まれるグリッド毎に資材を特定する。 Next, the control unit 21 of the management server 20 executes the material determination process (step S2-5). Specifically, the material prediction unit 213 of the control unit 21 specifies the material for each grid included in the spherically photographed image.

次に、管理サーバ20の制御部21は、出来形マップの作成処理を実行する(ステップS2-6)。具体的には、制御部21の作業支援部211は、全天球撮影画像に基づいて、部屋モデルを生成し、この部屋モデルにおける各壁に対して、特定した資材を割り当てた出来形マップを生成する。 Next, the control unit 21 of the management server 20 executes the process of creating the finished map (step S2-6). Specifically, the work support unit 211 of the control unit 21 generates a room model based on the spherical image, and creates a finished map to which the specified material is assigned to each wall in the room model. Generate.

次に、管理サーバ20の制御部21は、工程に関連付けて出来形マップの記録処理を実行する(ステップS2-7)。具体的には、制御部21の作業支援部211は、ユーザ端末10のタッチパネルディスプレイに、確認方法設定画面を出力する。この確認方法設定画面には、出来形において、資材種別の確認又は資材面積による確認の何れかを選択することができる。そして、作業支援部211は、確認方法設定画面に入力された確認方法を取得し、この確認方法(フラグ)を、先行工程の工程コードに関連付けて、生成した出来形マップとともに作業情報記憶部24に記録する。 Next, the control unit 21 of the management server 20 executes the recording process of the finished map in association with the process (step S2-7). Specifically, the work support unit 211 of the control unit 21 outputs a confirmation method setting screen to the touch panel display of the user terminal 10. On this confirmation method setting screen, it is possible to select either confirmation of the material type or confirmation by the material area in the finished product. Then, the work support unit 211 acquires the confirmation method input to the confirmation method setting screen, associates this confirmation method (flag) with the process code of the preceding process, and works information storage unit 24 together with the generated finished map. Record in.

(出来形確認処理)
次に、図7を用いて、出来形確認処理を説明する。
ここでは、管理サーバ20の制御部21は、対象範囲の出来形マップの読み込み処理を実行する(ステップS3-1)。具体的には、制御部21の作業支援部211は、ユーザ端末10のディスプレイに、確認工程入力画面を出力する。この確認工程入力画面には、出来形を確認する工程の入力欄が設けられている。そして、作業支援部211は、ユーザ端末10において、入力された工程コードを取得し、作業情報記憶部24から、取得した工程コードに関連付けられた出来形マップを取得する。
(Production confirmation process)
Next, the finished product confirmation process will be described with reference to FIG. 7.
Here, the control unit 21 of the management server 20 executes a process of reading the finished map of the target range (step S3-1). Specifically, the work support unit 211 of the control unit 21 outputs a confirmation process input screen to the display of the user terminal 10. This confirmation process input screen is provided with an input field for a process for confirming the finished product. Then, the work support unit 211 acquires the input process code in the user terminal 10, and acquires the completed map associated with the acquired process code from the work information storage unit 24.

次に、管理サーバ20の制御部21は、撮影方向の確認処理を実行する(ステップS3-2)。具体的には、制御部21の作業支援部211は、工程コードに関連付けられた撮影範囲情報を、作業情報記憶部24から取得する。 Next, the control unit 21 of the management server 20 executes a shooting direction confirmation process (step S3-2). Specifically, the work support unit 211 of the control unit 21 acquires the photographing range information associated with the process code from the work information storage unit 24.

次に、管理サーバ20の制御部21は、ステップS2-2と同様に、対象範囲の撮影処理を実行する(ステップS3-3)。
次に、管理サーバ20の制御部21は、ステップS2-3と同様に、分割粗度の特定処理を実行する(ステップS3-4)。具体的には、制御部21の作業支援部211は、工程コードに関連付けられた分割粗度を、作業情報記憶部24から取得する。
Next, the control unit 21 of the management server 20 executes the shooting process of the target range in the same manner as in step S2-2 (step S3-3).
Next, the control unit 21 of the management server 20 executes the division roughness specifying process in the same manner as in step S2-3 (step S3-4). Specifically, the work support unit 211 of the control unit 21 acquires the division roughness associated with the process code from the work information storage unit 24.

次に、管理サーバ20の制御部21は、ステップS2-4と同様に、分割粗度に応じて推定モデルの選定処理を実行する(ステップS3-5)。
次に、管理サーバ20の制御部21は、ステップS2-5と同様に、資材判定処理を実行する(ステップS3-6)。
Next, the control unit 21 of the management server 20 executes the estimation model selection process according to the division roughness as in step S2-4 (step S3-5).
Next, the control unit 21 of the management server 20 executes the material determination process in the same manner as in step S2-5 (step S3-6).

次に、管理サーバ20の制御部21は、面積によるチェックが必要かどうかについての判定処理を実行する(ステップS3-7)。具体的には、制御部21の作業支援部211は、作業情報記憶部24において、この工程に対する面積確認フラグの記録の有無を確認する。面積確認フラグが記録されている場合には、面積によるチェックが必要と判定する。 Next, the control unit 21 of the management server 20 executes a determination process as to whether or not a check based on the area is necessary (step S3-7). Specifically, the work support unit 211 of the control unit 21 confirms in the work information storage unit 24 whether or not the area confirmation flag is recorded for this process. If the area confirmation flag is recorded, it is determined that the area check is necessary.

面積確認フラグが記録されておらず、面積によるチェックは不要と判定した場合(ステップS3-7において「NO」の場合)、管理サーバ20の制御部21は、グリッド毎に正誤判定処理を実行する(ステップS3-8)。具体的には、制御部21の作業支援部211は、グリッド毎の資材が出来形マップに記録されている資材との一致を判定する。 When the area confirmation flag is not recorded and it is determined that the area check is unnecessary (when "NO" in step S3-7), the control unit 21 of the management server 20 executes the correctness determination process for each grid. (Step S3-8). Specifically, the work support unit 211 of the control unit 21 determines that the material for each grid matches the material recorded on the finished map.

一方、面積確認フラグが記録されており、面積によるチェックが必要と判定した場合(ステップS3-7において「YES」の場合)、管理サーバ20の制御部21は、判定対象資材範囲の面積の計算処理を実行する(ステップS3-9)。具体的には、制御部21の作業支援部211は、ユーザ端末10から取得した撮影範囲情報に基づいて、全天球撮影画像に含まれる各資材の面積を算出する。 On the other hand, when the area confirmation flag is recorded and it is determined that the area check is necessary (when "YES" in step S3-7), the control unit 21 of the management server 20 calculates the area of the determination target material range. The process is executed (step S3-9). Specifically, the work support unit 211 of the control unit 21 calculates the area of each material included in the spherically captured image based on the imaging range information acquired from the user terminal 10.

次に、管理サーバ20の制御部21は、判定閾値との面積比較処理を実行する(ステップS3-10)。具体的には、制御部21の作業支援部211は、算出した各資材の面積を算出する。そして、作業支援部211は、出来形マップに登録されている資材の面積と比較して、判定閾値以上の差異がある場合には、誤りがあると判定する。 Next, the control unit 21 of the management server 20 executes an area comparison process with the determination threshold value (step S3-10). Specifically, the work support unit 211 of the control unit 21 calculates the calculated area of each material. Then, the work support unit 211 determines that there is an error when there is a difference of the determination threshold value or more as compared with the area of the material registered in the finished product map.

次に、管理サーバ20の制御部21は、誤っている部分があるかどうかについての判定処理を実行する(ステップS3-11)。具体的には、制御部21の作業支援部211は、ステップS3-8における資材の不一致がある場合や、ステップS3-10において面積比較において判定閾値以上の差異がある場合には、誤っている部分があると判定する。 Next, the control unit 21 of the management server 20 executes a determination process as to whether or not there is an erroneous portion (step S3-11). Specifically, the work support unit 211 of the control unit 21 is erroneous when there is a material mismatch in step S3-8 or when there is a difference of the determination threshold value or more in the area comparison in step S3-10. Judge that there is a part.

誤っている部分があると判定した場合(ステップS3-11において「YES」の場合)、管理サーバ20の制御部21は、該当箇所の表示処理を実行する(ステップS3-12)。具体的には、制御部21の作業支援部211は、一致しない資材の画素(誤りがある資材領域)を全天球画像において表示した作業評価情報を生成し、ユーザ端末10のタッチパネルディスプレイ12に出力する。 When it is determined that there is an erroneous part (when "YES" in step S3-11), the control unit 21 of the management server 20 executes the display process of the corresponding part (step S3-12). Specifically, the work support unit 211 of the control unit 21 generates work evaluation information in which pixels of materials that do not match (material areas with errors) are displayed in a spherical image, and is displayed on the touch panel display 12 of the user terminal 10. Output.

この場合、図8(c)に、出来形マップ登録処理時の撮影画像600に対応した出来形確認処理時の撮影画像610を示す。この撮影画像610においては、簡略化のために、グリッド611のみを表示している。この撮影画像610では、指定された分割粗度で、複数のグリッド611が生成される。そして、識別できるように網掛け表示されたグリッド612において、一致しない資材を示している。 In this case, FIG. 8C shows a photographed image 610 at the time of the completed form confirmation process corresponding to the photographed image 600 at the time of the completed form map registration process. In this captured image 610, only the grid 611 is displayed for simplification. In this captured image 610, a plurality of grids 611 are generated with a specified division roughness. Then, in the grid 612 shaded so that they can be identified, the materials that do not match are shown.

本実施形態によれば、以下のような効果を得ることができる。
(2-1)本実施形態では、管理サーバ20の制御部21は、出来形マップの作成処理を実行する(ステップS2-6)。これにより、先行構築により、効率的に模範情報を生成することができる。
According to this embodiment, the following effects can be obtained.
(2-1) In the present embodiment, the control unit 21 of the management server 20 executes the process of creating the finished map (step S2-6). As a result, model information can be efficiently generated by the advance construction.

(2-2)本実施形態では、出来形マップ登録処理において、管理サーバ20の制御部21は、撮影方向の確認処理(ステップS2-1)、分割粗度の特定処理(ステップS2-3)を実行する。この場合、工程コードに関連付けて、撮影範囲情報や分割粗度を作業情報記憶部24に記録する。更に、出来形確認処理において、管理サーバ20の制御部21は、撮影方向の確認処理(ステップS3-2)、分割粗度の特定処理(ステップS3-4)を実行する。これにより、出来形マップ登録処理における条件を、出来形確認処理において用いることができる。 (2-2) In the present embodiment, in the finished map registration process, the control unit 21 of the management server 20 confirms the shooting direction (step S2-1) and specifies the division roughness (step S2-3). To execute. In this case, the shooting range information and the division roughness are recorded in the work information storage unit 24 in association with the process code. Further, in the finished product confirmation process, the control unit 21 of the management server 20 executes a shooting direction confirmation process (step S3-2) and a division roughness specification process (step S3-4). As a result, the conditions in the finished product map registration process can be used in the finished product confirmation process.

(2-3)本実施形態では、管理サーバ20の制御部21は、面積によるチェック必要かどうかについての判定処理を実行する(ステップS3-7)。面積によるチェックが不要と判定した場合(ステップS3-7において「NO」の場合)、管理サーバ20の制御部21は、グリッド毎に正誤判定処理を実行する(ステップS3-8)。これにより、使用されている資材の種類に基づいて、的確な施工を判定することができる。 (2-3) In the present embodiment, the control unit 21 of the management server 20 executes a determination process as to whether or not a check by area is necessary (step S3-7). When it is determined that the check by area is unnecessary (when "NO" in step S3-7), the control unit 21 of the management server 20 executes the correctness determination process for each grid (step S3-8). This makes it possible to determine accurate construction based on the type of material used.

(2-4)本実施形態では、面積によるチェックが必要と判定した場合(ステップS3-7において「YES」の場合)、管理サーバ20の制御部21は、判定対象資材範囲の面積の計算処理(ステップS3-9)、判定閾値との面積比較処理(ステップS3-10)を実行する。これにより、資材の使用量に基づいて、的確な施工を判定することができる。 (2-4) In the present embodiment, when it is determined that the area check is necessary (when “YES” in step S3-7), the control unit 21 of the management server 20 calculates the area of the determination target material range. (Step S3-9), the area comparison process with the determination threshold value (step S3-10) is executed. As a result, accurate construction can be determined based on the amount of material used.

(2-5)本実施形態では、誤っている部分があると判定した場合(ステップS3-11において「YES」の場合)、管理サーバ20の制御部21は、該当箇所の表示処理を実行する(ステップS3-12)。これにより、施工の間違いを指摘し、是正を促すことができる。 (2-5) In the present embodiment, when it is determined that there is an erroneous part (when "YES" in step S3-11), the control unit 21 of the management server 20 executes the display process of the corresponding part. (Step S3-12). This makes it possible to point out construction mistakes and urge corrections.

(2-6)本実施形態では、ユーザ端末10のカメラ11として、全天球画像を撮影可能なカメラを用いる。これにより、施工領域全体の画像を効率的に取得することができる。 (2-6) In the present embodiment, a camera capable of capturing a spherical image is used as the camera 11 of the user terminal 10. This makes it possible to efficiently acquire an image of the entire construction area.

また、上記実施形態は、以下のように変更してもよい。
・上記各実施形態においては、管理サーバ20の制御部21は、分割粗度に応じて推定モデルの選定処理を実行する。具体的には、制御部21の資材予測部213は、撮影画像を、分割粗度画面において指定された分割粗度に応じた画素数で構成されたグリッドで、撮影画像を分割する。資材が配置された領域を特定する方法は、グリッドを用いる場合に限定されるものではない。例えば、撮影画像に含まれる被写体を分類するセグメンテーションや、撮影画像に含まれるエッジを用いて、撮影画像に含まれる被写体の範囲を特定するようにしてもよい。
Moreover, the above-mentioned embodiment may be changed as follows.
-In each of the above embodiments, the control unit 21 of the management server 20 executes the selection process of the estimation model according to the division roughness. Specifically, the material prediction unit 213 of the control unit 21 divides the captured image into a grid composed of the number of pixels corresponding to the divided roughness designated on the divided roughness screen. The method of identifying the area where the material is arranged is not limited to the case of using the grid. For example, segmentation for classifying the subject included in the captured image or the edge included in the captured image may be used to specify the range of the subject included in the captured image.

・上記各実施形態においては、ユーザ端末10及び管理サーバ20を用いるが、ハードウェア構成はこれらに限定されるものではない。例えば、ユーザ端末10に、管理サーバ20が備える各種機能を設けるようにしてもよい。 -In each of the above embodiments, the user terminal 10 and the management server 20 are used, but the hardware configuration is not limited to these. For example, the user terminal 10 may be provided with various functions included in the management server 20.

・上記各実施形態においては、管理サーバ20の制御部21は、分割粗度の特定処理を実行する。ここで、分割粗度は、距離、資材の単位サイズに基づいて、制御部21が選択するようにしてもよい。 -In each of the above embodiments, the control unit 21 of the management server 20 executes the process of specifying the division roughness. Here, the division roughness may be selected by the control unit 21 based on the distance and the unit size of the material.

・上記各実施形態においては、識別モデルを、機械学習(ディープラーニング)により生成する。識別モデルの生成方法は、ディープラーニングに限定されるものではない。例えば、一つの教師データに含まれる複数の特徴量をまとめたクラスタについて、特徴量の分布(ヒストグラム)からなる識別モデルを生成する。この識別モデルには、学習用画像のインデックス(被写体の種類)が付与される。そして、未識別の撮影画像に含まれる複数の特徴量を算出し、この特徴量の分布と識別モデルとの比較に基づいて、撮影画像に含まれる被写体を予測するようにしてもよい。 -In each of the above embodiments, a discriminative model is generated by machine learning (deep learning). The method of generating the discriminative model is not limited to deep learning. For example, a discriminative model consisting of a distribution (histogram) of features is generated for a cluster in which a plurality of features included in one teacher data are put together. An index (type of subject) of a learning image is given to this discriminative model. Then, a plurality of feature quantities included in the unidentified captured image may be calculated, and the subject included in the captured image may be predicted based on the comparison between the distribution of the feature quantities and the discriminative model.

・上記第1の実施形態においては、管理サーバ20の制御部21は、画像に含まれる資材範囲の特定処理(ステップS1-7)、算定対象面積の計算処理(ステップS1-8)を実行する。ここでは、撮影画像に含まれる資材の面積を算定する。撮影画像に含まれる資材に基づいて面積を算出できるものであれば、算定対象資材が撮影されたすべての領域を算定対象範囲として特定する場合に限定されるものではない。例えば、資材の劣化状況に基づいて、面積を算出するようにしてもよい。具体的には、撮影画像において被写体として資材が撮影された領域を特定し、この資材領域において、算定対象状態の資材が含まれる面積を算出する。算定対象の状態としては、例えば、資材の劣化等がある。この劣化は、資材の状態(変色、割れ、汚れ等)を用いて評価することができる。また、資材の状態は、資材の表面だけではなく、資材の内側の状態に基づいて評価するようにしてもよい。例えば、タイルの壁面への付着状態によって、所定の波長光の反射率や吸収率が変化する。そこで、所定の波長の光線(例えば、赤外光)を用いて撮影した評価対象物の撮影画像において、内部状態を評価し、これにより作業範囲(算定対象範囲)を特定するようにしてもよい。 -In the first embodiment, the control unit 21 of the management server 20 executes a material range specifying process (step S1-7) and a calculation target area calculation process (step S1-8) included in the image. .. Here, the area of the material included in the photographed image is calculated. As long as the area can be calculated based on the materials included in the photographed image, the area is not limited to the case where all the areas in which the calculation target material is photographed are specified as the calculation target range. For example, the area may be calculated based on the deterioration status of the material. Specifically, an area in which the material is photographed as a subject is specified in the photographed image, and the area including the material in the calculation target state is calculated in this material area. The state to be calculated includes, for example, deterioration of materials. This deterioration can be evaluated using the state of the material (discoloration, cracking, dirt, etc.). Further, the state of the material may be evaluated based not only on the surface of the material but also on the inside of the material. For example, the reflectance and absorptance of light having a predetermined wavelength changes depending on the state of adhesion of the tile to the wall surface. Therefore, the internal state may be evaluated in the photographed image of the evaluation object taken by using the light beam of a predetermined wavelength (for example, infrared light), and the working range (calculation target range) may be specified by this. ..

また、撮影画像に基づいて、見えない部分における施工状態を評価するようにしてもよい。例えば、撮影画像の前面の被写体の影になって隠れている構造物の状態を予測して、面積を算出するようにしてもよい。例えば、構造物の前面においてタイル貼りが施工されている場合、タイル貼りの配置に基づいて、構造物の側面のタイル貼りを機械学習により予測し、この予測に基づいて面積を算出する。 Further, the construction state in the invisible portion may be evaluated based on the captured image. For example, the area may be calculated by predicting the state of the structure hidden behind the subject in front of the captured image. For example, when tiles are applied to the front surface of a structure, the tiles on the side surfaces of the structure are predicted by machine learning based on the arrangement of the tiles, and the area is calculated based on this prediction.

・上記第1の実施形態においては、管理サーバ20の制御部21は、算定対象範囲の入力処理を実行する(ステップS1-4)。また、上記第2の実施形態においては、管理サーバ20の制御部21は、撮影方向の確認処理を実行する(ステップS2-1)。面積の算出に必要な情報は、撮影条件に基づいて算出するようにしてもよい。例えば、撮影時の焦点距離を利用して、撮影画像に含まれる被写体までの距離や配置角度を算出するようにしてもよい。 -In the first embodiment, the control unit 21 of the management server 20 executes the input processing of the calculation target range (step S1-4). Further, in the second embodiment, the control unit 21 of the management server 20 executes a shooting direction confirmation process (step S2-1). The information necessary for calculating the area may be calculated based on the shooting conditions. For example, the focal length at the time of shooting may be used to calculate the distance to the subject and the arrangement angle included in the shot image.

また、予め大きさを把握している基準物を作業対象面に貼り付けて撮影し、撮影画像に写り込んだ基準物の大きさや形状に基づいて、撮影条件を特定するようにしてもよい。この場合、基準物の本来の大きさと撮影画像内における基準物画像の大きさとの比較に基づいて距離を算出することができる。また、基準物の本来の形状と基準物画像の形状との比較に基づいて、傾きを算出することができる。 Further, a reference object whose size is known in advance may be attached to the work target surface and photographed, and the imaging conditions may be specified based on the size and shape of the reference object reflected in the photographed image. In this case, the distance can be calculated based on the comparison between the original size of the reference object and the size of the reference object image in the captured image. In addition, the inclination can be calculated based on the comparison between the original shape of the reference object and the shape of the reference object image.

・上記第1の実施形態においては、管理サーバ20の制御部21は、分割粗度に応じて推定モデルの選定処理(ステップS1-6)、画像に含まれる資材範囲の特定処理(ステップS1-7)を実行する。ここで、一つのグリッドにおいて複数の資材を特定した場合には、このグリッドに含まれる各資材の面積割合を算出し、資材範囲を特定するようにしてもよい。例えば、面積割合が基準値(例えば、半分)を超えている場合には、算定対象範囲に含める。また、面積割合の基準値を小さくすることにより、資材不足を抑制することができる。 -In the first embodiment, the control unit 21 of the management server 20 selects an estimation model according to the division roughness (step S1-6) and specifies a material range included in the image (step S1-). 7) is executed. Here, when a plurality of materials are specified in one grid, the area ratio of each material included in this grid may be calculated and the material range may be specified. For example, if the area ratio exceeds the standard value (for example, half), it is included in the calculation target range. Further, by reducing the reference value of the area ratio, it is possible to suppress the material shortage.

・上記第1の実施形態においては、管理サーバ20の制御部21は、見積りの概算処理を実行する(ステップS1-9)。算定対象面積ではなく、資材の補修が必要な補修面積、補修の難易度に基づいた作業単価を用いてもよい。ここでは、作業情報記憶部24に、この資材に対して複数の作業種別が記録されている場合には、ユーザ端末10のタッチパネルディスプレイ12に、作業種別確認画面を出力する。そして、作業支援部211は、作業種別確認画面に入力された作業種別に応じて、面積に乗算する単価を変更するようにしてもよい。例えば、難易度の高い作業種別に対しては、作業単価を高くする。また、資材の交換が必要でない作業については、資材単価を含めず、作業単価のみで概算見積りを算出する。 -In the first embodiment, the control unit 21 of the management server 20 executes an estimation process (step S1-9). Instead of the calculation target area, the work unit price based on the repair area requiring repair of the material and the difficulty of repair may be used. Here, when a plurality of work types are recorded for this material in the work information storage unit 24, the work type confirmation screen is output to the touch panel display 12 of the user terminal 10. Then, the work support unit 211 may change the unit price to be multiplied by the area according to the work type input on the work type confirmation screen. For example, for a work type with a high degree of difficulty, the work unit price is increased. For work that does not require material replacement, a rough estimate is calculated based only on the work unit price, not including the material unit price.

・上記第2の実施形態においては、ユーザ端末10のカメラ11には、全天球画像を撮影可能なカメラを用いる。周囲を撮影する手段は、全天球カメラに限定されるものではない。例えば、視野範囲が限られるカメラを回転させて、撮影画像を取得してもよい。そして、これらの撮影画像をつなぎ合わせたパノラマ画像を生成し、このパノラマ画像を用いる。 -In the second embodiment, a camera capable of capturing a spherical image is used as the camera 11 of the user terminal 10. The means for photographing the surroundings is not limited to the spherical camera. For example, a camera having a limited field of view may be rotated to acquire a captured image. Then, a panoramic image in which these captured images are joined is generated, and this panoramic image is used.

・上記第2の実施形態においては、管理サーバ20の制御部21は、対象範囲の出来形マップの読み込み処理を実行する(ステップS3-1)。この場合、ユーザ端末10に、工程コードを入力する。これに代えて、撮影画像に含まれる資材の配置に基づいて、作業の進捗状況を特定するようにしてもよい。この場合には、出来形確認処理において撮影した撮影画像に含まれる資材種別や資材面積を特定し、この資材の配置や面積に最も近い出来形を作業情報記憶部24から取得する。これにより、撮影画像に基づいて、進捗状況を予測することができる。 -In the second embodiment, the control unit 21 of the management server 20 executes the reading process of the finished map of the target range (step S3-1). In this case, the process code is input to the user terminal 10. Instead of this, the progress of the work may be specified based on the arrangement of the materials included in the captured image. In this case, the material type and the material area included in the photographed image taken in the finished product confirmation process are specified, and the finished product closest to the arrangement and area of the material is acquired from the work information storage unit 24. As a result, the progress can be predicted based on the captured image.

10…ユーザ端末、11…カメラ、12…タッチパネルディスプレイ、13…通信部、20…管理サーバ、21…制御部、211…作業支援部、212…画像取得部、213…資材予測部、214…面積管理部、22…学習情報記憶部、23…資材情報記憶部、24…作業情報記憶部、25…評価情報記憶部、500,600,610…撮影画像。 10 ... user terminal, 11 ... camera, 12 ... touch panel display, 13 ... communication unit, 20 ... management server, 21 ... control unit, 211 ... work support unit, 212 ... image acquisition unit, 213 ... material prediction unit, 214 ... area Management unit, 22 ... Learning information storage unit, 23 ... Material information storage unit, 24 ... Work information storage unit, 25 ... Evaluation information storage unit, 500, 600, 610 ... Photographed images.

Claims (10)

被写体を撮影した撮影画像を生成する撮影部と、
分割粗度に応じた識別モデルが記録された学習情報記憶部と、
資材を用いた作業を評価するための管理情報を記録した管理情報記憶部とに接続された制御部とを備えた作業支援システムであって、
前記制御部が、
前記撮影部から、作業現場の撮影画像、撮影条件を取得し、
前記資材に応じた分割粗度を用いて、前記撮影画像を分割した分割画像を生成し、
前記学習情報記憶部に記録された前記分割粗度に応じた識別モデルを用いて、前記分割画像毎に含まれる作業対象の資材を特定し、
前記各分割画像において前記資材が撮影された各分割画像を特定し、前記各分割画像の撮影条件に応じて実面積を算出し、
前記実面積及び前記管理情報記憶部に記録された管理情報に基づいて、前記資材を用いた作業の作業評価情報を算出することを特徴とする作業支援システム。
A shooting unit that generates a shot image of the subject, and
A learning information storage unit in which a discriminative model according to the division roughness is recorded,
It is a work support system equipped with a management information storage unit that records management information for evaluating work using materials and a control unit connected to the management information storage unit.
The control unit
From the shooting unit, the shot image and shooting conditions of the work site are acquired.
Using the division roughness according to the material, a divided image obtained by dividing the captured image is generated.
Using the discriminative model according to the division roughness recorded in the learning information storage unit, the material to be worked included in each of the division images is specified.
In each of the divided images, each divided image in which the material was photographed is specified, and the actual area is calculated according to the photographing conditions of the divided images.
A work support system characterized in that work evaluation information of work using the material is calculated based on the actual area and the management information recorded in the management information storage unit.
前記制御部が、前記実面積に基づいて、前記資材を用いた作業の進捗状況を、前記作業評価情報として算出することを特徴とする請求項に記載の作業支援システム。 The work support system according to claim 1 , wherein the control unit calculates the progress of work using the material as the work evaluation information based on the actual area. 前記制御部が、作業対象範囲の出来形マップにおける前記資材の面積と、前記資材が撮影された分割画像の実面積とを比較した評価結果を、前記作業評価情報として算出することを特徴とする請求項1又は2に記載の作業支援システム。 The control unit is characterized in that the evaluation result comparing the area of the material in the finished map of the work target range with the actual area of the divided image in which the material is photographed is calculated as the work evaluation information. The work support system according to claim 1 or 2 . 前記制御部が、作業対象範囲の出来形マップにおける画素毎の資材と、前記撮影画像において前記資材が撮影された領域とを比較し、一致しない資材の画素の位置情報を出力することを特徴とする請求項に記載の作業支援システム。 The control unit is characterized in that the material for each pixel in the finished map of the work target range is compared with the area where the material is photographed in the photographed image, and the position information of the pixels of the materials that do not match is output. The work support system according to claim 3 . 前記制御部が、前記作業対象範囲において特定した資材の面積を算出し、前記面積が判定閾値よりも小さい場合には、警告情報を出力することを特徴とする請求項に記載の作業支援システム。 The work support system according to claim 4 , wherein the control unit calculates an area of a material specified in the work target range, and outputs warning information when the area is smaller than a determination threshold value. .. 前記制御部が、前記実面積における、前記資材を用いた作業負荷を、前記作業評価情報として算出することを特徴とする請求項1又は2に記載の作業支援システム。 The work support system according to claim 1 or 2 , wherein the control unit calculates a work load using the material in the actual area as the work evaluation information. 前記制御部が、前記撮影画像において、前記資材の劣化状況を特定し、
更に、前記劣化状況に応じて、前記作業負荷を算出することを特徴とする請求項に記載の作業支援システム。
The control unit identifies the deterioration state of the material in the photographed image, and determines the deterioration state of the material.
The work support system according to claim 6 , further comprising calculating the workload according to the deterioration status.
前記制御部が、前記撮影画像において、前記作業の難易度を特定し、
更に、前記難易度に応じて、前記作業負荷を算出することを特徴とする請求項又はに記載の作業支援システム。
The control unit identifies the difficulty level of the work in the captured image.
The work support system according to claim 6 or 7 , further comprising calculating the workload according to the difficulty level.
被写体を撮影した撮影画像を生成する撮影部と、
分割粗度に応じた識別モデルが記録された学習情報記憶部と、
資材を用いた作業を評価するための管理情報を記録した管理情報記憶部とに接続された制御部とを備えた作業支援システムを用いて、作業状況を評価する作業支援方法であって、
前記制御部が、
前記撮影部から、作業現場の撮影画像、撮影条件を取得し、
前記資材に応じた分割粗度を用いて、前記撮影画像を分割した分割画像を生成し、
前記学習情報記憶部に記録された前記分割粗度に応じた識別モデルを用いて、前記分割画像毎に含まれる作業対象の資材を特定し、
前記各分割画像において前記資材が撮影された各分割画像を特定し、前記各分割画像の撮影条件に応じて実面積を算出し、
前記実面積及び前記管理情報記憶部に記録された管理情報に基づいて、前記資材を用いた作業の作業評価情報を算出することを特徴とする作業支援方法。
A shooting unit that generates a shot image of the subject, and
A learning information storage unit in which a discriminative model according to the division roughness is recorded,
It is a work support method that evaluates the work status using a work support system equipped with a management information storage unit that records management information for evaluating work using materials and a control unit connected to the management information storage unit.
The control unit
From the shooting unit, the shot image and shooting conditions of the work site are acquired.
Using the division roughness according to the material, a divided image obtained by dividing the captured image is generated.
Using the discriminative model according to the division roughness recorded in the learning information storage unit, the material to be worked included in each of the division images is specified.
In each of the divided images, each divided image in which the material was photographed is specified, and the actual area is calculated according to the photographing conditions of the divided images.
A work support method comprising calculating work evaluation information of work using the material based on the actual area and the management information recorded in the management information storage unit.
被写体を撮影した撮影画像を生成する撮影部と、
分割粗度に応じた識別モデルが記録された学習情報記憶部と、
資材を用いた作業を評価するための管理情報を記録した管理情報記憶部とに接続された制御部とを備えた作業支援システムを用いて、作業状況を評価する作業支援プログラムであって、
前記制御部を、
前記撮影部から、作業現場の撮影画像、撮影条件を取得し、
前記資材に応じた分割粗度を用いて、前記撮影画像を分割した分割画像を生成し、
前記学習情報記憶部に記録された前記分割粗度に応じた識別モデルを用いて、前記分割画像毎に含まれる作業対象の資材を特定し、
前記各分割画像において前記資材が撮影された各分割画像を特定し、前記各分割画像の撮影条件に応じて実面積を算出し、
前記実面積及び前記管理情報記憶部に記録された管理情報に基づいて、前記資材を用いた作業の作業評価情報を算出する手段として機能させることを特徴とする作業支援プログラム。
A shooting unit that generates a shot image of the subject, and
A learning information storage unit in which a discriminative model according to the division roughness is recorded,
It is a work support program that evaluates the work status using a work support system equipped with a management information storage unit that records management information for evaluating work using materials and a control unit connected to it.
The control unit
From the shooting unit, the shot image and shooting conditions of the work site are acquired.
Using the division roughness according to the material, a divided image obtained by dividing the captured image is generated.
Using the discriminative model according to the division roughness recorded in the learning information storage unit, the material to be worked included in each of the division images is specified.
In each of the divided images, each divided image in which the material was photographed is specified, and the actual area is calculated according to the photographing conditions of the divided images.
A work support program characterized in that it functions as a means for calculating work evaluation information of work using the material based on the actual area and the management information recorded in the management information storage unit.
JP2017102910A 2017-05-24 2017-05-24 Work support system, work support method and work support program Active JP7095232B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017102910A JP7095232B2 (en) 2017-05-24 2017-05-24 Work support system, work support method and work support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017102910A JP7095232B2 (en) 2017-05-24 2017-05-24 Work support system, work support method and work support program

Publications (2)

Publication Number Publication Date
JP2018197998A JP2018197998A (en) 2018-12-13
JP7095232B2 true JP7095232B2 (en) 2022-07-05

Family

ID=64663704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017102910A Active JP7095232B2 (en) 2017-05-24 2017-05-24 Work support system, work support method and work support program

Country Status (1)

Country Link
JP (1) JP7095232B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3882350A4 (en) 2018-10-19 2022-08-10 Masashi Mori Method for synthesizing betalain pigment
JP7398613B2 (en) 2019-07-31 2023-12-15 株式会社大林組 Joint surface roughness evaluation device and joint surface roughness evaluation system
JP7375405B2 (en) * 2019-09-19 2023-11-08 株式会社大林組 Learning support system, learning support method, and learning support program
CN111582659B (en) * 2020-04-16 2023-09-19 北京航空航天大学青岛研究院 Mountain work difficulty index calculation method
JPWO2022091265A1 (en) * 2020-10-28 2022-05-05

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222281A (en) 2001-01-25 2002-08-09 Ohbayashi Corp Repairing cost calculating system, program for realizing repairing cost calculating system by computer, and computer readable record medium recording program
JP2005327170A (en) 2004-05-17 2005-11-24 Shimizu Corp Quality check system in construction site
JP2013088895A (en) 2011-10-14 2013-05-13 Haruta Kensetsu:Kk Construction assisting device and construction assisting method
JP2015207105A (en) 2014-04-18 2015-11-19 Necフィールディング株式会社 Information processor, information processing system, information processing method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222281A (en) 2001-01-25 2002-08-09 Ohbayashi Corp Repairing cost calculating system, program for realizing repairing cost calculating system by computer, and computer readable record medium recording program
JP2005327170A (en) 2004-05-17 2005-11-24 Shimizu Corp Quality check system in construction site
JP2013088895A (en) 2011-10-14 2013-05-13 Haruta Kensetsu:Kk Construction assisting device and construction assisting method
JP2015207105A (en) 2014-04-18 2015-11-19 Necフィールディング株式会社 Information processor, information processing system, information processing method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鈴木 理史,集合住宅内装仕上げ工事における工事写真認識システムの開発,大林組技術研究所報,No.802016,日本,大林組 [オンライン],2016年12月27日,第1-6頁,インターネット:<URL:https://www.obayashi.co.jp/technology/shoho/080/2016_080_09.pdf>

Also Published As

Publication number Publication date
JP2018197998A (en) 2018-12-13

Similar Documents

Publication Publication Date Title
JP7095232B2 (en) Work support system, work support method and work support program
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
Kim et al. SLAM-driven robotic mapping and registration of 3D point clouds
US9965870B2 (en) Camera calibration method using a calibration target
US8600147B2 (en) System and method for remote measurement of displacement and strain fields
Esfahani et al. Quantitative investigation on the accuracy and precision of Scan-to-BIM under different modelling scenarios
CN113125458B (en) Method and system for checking and evaluating coating state of steel structure
US20060285752A1 (en) Three-dimensional measuring method and three-dimensional measuring apparatus
DE102010043136A1 (en) Measuring device for a non-contact measurement of distances at a target object
US9449378B2 (en) System and method for processing stereoscopic vehicle information
JP6937642B2 (en) Surface evaluation method and surface evaluation device
WO2017119202A1 (en) Structure member specifying device and method
CN102157004A (en) Automatic image mosaicking method for high-accuracy image measuring apparatus of super-view field part
US10297079B2 (en) Systems and methods for providing a combined visualizable representation for evaluating a target object
Arias et al. 3D modeling and section properties of ancient irregular timber structures by means of digital photogrammetry
JP5388921B2 (en) Three-dimensional distance measuring apparatus and method
CA3214736A1 (en) Vehicle damage detection system and method
JP2021125253A (en) Charge output device, charge output method and charge output system
Debus et al. Evaluation of 3D uas flight path planning algorithms
JP7136737B2 (en) Three-dimensional position measuring device, three-dimensional position measuring method and program
US20180025479A1 (en) Systems and methods for aligning measurement data to reference data
JP3637416B2 (en) Three-dimensional measurement method, three-dimensional measurement system, image processing apparatus, and computer program
JP2020064044A (en) Profile creation method, profile creation system, profile, and profile creation program
KR102554504B1 (en) Method for inspecting steel structure automatically based on 3d modeling
Shan et al. A laser triangulation based on 3d scanner used for an autonomous interior finishing robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R150 Certificate of patent or registration of utility model

Ref document number: 7095232

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150