KR20230149121A - Method and device for determining construction progress through classification based on deep learning - Google Patents

Method and device for determining construction progress through classification based on deep learning Download PDF

Info

Publication number
KR20230149121A
KR20230149121A KR1020220048412A KR20220048412A KR20230149121A KR 20230149121 A KR20230149121 A KR 20230149121A KR 1020220048412 A KR1020220048412 A KR 1020220048412A KR 20220048412 A KR20220048412 A KR 20220048412A KR 20230149121 A KR20230149121 A KR 20230149121A
Authority
KR
South Korea
Prior art keywords
construction site
construction
progress
feature map
classification
Prior art date
Application number
KR1020220048412A
Other languages
Korean (ko)
Inventor
방승온
성범규
Original Assignee
오지큐 주식회사
롯데건설 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오지큐 주식회사, 롯데건설 주식회사 filed Critical 오지큐 주식회사
Priority to KR1020220048412A priority Critical patent/KR20230149121A/en
Priority to PCT/KR2023/005063 priority patent/WO2023204528A1/en
Publication of KR20230149121A publication Critical patent/KR20230149121A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Economics (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 공사 진척도의 판단 방법에 관한 것이다. 본 발명에 따른 서버에서 수행되는 딥러닝 기반의 공사 진척도 판단 방법은 공사 현장 이미지를 입력 받는 단계; 상기 공사 현장 이미지에 대하여 픽셀 단위의 분류를 학습된 공사 현장 분류 모델을 이용하여 수행하는 단계; 및 상기 분류 별 픽셀의 비율을 통하여 공사 진척도를 산출하는 단계를 포함한다. 본 발명에 따르면, 학습된 신경망을 통하여 객관화된 지표를 산출하고 보다 편리하게 공사 진척도를 판단할 수 있다.The present invention relates to a method for determining construction progress. The deep learning-based construction progress determination method performed on the server according to the present invention includes the steps of receiving a construction site image; Performing pixel-level classification on the construction site image using a learned construction site classification model; and calculating construction progress through the ratio of pixels for each category. According to the present invention, objective indicators can be calculated through a learned neural network and construction progress can be judged more conveniently.

Description

딥러닝 기반의 분류를 통한 공사 진척도 판단 방법 및 장치{Method and device for determining construction progress through classification based on deep learning}{Method and device for determining construction progress through classification based on deep learning}

본 발명은 공사 진척도의 판단 방법에 관한 것이다. 보다 구체적으로 본 발명은 공사 현장의 이미지를 이용한 진척도 판단 방법에 관한 것이다.The present invention relates to a method for determining construction progress. More specifically, the present invention relates to a method for determining progress using images of a construction site.

인공지능 기술의 발달로 다양한 기술 분야에 인공지능이 적용되고 있다.With the development of artificial intelligence technology, artificial intelligence is being applied to various technical fields.

특히 입력된 이미지에 대한 픽셀 값들을 특징으로 수학적인 연산을 통해 객체를 추적하고, 추적된 객체를 분류하기 위해 딥러닝 기반의 다양한 알고리즘들이 개발되고 있으며, 행렬로 정의되는 특징 값들에 대한 컨볼루션 연산을 수행하는 복수의 레이어들로 결합된 CNN(Convolution Neural Network) 신경망 모델들은 적용되는 도메인에 따라 최적화되어 이용되고 있다.In particular, various algorithms based on deep learning are being developed to track objects through mathematical operations using the pixel values of the input image and classify the tracked objects, and perform convolution operations on feature values defined as matrices. CNN (Convolution Neural Network) neural network models, which are combined with multiple layers that perform, are optimized and used according to the domain to which they are applied.

공사현장에서 공정관리를 위해 사용되고 있는 프로그램은 현장초기에 작업단위(activity) 별 공정계획을 구축하고, 공사 진행에 따라 실적을 물량단위, 기간단위로 수동으로 입력하여 공정실적을 반영하는 형태로서, 공정실적 반영 형태는 실제로 공정진행 현황이 자동으로 실적에 반영되지 않는 문제가 있다.The program used for process management at construction sites establishes a process plan for each work unit (activity) at the beginning of the site and reflects the process performance by manually entering the performance by quantity and period as the construction progresses. The process performance reflection method has a problem in that the actual process progress status is not automatically reflected in the performance.

각 부문별 실적을 취합하여 반영하기 위해서는 현장공정을 전반적으로 파악해야 하는 인원 및 프로그램을 운영하는 전담인력이 별도로 필요한 실정이다.In order to collect and reflect the performance of each sector, a separate person is needed to understand the field process as a whole and a dedicated manpower to run the program.

또한, 이러한 실적취합 방식은 즉각적인 반영이 어렵고, 정확성 또한 떨어져 실제 공정관리상에는 거의 이용되지 않고, 발주처의 요구 등에 의해 억지로 수행하는 구색 맞추기에 그치고 있다. In addition, this method of performance collection is difficult to reflect immediately and has low accuracy, so it is rarely used in actual process management and is limited to a forced assortment due to the request of the ordering party.

따라서 선행특허(한국등록허공보 10-1988350)은 공사일보를 AI 분석을 통해 공사 일보의 계획물량과 비교한 후 과/소 투입, 공정지연 등에 대한 공정가중치를 부여함으로써 최적의 공정관리 및 투입물량 예측에 활용할 수 있도록 구성되어진 새로운 방식의 가상 공정모듈을 이용한 검측 및 공사일보 AI 분석을 통한 자동 현장 공정 관리 시스템을 제안한다.Therefore, the prior patent (Korea Registered Publication No. 10-1988350) compares the construction daily report with the planned quantity of the construction daily report through AI analysis and then assigns process weights to over/under input, process delay, etc. to ensure optimal process management and input quantity. We propose an automatic on-site process management system through AI analysis of inspection and construction daily reports using a new virtual process module that can be used for prediction.

다만, 선행특허 역시 물량에 기반한 간접적인 공정관리에 대한 것으로 실제 공정 결과를 모니터링할 수 있는 직접적인 방법의 제안이 필요한 실정이다. However, the prior patent also deals with indirect process management based on volume, so there is a need to propose a direct method to monitor actual process results.

본 발명은 객관화된 지표를 통하여 공사 진척도를 관리하는 방법을 제안하는 것을 목적으로 한다.The purpose of the present invention is to propose a method for managing construction progress through objective indicators.

본 발명은 공사 현장 이미지로부터 획득된 구조물 정보를 이용하여 공사 진행상황을 판단하는 것을 목적으로 한다.The purpose of the present invention is to determine construction progress using structure information obtained from construction site images.

본 발명은 학습된 신경망 모델을 이용한 분석을 통해 개개인의 판단에 따라 진척도 판단의 일관성이 결여되는 것을 해결하는 것을 목적으로 한다. The purpose of the present invention is to solve the lack of consistency in judgment of progress depending on individual judgment through analysis using a learned neural network model.

또한, 본 발명은 공사 현장을 사람이 직접 판단함에 따른 리소스를 줄이고 안전사고를 예방하는 것을 목적으로 한다.In addition, the purpose of the present invention is to reduce resources due to human judgment of the construction site and prevent safety accidents.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 서버에서 수행되는 딥러닝 기반의 공사 진척도 판단 방법은 공사 현장 이미지를 입력 받는 단계; 상기 공사 현장 이미지에 대하여 픽셀 단위의 분류를 학습된 공사 현장 분류 모델을 이용하여 수행하는 단계; 및 상기 분류 별 픽셀의 비율을 통하여 공사 진척도를 산출하는 단계를 포함한다.A deep learning-based construction progress determination method performed on a server according to the present invention to solve the above technical problem includes receiving an image of a construction site; Performing pixel-level classification on the construction site image using a learned construction site classification model; and calculating construction progress through the ratio of pixels for each category.

상기 분류는 공사 현장 내 수직철근 또는 바닥철근을 포함한다.The above classification includes vertical reinforcing bars or floor reinforcing bars at construction sites.

상기 분류는 공사 현장 내 먹매김을 포함한다.The above classification includes food in construction sites.

상기 분류는 공사 현장 내 외벽 거푸집 또는 벽채거푸집을 포함한다.The above classification includes exterior wall formwork or wall formwork within the construction site.

상기 공사 현장 분류 모델은 입력된 상기 공사 현장 이미지 내 픽셀 간 컨볼루션 연산을 수행하여 특징맵을 추출하는 인코더, 및 상기 추출된 특징맵을 업샘플링하여 픽셀 별 분류 결과를 출력하는 디코더를 포함한다.The construction site classification model includes an encoder that extracts a feature map by performing a convolution operation between pixels in the input construction site image, and a decoder that upsamples the extracted feature map and outputs a classification result for each pixel.

상기 인코더는 상기 공사 현장 이미지로부터 컨볼루션을 수행하여 제1 특징맵을 추출하는 제1 네트워크; 및 상기 제1 특징 맵을 복수의 비율 파라미터에 따라 픽셀 간 컨볼루션을 연산하여 복수의 특징맵을 추출하고, 복수의 특징맵을 병합한 제2 특징맵을 추출하는 제2 네트워크를 포함한다.The encoder includes a first network that extracts a first feature map by performing convolution from the construction site image; And a second network that extracts a plurality of feature maps by calculating pixel-to-pixel convolution of the first feature map according to a plurality of ratio parameters, and extracts a second feature map by merging the plurality of feature maps.

상기 디코더는 상기 제1 네트워크의 출력 및 제2 특징맵의 차원을 축소 후 병합한 제3 특징맵을 업샘플링하여 픽셀별 분류 결과를 출력하는 것이 바람직하다.Preferably, the decoder upsamples the third feature map obtained by reducing and merging the dimensions of the output of the first network and the second feature map and outputs a classification result for each pixel.

상기 공사 현장 이미지를 복수의 부분 이미지로 분할하고, 분할된 부분 이미지 별 픽셀 단위의 분류를 수행하는 것이 바람직하다.It is desirable to divide the construction site image into a plurality of partial images and perform pixel-level classification for each divided partial image.

상기 공사 진척도를 산출하는 단계는 시계열적으로 입력된 공사 현장 이미지에 대하여 이전 공사 현장 이미지의 진척도 및 경과 기간을 이용하여 진척도를 산출하는 것이 바람직하다.In the step of calculating the construction progress, it is desirable to calculate the progress using the progress and elapsed period of the previous construction site image for the construction site image input in time series.

상기 공사 현장 이미지는 복수의 각도에서 촬영한 이미지로, 상기 공사 진척도를 산출하는 단계는 상기 복수의 각도에 대한 공사 현장 이미지의 픽셀의 비율을 이용하여 진척도를 산출하는 것이 바람직하다.The construction site image is an image taken from a plurality of angles, and the step of calculating the construction progress preferably calculates the progress using the ratio of pixels of the construction site image to the plurality of angles.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 딥러닝 기반의 공사 진척도 판단 장치는 공사 현장 이미지를 수신하는 통신부; 상기 공사 현장 이미지로부터 공사 진척도를 판단하는 하나 이상의 프로세서들; 및 입출력부를 포함하고, 사기 하나 이상의 프로세서들은, 공사 현장 이미지를 입력 받고, 상기 공사 현장 이미지에 대하여 픽셀 단위의 분류를 학습된 공사 현장 분류 모델을 이용하여 수행하고, 그리고, 상기 분류 별 픽셀의 비율을 통하여 공사 진척도를 산출하는 것이 바람직하다.A deep learning-based construction progress determination device according to the present invention to solve the above technical problem includes a communication unit that receives construction site images; One or more processors that determine construction progress from the construction site image; and an input/output unit, wherein one or more processors receive a construction site image, perform pixel-level classification on the construction site image using a learned construction site classification model, and provide a ratio of pixels for each classification. It is desirable to calculate construction progress through .

본 발명에 따르면, 학습된 신경망을 통하여 객관화된 지표를 산출하고 보다 편리하게 공사 진척도를 판단할 수 있다.According to the present invention, objective indicators can be calculated through a learned neural network and construction progress can be judged more conveniently.

또한, 본 발명에 따르면 공사 현장을 촬영한 전체 이미지로부터 동시에 진행상황을 파악함으로써 현장 검증의 시간차이에 따른 오류를 줄일 수 있다.In addition, according to the present invention, errors due to time differences in on-site verification can be reduced by simultaneously determining the progress status from all images taken of the construction site.

또한, 본 발명은 공사 진척도를 이미지화하여 제공함으로써 직관적인 판단 정보를 사용자에게 제공해 줄 수 있다.Additionally, the present invention can provide users with intuitive decision information by providing images of construction progress.

또한, 다양한 각도의 이미지를 활용하여 보다 정확한 진척도를 효율적으로 판단할 수 있다.Additionally, by using images from various angles, more accurate progress can be determined efficiently.

도 1은 본 발명의 일 실시예에 따른 공사 진척도 판단 시스템을 나타낸 예시도이다.
도 2는 본 발명의 일 실시예에 따른 공사 진척도 판단을 나타낸 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 공사 진척도 판단 모델의 구성을 나타내는 도이다.
도 4는 본 발명의 일 실시예에 따른 공사 진척도 판단을 나타낸 흐름도이다
도 5는 본 발명의 일 실시예에 따른 공사 진척도 판단 모델의 상세 구성을 나타내는 도이다.
도 6은 본 발명의 일 실시예에 따른 공사 진척도 판단 모델의 필터 구성을 나타내는 도이다.
도 7 내지 11은 본 발명의 일 실시예에 따른 공사 진척도 판단 모델의 분류 결과를 나타내는 도이다.
도 12는 본 발명의 일 실시예에 따른 공사 진척도 판단 모델의 학습 방법을 나타내는 도이다.
도 13 내지 14는 본 발명의 추가적인 실시예에 따른 공사 진척도 판단 모델의 구성을 나타내는 도이다.
도 15는 본 발명의 일 실시예들에 따른 서버의 컴퓨팅 장치 형태로의 구현을 나타낸 예시도이다.
Figure 1 is an exemplary diagram showing a construction progress determination system according to an embodiment of the present invention.
Figure 2 is a flowchart showing construction progress judgment according to an embodiment of the present invention.
Figure 3 is a diagram showing the configuration of a construction progress judgment model according to an embodiment of the present invention.
Figure 4 is a flowchart showing construction progress judgment according to an embodiment of the present invention.
Figure 5 is a diagram showing the detailed configuration of a construction progress judgment model according to an embodiment of the present invention.
Figure 6 is a diagram showing the filter configuration of a construction progress judgment model according to an embodiment of the present invention.
7 to 11 are diagrams showing classification results of a construction progress judgment model according to an embodiment of the present invention.
Figure 12 is a diagram showing a method of learning a construction progress judgment model according to an embodiment of the present invention.
Figures 13 and 14 are diagrams showing the configuration of a construction progress judgment model according to an additional embodiment of the present invention.
Figure 15 is an exemplary diagram showing the implementation of a server in the form of a computing device according to one embodiment of the present invention.

이하의 내용은 단지 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시 되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이외같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다. The following merely illustrates the principles of the invention. Therefore, a person skilled in the art can invent various devices that embody the principles of the invention and are included in the concept and scope of the invention, although not clearly described or shown herein. In addition, all conditional terms and embodiments listed in this specification are, in principle, clearly intended only for the purpose of ensuring that the inventive concept is understood, and should be understood as not limiting to the specifically listed embodiments and states. .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. The above-mentioned purpose, features and advantages will become clearer through the following detailed description in relation to the attached drawings, and accordingly, those skilled in the art in the technical field to which the invention pertains will be able to easily implement the technical idea of the invention. .

또한, 발명을 설명함에 있어서 발명과 관련된 공지 기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예에 대해 상세하게 설명한다.Additionally, when describing the invention, if it is determined that a detailed description of known technology related to the invention may unnecessarily obscure the gist of the invention, the detailed description will be omitted. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 공사 진척도 판단 방법을 수행하는 장치의 구조를 나타내는 예시도이다.1 is an exemplary diagram showing the structure of a device that performs a method for determining construction progress according to an embodiment of the present invention.

도 1을 참고하면, 본 실시예에 따른 공사 진척도 판단 서버(1000)는 공사 현장으로부터 획득된 현장 이미지(50)를 학습된 신경망 모델(100)에 입력하고 현장 이미지(50)의 분류 결과(60)를 이용하여 공사 진척도를 판단할 수 있다.Referring to FIG. 1, the construction progress determination server 1000 according to this embodiment inputs the site image 50 acquired from the construction site into the learned neural network model 100 and classifies the site image 50 (60). ) can be used to judge the progress of construction.

본 실시예에 따른 공사 진척도 판단 서버(1000)는 다양한 각도에서 획득된 현장 이미지(50)를 시계열 적으로 수집하고 이미지 내에서 작업물들의 변화를 식별함으로써 진척도를 판단할 수 있다.The construction progress determination server 1000 according to this embodiment can collect site images 50 acquired from various angles in time series and determine progress by identifying changes in works within the images.

건물의 건축 현장에서는 목적에 따라 다양한 구조물들이 형성되므로 구조물들의 설치 상황을 통해 공사의 진척도를 판단할 수 있다.At a building construction site, various structures are formed depending on the purpose, so the progress of construction can be judged through the installation status of the structures.

이하, 본 실시예에서 대표적으로 검출하는 5가지 구조물에 대하여 설명한다.Hereinafter, five structures typically detected in this example will be described.

예를 들어 수직 철근(Vertical reinforcing bar)은 동일한 면 내에 인접한 상하 벽판을 수직 방향으로 연결하기 위하여 접합부의 내부 또는 벽판 부분에 철근을 수직으로 세워 틀을 마련할 수 있다. For example, a vertical reinforcing bar can be used to create a frame by erecting reinforcing bars vertically inside a joint or on a wall plate to vertically connect adjacent upper and lower wall plates within the same plane.

먹매김(Marking)은 이음, 맞춤 가공, 부재의 부착을 위해 그 형상이나 치수, 위치 등의 선을 표면에 표시한 것으로 벽, 바닥, 기둥 등에 심의 위치나 마감면의 위치 등을 표시할 수 있다.Marking is a line marking on the surface of the shape, size, or location for jointing, custom processing, or attachment of members. It can indicate the position of the seam or the position of the finished surface on walls, floors, pillars, etc. .

외벽거푸집(Exterior wall formwork)은 콘크리트 구조물을 일정한 형태나 크기로 만들기 위하여 굳지 않은 콘크리트를 부어 넣어 원하는 강도에 도달할 때까지 양생 및 지지하는 가설 구조물이며 형틀의 역할을 수행한다.Exterior wall formwork is a temporary structure that pours unhardened concrete into a concrete structure in a certain shape or size, curing and supporting it until it reaches the desired strength, and serves as a formwork.

바닥 철근(Bottom reinforcement)은 수평 방향의 지지를 위하여 바닥면에 형성되는 철근 구조물로 슬라브(Slab) 배근으로 표현될 수 있다.Bottom reinforcement is a reinforcing bar structure formed on the floor for horizontal support and can be expressed as slab reinforcement.

벽체 거푸집(Wall-form)은 콘크리트 벽체를 만드는데 쓰이는 거푸집이며 옹벽 거푸집으로 표현되기도 한다.Wall-form is a form used to make concrete walls and is also expressed as a retaining wall form.

이상의 구조물들은 공사 현장에 직접 설치됨에 따라 공사 현장을 촬영한 이미지 내에 표현되며 따라서, 본 실시예에 따른 공사 진척도 판단 방법은 5가지 필수 구조물을 현장 이미지(50)로부터 학습된 신경망을 이용하여 검출하고 해당 구조물의 진행상태를 기초로 전체 공사 진척도를 판단한다.The above structures are expressed in images taken of the construction site as they are directly installed at the construction site. Therefore, the method for determining construction progress according to this embodiment detects five essential structures using a neural network learned from the site image 50, and The overall construction progress is judged based on the progress status of the relevant structure.

나아가 본 실시시예에서 검출하는 5가지 구조물은 하나의 예시로써 공사 현장에 따라 필요한 구조물들이 추가되거나 선택될 수 있으며, 신경망 모델을 통해 검출되는 구조물의 종류가 이에 한정되는 것은 아니다.Furthermore, the five structures detected in this embodiment are just examples, and necessary structures can be added or selected depending on the construction site, and the types of structures detected through the neural network model are not limited to this.

이하, 도 2를 참고하여 본 실시예에 따른 공사 진척도 판단 방법에 대하여 보다 상세히 설명한다.Hereinafter, the method for determining construction progress according to this embodiment will be described in more detail with reference to FIG. 2.

먼저 본 실시예에서 서버(1000)는 공사 현장 이미지(50)를 입력 받는다(S100). First, in this embodiment, the server 1000 receives the construction site image 50 (S100).

공사 현장 이미지(50)는 현장에 설치된 CCTV로부터 획득될 수 있으며 또는 드론과 같은 무인비행체에 탑재된 카메라를 통해 촬영될 수 있다. The construction site image 50 may be obtained from CCTV installed at the site or may be captured through a camera mounted on an unmanned aerial vehicle such as a drone.

공사 현장 이미지(50)는 공사 전반에 걸친 진행 상황을 판단하기 위해 넓은 지역을 촬영한 이미지일 수 있으며, 구조물의 특성에 따라 식별하기 용이한 각도로 촬영될 수 있다.The construction site image 50 may be an image taken of a large area to determine the progress of the overall construction, and may be taken at an angle that makes it easy to identify depending on the characteristics of the structure.

다음, 공사 현장 이미지(50)에 포함된 객체들의 분류를 학습된 공사 현장 분류 모델(100)을 이용하여 수행한다(S200).Next, classification of objects included in the construction site image 50 is performed using the learned construction site classification model 100 (S200).

구체적으로 본 실시예에서는 공사 현장 이미지(50)에 포함된 객체들을 픽셀단위로 분류할 수 있다. Specifically, in this embodiment, objects included in the construction site image 50 can be classified on a pixel basis.

구체적으로 도 3을 참고하면 본 실시예에서 공사 현장 분류 모델(100)은 입력된 공사 현장 이미지(50) 내 픽셀 간 컨볼루션 연산을 수행하여 특징맵을 추출하는 인코더와 추출된 특징맵을 업샘플링하여 픽셀 별 분류 결과를 출력하는 디코더를 포함하여 구성될 수 있다.Specifically, referring to FIG. 3, in this embodiment, the construction site classification model 100 performs a convolution operation between pixels in the input construction site image 50 to extract a feature map and upsamples the extracted feature map. Thus, it may be configured to include a decoder that outputs classification results for each pixel.

본 실시예에 따른 공사 현장 분류 모델(100)의 구체적인 동작은 도 4와 같은 단계로 수행될 수 있다.The specific operation of the construction site classification model 100 according to this embodiment may be performed in the same steps as shown in FIG. 4.

도 4를 참고하면, 공사 현장 분류 모델(100)의 인코더는 입력된 공사 현장 이미지(50)로부터 식별하고자 하는 객체들의 특징이 강조된 형태의 특징맵을 추출할수 있다(S210).Referring to FIG. 4, the encoder of the construction site classification model 100 can extract a feature map in a form in which the characteristics of objects to be identified are emphasized from the input construction site image 50 (S210).

따라서 인코더는 특징맵을 추출하기 위해 컨볼루션연산을 수행하는 컨볼루션 레이어들을 포함하여 구성될 수 있다. 컨볼루션 레이어 내의 필터들은 입력된 공사 현장 이미지(50)에 대하여 픽셀 단위의 컨볼루션 연산을 수행함으로써 구조물을 포함하는 픽셀들의 값을 강조하여 출력할 수 있다. Therefore, the encoder may be configured to include convolution layers that perform convolution operations to extract feature maps. Filters in the convolution layer can output the output by emphasizing the values of pixels including the structure by performing a pixel-level convolution operation on the input construction site image 50.

이상의 특징들이 강조된 특징맵은 디코더의 업샘플링 과정을 통해 원본 크기의 이미지로 복원되며 이러한 과정에서 픽셀 별 분류 결과를 이미지 형태로 출력된다(S220). The feature map with the above features highlighted is restored to the original size image through the decoder's upsampling process, and during this process, the pixel-by-pixel classification result is output in the form of an image (S220).

이때, 인코더는 공사 현장 이미지(50) 전반에 형성된 구조물들의 탐색을 위하여 전역적인 특징들을 추출할 수 있도록 복수의 네트워크 구조로 구성될 수 있다.At this time, the encoder may be configured with a plurality of network structures to extract global features to search for structures formed throughout the construction site image 50.

도 5를 참고하면 인코더(110)는 공사 현장 이미지(50)로부터 컨볼루션을 수행하여 제1 특징맵(52)을 추출하는 제1 네트워크(112)와 제1 특징 맵(52)을 복수의 비율 파라미터에 따라 픽셀 간 컨볼루션을 연산하여 복수의 특징맵(54) 군을 추출하고, 복수의 특징맵(54)을 병합한 제2 특징맵(56)을 추출하는 제2 네트워크(114)를 포함하여 구성될 수 있다.Referring to Figure 5, the encoder 110 performs convolution from the construction site image 50 to extract the first feature map 52 and the first network 112 and the first feature map 52 at a plurality of ratios. It includes a second network 114 that extracts a group of multiple feature maps 54 by calculating convolution between pixels according to parameters and extracts a second feature map 56 that merges the multiple feature maps 54. It can be configured as follows.

즉, 제1 네트워크(112)는 입력된 공사 현장 이미지(50)를 내부의 컨볼루션 레이어들을 통해 특징들이 강조됨으로써 압축된 이미지를 생성할 수 있다. 제1 네트워크(112)는 각 구조물들의 특징들이 강조된 제1 특징맵(52)을 중간 출력으로 생성하되 객체들의 위치 정보들이 일부 보존된 상태에서 특징을 강조할 수 있도록 제1 특징맵(52)을 추가적인 컨볼루션 네트워크로 전달한다.That is, the first network 112 can generate a compressed image by emphasizing features of the input construction site image 50 through internal convolution layers. The first network 112 generates a first feature map 52 in which the features of each structure are emphasized as an intermediate output, but generates the first feature map 52 so that features can be emphasized while partially preserving the location information of the objects. Pass it to an additional convolutional network.

이어서 제2 네트워크(114)는 중간 출력을 이용하여 제2 특징맵(56)을 생성할 수 있다.Subsequently, the second network 114 may generate the second feature map 56 using the intermediate output.

제2 네트워크(114) 역시 컨볼루션 연산을 통해 제1 특징맵(52) 내 픽셀간 컨볼루션 연산을 수행하나, 본 실시예에서는 제1 특징맵(52)에 대하여 병렬적으로 다양한 필터에 따른 컨볼루션 연산을 수행하여 복수의 특징맵을 동시에 획득할 수 있다.The second network 114 also performs a convolution operation between pixels in the first feature map 52 through a convolution operation, but in this embodiment, a convolution operation is performed according to various filters in parallel with respect to the first feature map 52. Multiple feature maps can be obtained simultaneously by performing a solution operation.

또한 이때의 필터는 제한된 파라미터의 수에서 보다 전역적인 특징들을 추출하기 위하여 지정된 간격을 비율 파라미터로 가질 수 있다.Additionally, the filter at this time may have a specified interval as a ratio parameter in order to extract more global features from a limited number of parameters.

구체적으로 도 6을 참조하면 결정된 비율 파라미터(R)에 따라서 파라미터의 수보다 보다 넓은 지역에 대한 컨볼루션 연산을 수행할 수 있다.Specifically, referring to FIG. 6, a convolution operation can be performed on an area wider than the number of parameters according to the determined ratio parameter (R).

예를 들어 R=1 인 경우는 필터내 파라미터 간 간격이 없는 상태로 3x3 크기의 필터 내 9개의 파라미터들로 동일한 크기의 영역에 대한 컨볼루션 연산을 수행하는 반면, R=2인 경우 필터내 파라미터 간 간격이 1개의 픽셀을 두고 컨볼루션 연산을 수행할 수 있으며 따라서 보다 넓은 영역으로 5x5에 대한 특징을 추출할 수 있다.For example, if R = 1, a convolution operation is performed on an area of the same size with 9 parameters in a 3x3 filter with no gap between parameters in the filter, while if R = 2, the parameters in the filter are A convolution operation can be performed with an interval of 1 pixel, and therefore features for 5x5 can be extracted over a wider area.

즉, 컨볼루션 연산 후의 픽셀들이 수용하는 영역(receptive field)을 파라미터 수의 변경 없이 파라미터 간의 간격을 조정하는 것으로 늘릴 수 있으며 이를 통해 보다 간소화된 연산으로 보다 전역적인 특징을 관찰한 특징맵들을 출력할 수 있다.In other words, the receptive field of the pixels after the convolution operation can be increased by adjusting the spacing between parameters without changing the number of parameters, and through this, feature maps that observe more global features can be output through a more simplified operation. You can.

또한, 제1 네트워크(112)의 컨볼루션 연산을 위한 필터들도 상술한 바와 같이 간격을 조절하는 비율 파라미터에 따른 컨볼루션 연산을 수행하는 것도 가능하다.In addition, the filters for the convolution operation of the first network 112 can also perform a convolution operation according to the rate parameter that adjusts the interval as described above.

다음 제2 네트워크는 다양한 비율 파라미터에 따른 병렬 연산을 통해 생성된 복수의 특징맵들을 하나로 병합하는 과정을 수행한다. 나아가 병합 후 깊어진 차원의 크기를 조절하기 위하여 1x1 컨볼루션을 수행하는 레이어를 추가로 구성하고 디코더(120)의 입력을 위한 특징맵의 사이즈를 조절할 수 있다. Next, the second network performs a process of merging multiple feature maps generated through parallel operations according to various ratio parameters into one. Furthermore, in order to adjust the size of the deepened dimension after merging, a layer that performs 1x1 convolution can be additionally configured and the size of the feature map for input to the decoder 120 can be adjusted.

디코더(120)는 제2 네트워크(120)의 병합된 제2 특징맵(56)을 업샘플링 함으로써 원본 크기의 공사 현장 이미지(50)에 대한 픽셀별 분류 결과(60)를 생성할 수 있다. 다만, 공사 현장의 진척도를 판단하기 위해서는 보다 정확한 구조물들의 경계들의 설정이 필요하며 따라서 디코더(120)는 제2 특쟁맵(56) 뿐만 아니라 추가적인 정보들을 활용하여 업샘플링에 이용할 수 있다.The decoder 120 may generate a classification result 60 for each pixel of the original size construction site image 50 by upsampling the merged second feature map 56 of the second network 120. However, in order to determine the progress of a construction site, more accurate settings of the boundaries of structures are necessary, and therefore the decoder 120 can use additional information in addition to the second special map 56 for upsampling.

즉, 본 실시예에서는 인코더(110)의 제1 네트워크(1120)의 출력으로 제2 특징맵의 업샘플링 과정에서 크기가 동일한 중간 특징맵(53)을 이용하여 디코딩을 수행할 수 있다.That is, in this embodiment, decoding can be performed using the intermediate feature map 53 of the same size during the upsampling process of the second feature map as the output of the first network 1120 of the encoder 110.

도 5를 참고하면 디코더(120)는 제2 네트워크(120)의 중간 출력으로 제2 특징맵(56)과 함께 제1 네트워크의 출력인 중간 특징맵(53)을 이용하여 업샘플링을 위한 변수로 활용한다.Referring to FIG. 5, the decoder 120 uses the intermediate feature map 53, which is the output of the first network, along with the second feature map 56, which is the intermediate output of the second network 120, as a variable for upsampling. Take advantage of it.

이때 중간 특징맵(53)은 제1 네트워크(110)의 최종 출력 외에 중간의 출력을 이용하여 업샘플링 과정의 특징맵과 동일한 크기의 특징맵을 이용하여 복원에 이용할 수 있다. At this time, the intermediate feature map 53 can be used for restoration by using a feature map of the same size as the feature map in the upsampling process using the intermediate output in addition to the final output of the first network 110.

최종적으로 디코더(120)는 중간 특징 맵 및 병렬 연산을 통한 복수의 특징 맵들을 병합 후 차원 축소 된 제2 특징맵을 병합한 제3 특징맵(62)을 업샘플링하여 픽셀별 분류 결과를 출력한다.Finally, the decoder 120 merges the intermediate feature map and a plurality of feature maps through parallel operation, then upsamples the third feature map 62 obtained by merging the dimensionally reduced second feature map and outputs classification results for each pixel. .

도 7 내지 11를 참고하면, 예를 들어 도 7과 같이 공사 현장 이미지(50)로부터 수직 철근이 포함된 영역을 픽셀 단위(60a)로 분류한 출력(60)을 생성할 수 있다.Referring to FIGS. 7 to 11 , for example, as shown in FIG. 7 , an output 60 may be generated from the construction site image 50 by classifying the area containing vertical reinforcing bars into pixel units 60a.

도 8은 공사 현장 이미지(50) 내 먹매김을 포함하는 픽셀(60b)들을 추출한 출력 이미지(60)이다. 도 9는 외벽거푸집을 포함하는 픽셀의 분류 결과(60c)를 예시하며 도 10은 바닥철근이 포함된 영역들을 픽셀로 분류한 결과(60d)를 예시한다.FIG. 8 is an output image 60 from which pixels 60b including indentations in the construction site image 50 are extracted. Figure 9 illustrates the classification result (60c) of pixels containing external wall formwork, and Figure 10 illustrates the result (60d) of classifying areas containing floor reinforcement into pixels.

도 11의 경우 벽체거푸집이 포함된 픽셀(60e)들을 출력할 수 있다.In the case of Figure 11, pixels 60e including wall formwork can be output.

이때 본 실싱예에 따른 공사 현장 분류 모델(100)은 도시한 바와 같이 픽셀 단위의 구조물들에 대한 분류 결과를 출력하되, 전체 출력 결과는 픽셀과 픽셀 별로 판단하되 연속된 형태를 갖도록 분류 결과들이 출력될 수 있다.At this time, the construction site classification model 100 according to this embodiment outputs classification results for structures in pixel units as shown, and the overall output result is determined pixel by pixel, but the classification results are output to have a continuous form. It can be.

예를 들어 도 10의 바닥철근의 경우 실제 공사 현장 내 철근들이 갖는 바둑판 형태의 영역으로 정확히 분류하는 대신 철근들이 배선된 바닥면의 연속된 형태를 분류 결과로 출력하도록 학습된다.For example, in the case of the floor rebar in FIG. 10, instead of accurately classifying the checkerboard-shaped area of the rebar in the actual construction site, it is learned to output the continuous shape of the floor surface where the rebar is wired as the classification result.

이를 통해 전체 공사 현장의 진행 현황을 파악하는데 있어 이미지 내의 다른 객체에 의한 가림으로부터 영향을 받지 않는 분류 결과를 출력하도록 한다.Through this, classification results that are not affected by occlusion by other objects in the image are output when identifying the progress status of the entire construction site.

즉, 공사 현장 분류 모델(100)은 학습 과정에서 실제 픽셀의 분류 결과 대신 공사 현장의 진척도를 판단할 수 있는 면적 단위의 출력이 가능하도록 학습 데이터를 구성하여 학습을 수행할 수 있다.That is, the construction site classification model 100 may perform learning by configuring learning data to enable output in area units that can determine the progress of the construction site instead of the classification results of actual pixels during the learning process.

도 12를 참조하면, 본 실시예에서 이용되는 학습 데이터는 이미지 내에서 구조물들이 포함된 픽셀들을 연속적인 영역으로 레이블링한 이미지(70)를 직접 학습에 이용한다.Referring to FIG. 12, the training data used in this embodiment directly uses an image 70 in which pixels containing structures within the image are labeled as continuous areas for learning.

즉, 공사 현장 이미지(50)에 대한 모델(100)의 출력 결과(60)와 레이블링된 이미지(70)의 픽셀 간 픽셀의 분류 결과의 차이를 산출하고 해당 차이를 최소화하는 방향으로 오차를 역전파 함으로써 인코더와 디코더 내 파라미터들의 학습을 수행할 수 있다.In other words, calculate the difference in pixel classification results between the output result 60 of the model 100 for the construction site image 50 and the pixel of the labeled image 70, and backpropagate the error in the direction of minimizing the difference. By doing so, parameters within the encoder and decoder can be learned.

이상의 과정을 통해 공사 현장 분류 모델(100)은 연속된 면적을 갖는 형태의 분류 결과를 구조물에 따라 출력할 수 있다.Through the above process, the construction site classification model 100 can output classification results in the form of a continuous area according to the structure.

다음, 본 실시예에 따른 공사 진척도 판단 방법은 분류 별 픽셀의 비율을 통하여 공사 진척도를 산출한다(S300).Next, the method for determining construction progress according to this embodiment calculates construction progress through the ratio of pixels for each classification (S300).

즉, 전체 픽셀의 크기 대비 구조물 들이 차지하는 픽셀의 수를 비율로 산출하고 해당 비율의 변화를 통해 공사 진척도를 판단한다. 따라서 본 실시예에서는 동일한 화각을 갖는 카메라로부터 획득된 공사 현장 이미지(50)를 시계열적으로 활용하여 비율의 변화를 산출할 수 있다.In other words, the number of pixels occupied by the structures is calculated as a ratio compared to the size of all pixels, and the progress of construction is judged through changes in the ratio. Therefore, in this embodiment, the change in ratio can be calculated by using the construction site image 50 acquired from a camera with the same angle of view in time series.

이때, 이미지의 획득 시간 간의 간격과 공사 진척도의 진행 여부를 비교함으로써 경과 기간에 따른 공사 진척의 적정성을 판단할 수 있다.At this time, the adequacy of construction progress according to the elapsed period can be determined by comparing the interval between image acquisition times and whether construction progress is progressing.

나아가, 본 실시예에서 공사 현장 이미지(50)의 경우 3차원적인 영역의 판단을 통해 보다 정확한 진척도의 판단을 수행하는 것도 가능하다.Furthermore, in the case of the construction site image 50 in this embodiment, it is also possible to make a more accurate judgment of progress through judgment of the three-dimensional area.

도 13을 참고하면 동일한 공사 현장에 대하여 서로 다른 방향에서 촬영한 현장 이미지(50a, 50b)를 이용하여 3차원 적으로 재구성하여 공사 진척도를 판단하는 것도 가능하다.Referring to FIG. 13, it is also possible to judge the construction progress by three-dimensionally reconstructing the same construction site using site images 50a and 50b taken from different directions.

예를 들어 제1 카메라의 경우 측면 각도에서 촬영함으로써 수직 철근의 높이 방향의 진척도를 잘 판단할 수 있으며 제2 카메라의 경우 바닥면을 촬영함으로써 수직 철근의 밑면의 너비를 잘 판단할 수 있도록 한다.For example, in the case of the first camera, the progress of the vertical rebar in the height direction can be well judged by taking pictures from a side angle, and in the case of the second camera, the width of the bottom of the vertical rebar can be well judged by taking pictures of the floor surface.

이를 통해 출력 결과(60-1,2) 내 구조물로 분류된 픽셀의 각각의 위치를 고려하여 전체 3차원 공간 대비 산출함으로써 공사 진척도를 보다 정확히 판단하는 것도 가능하다.Through this, it is possible to judge construction progress more accurately by considering each position of the pixel classified as a structure in the output results (60-1, 2) and calculating it compared to the entire three-dimensional space.

나아가, 본 실시예에서 공사 현장 분류 모델(100)을 전체 이미지에 대한 분류 결과를 출력하는 것 외에 슬라이딩 윈도우를 이용하여 대화면의 이미지에 대하여 각각의 단위 영역을 탐색한 결과를 출력하는 것도 가능하다.Furthermore, in this embodiment, in addition to outputting the classification results for the entire image, the construction site classification model 100 can also output the results of searching each unit area for the image on the large screen using a sliding window.

도 13을 참조하면 공사 현장 이미지(50)에 대하여 지정된 크기의 슬라이딩 윈도우 내 단위 영역(51)의 분류 결과(61)를 출력하고 분류 결과를 통합하여 전체 진척도를 판단하는 것도 가능하다. 나아가 슬라이딩 윈도우의 경우 일부 중첩을 허용하고, 중첩된 영역의 평균을 통해 픽셀을 분류함으로써 보다 정확한 구조물들의 경계 설정을 수행하는 것도 가능하다.Referring to FIG. 13, it is also possible to output a classification result (61) of a unit area (51) within a sliding window of a designated size for the construction site image (50) and determine the overall progress by integrating the classification results. Furthermore, in the case of a sliding window, it is possible to allow some overlap and perform more accurate boundary setting of structures by classifying pixels through the average of the overlapping areas.

이하 도 14를 참조하여 공사 현장 진척도 판단 방법을 수행하는 서버(1000)의 구체적인 하드웨어 구현에 대하여 설명한다.Hereinafter, a detailed hardware implementation of the server 1000 that performs the construction site progress determination method will be described with reference to FIG. 14.

도 14를 참조하면, 본 발명의 몇몇 실시예들에 서버(1000)는 컴퓨팅 장치의 형태로 구현될 수 있다. 사바(1000)를 구성하는 각각의 모듈 중 하나 이상은 범용 컴퓨팅 프로세서 상에서 구현되며 따라서 프로세서(processor)(1010), 입출력 I/O(1020), 메모리 장치(memory)(1030), 인터페이스(interface)(1040), 스토리지(1050) 및 버스(1060, bus)를 포함할 수 있다. 프로세서(1010), 입출력 I/O(1020), 메모리 장치(1030) 및/또는 인터페이스(1040)는 버스(1060)를 통하여 서로 결합될 수 있다. 버스(1060)는 데이터들이 이동되는 통로(path)에 해당한다.Referring to FIG. 14, in some embodiments of the present invention, the server 1000 may be implemented in the form of a computing device. One or more of the modules constituting the Saba 1000 are implemented on a general-purpose computing processor and thus include a processor 1010, an input/output I/O 1020, a memory 1030, and an interface. It may include (1040), storage (1050), and bus (1060). The processor 1010, input/output I/O 1020, memory device 1030, and/or interface 1040 may be coupled to each other through a bus 1060. The bus 1060 corresponds to a path through which data moves.

구체적으로, 프로세서(1010)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit), 마이크로프로세서, 디지털 신호 프로세스, 마이크로컨트롤러, 어플리케이션 프로세서(AP, application processor) 및 이들과 유사한 기능을 수행할 수 있는 논리 소자들 중에서 적어도 하나를 포함할 수 있다.Specifically, the processor 1010 includes a Central Processing Unit (CPU), Micro Processor Unit (MPU), Micro Controller Unit (MCU), Graphic Processing Unit (GPU), microprocessor, digital signal processor, microcontroller, and application processor (AP). , application processor) and logic elements capable of performing similar functions.

입출력 I/O장치(1020)는 키패드(keypad), 키보드, 터치스크린 및 디스플레이 장치 중 적어도 하나를 포함할 수 있다. 메모리 장치(206)는 데이터 및/또는 프로그램 등을 저장할 수 있다.The input/output I/O device 1020 may include at least one of a keypad, keyboard, touch screen, and display device. The memory device 206 may store data and/or programs.

인터페이스(1040)는 통신 네트워크로 데이터를 전송하거나 통신 네트워크로부터 데이터를 수신하는 기능을 수행할 수 있다. 인터페이스(1040)는 유선 또는 무선 형태일 수 있다. 예컨대, 인터페이스(1040)는 통신부로 안테나 또는 유무선 트랜시버 등을 포함할 수 있다. 도시하지 않았지만, 메모리 장치(1030)는 프로세서(1010)의 동작을 향상시키기 위한 동작 메모리로서, 고속의 디램 및/또는 에스램 등을 더 포함할 수도 있다. The interface 1040 may perform a function of transmitting data to or receiving data from a communication network. Interface 1040 may be wired or wireless. For example, the interface 1040 may include an antenna or a wired or wireless transceiver as a communication unit. Although not shown, the memory device 1030 is an operating memory for improving the operation of the processor 1010 and may further include high-speed DRAM and/or SRAM.

내부의 스토리지(1050)는 여기에 설명된 일부 또는 모든 모듈의 기능을 제공하는 프로그래밍 및 데이터 구성을 저장한다. 예를 들어, 상술한 사기 탐지 방법의 선택된 양태들을 수행하도록 하는 로직을 포함할 수 있다.Internal storage 1050 stores programming and data configuration that provides the functionality of some or all modules described herein. For example, it may include logic to perform selected aspects of the fraud detection method described above.

메모리 장치(1030)는 스토리지(1050)에 저장된 상술한 사기 탐지 방법을 수행하는 각 단계를 포함하는 명령어들의 집합으로 프로그램 또는 어플리케이션을 로드하고 프로세서가 각 단계를 수행할 수 있도록 한다.The memory device 1030 loads a program or application with a set of instructions including each step of performing the above-described fraud detection method stored in the storage 1050 and allows the processor to perform each step.

이상, 본 발명에 따르면, 학습된 신경망을 통하여 객관화된 지표를 산출하고 보다 편리하게 공사 진척도를 판단할 수 있다.As above, according to the present invention, objective indicators can be calculated through a learned neural network and construction progress can be judged more conveniently.

또한, 본 발명에 따르면 공사 현장을 촬영한 전체 이미지로부터 동시에 진행상황을 파악함으로써 현장 검증의 시간차이에 따른 오류를 줄일 수 있다.In addition, according to the present invention, errors due to time differences in on-site verification can be reduced by simultaneously determining the progress status from all images taken of the construction site.

또한, 본 발명은 공사 진척도를 이미지화하여 제공함으로써 직관적인 판단 정보를 사용자에게 제공해 줄 수 있다.Additionally, the present invention can provide users with intuitive decision information by providing images of construction progress.

또한, 다양한 각도의 이미지를 활용하여 보다 정확한 진척도를 효율적으로 판단할 수 있다.Additionally, by using images from various angles, more accurate progress can be determined efficiently.

나아가, 여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Furthermore, various embodiments described herein may be implemented in a recording medium readable by a computer or similar device, for example, using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어 모듈 자체로 구현될 수 있다.According to hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and other electrical units for performing functions. In some cases, as described herein, The described embodiments may be implemented as a control module itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 씌여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리 모듈에 저장되고, 제어모듈에 의해 실행될 수 있다.According to software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. Software code can be implemented as a software application written in an appropriate programming language. The software code may be stored in a memory module and executed by a control module.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. The above description is merely an illustrative explanation of the technical idea of the present invention, and various modifications, changes, and substitutions can be made by those skilled in the art without departing from the essential characteristics of the present invention. will be.

따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments and the attached drawings. . The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.

Claims (16)

서버에서 수행되는 딥러닝 기반의 공사 진척도 판단 방법에 있어서,
공사 현장 이미지를 입력 받는 단계;
상기 공사 현장 이미지에 대하여 픽셀 단위의 분류를 학습된 공사 현장 분류 모델을 이용하여 수행하는 단계; 및
상기 분류 별 픽셀의 비율을 통하여 공사 진척도를 산출하는 단계를 포함하는 것을 특징으로 하는 공사 진척도 판단 방법.
In the deep learning-based construction progress judgment method performed on the server,
Step of receiving construction site images;
Performing pixel-level classification on the construction site image using a learned construction site classification model; and
A method for determining construction progress, comprising the step of calculating construction progress through the ratio of pixels for each classification.
제 1 항에 있어서,
상기 분류는 공사 현장 내 수직철근 또는 바닥철근을 포함하는 것을 특징으로 하는 공사 진척도 판단 방법.
According to claim 1,
The above classification is a construction progress judgment method characterized in that it includes vertical reinforcing bars or floor reinforcing bars within the construction site.
제 1 항에 있어서,
상기 분류는 공사 현장 내 먹매김을 포함하는 것을 특징으로 하는 공사 진척도 판단 방법.
According to claim 1,
The above classification is a construction progress judgment method characterized in that it includes food in the construction site.
제 1 항에 있어서,
상기 분류는 공사 현장 내 외벽 거푸집 또는 벽채거푸집을 포함하는 것을 특징으로 하는 공사 진척도 판단 방법.
According to claim 1,
The above classification is a construction progress judgment method characterized in that it includes exterior wall formwork or wall formwork within the construction site.
제 1 항에 있어서,
상기 공사 현장 분류 모델은 입력된 상기 공사 현장 이미지 내 픽셀 간 컨볼루션 연산을 수행하여 특징맵을 추출하는 인코더, 및
상기 추출된 특징맵을 업샘플링하여 픽셀 별 분류 결과를 출력하는 디코더를 포함하는 것을 특징으로 하는 공사 진척도 판단 방법.
According to claim 1,
The construction site classification model includes an encoder that extracts a feature map by performing a convolution operation between pixels in the input construction site image, and
A method for determining construction progress, comprising a decoder that upsamples the extracted feature map and outputs a classification result for each pixel.
제 5 항에 있어서,
상기 인코더는 상기 공사 현장 이미지로부터 컨볼루션을 수행하여 제1 특징맵을 추출하는 제1 네트워크, 및
상기 제1 특징 맵을 복수의 비율 파라미터에 따라 픽셀 간 컨볼루션을 연산하여 복수의 특징맵을 추출하고, 복수의 특징맵을 병합한 제2 특징맵을 추출하는 제2 네트워크를 포함하는 것을 특징으로 하는 공사 진척도 판단 방법.
According to claim 5,
The encoder is a first network that extracts a first feature map by performing convolution from the construction site image, and
Characterized by comprising a second network that extracts a plurality of feature maps by calculating inter-pixel convolution of the first feature map according to a plurality of ratio parameters, and extracts a second feature map by merging the plurality of feature maps. How to judge construction progress.
제 6 항에 있어서,
상기 디코더는 상기 제1 네트워크의 출력 및 제2 특징맵의 차원을 축소 후 병합한 제3 특징맵을 업샘플링하여 픽셀별 분류 결과를 출력하는 것을 특징으로 하는 공사 진척도 판단 방법.
According to claim 6,
The decoder is a method for determining construction progress, characterized in that the output of the first network and the third feature map obtained by reducing and merging the dimensions of the second feature map are upsampled and output a classification result for each pixel.
제 5 항에 있어서,
상기 공사 현장 이미지를 복수의 부분 이미지로 분할하고, 분할된 부분 이미지 별 픽셀 단위의 분류를 수행하는 것을 특징으로 하는 공사 진척도 판단 방법.
According to claim 5,
A method for determining construction progress, characterized by dividing the construction site image into a plurality of partial images and performing pixel-level classification for each divided partial image.
제 1 항에 있어서,
상기 공사 진척도를 산출하는 단계는 시계열적으로 입력된 공사 현장 이미지에 대하여 이전 공사 현장 이미지의 진척도 및 경과 기간을 이용하여 진척도를 산출하는 것을 특징으로 하는 사기 탐지 방법.
According to claim 1,
The step of calculating the construction progress is a fraud detection method characterized in that the progress is calculated using the progress and elapsed period of the previous construction site image for the construction site image input in time series.
제 1 항에 있어서,
상기 공사 현장 이미지는 복수의 각도에서 촬영한 이미지로,
상기 공사 진척도를 산출하는 단계는 상기 복수의 각도에 대한 공사 현장 이미지의 픽셀의 비율을 이용하여 진척도를 산출하는 것을 특징으로 하는 사기 탐지 방법.
According to claim 1,
The construction site image is an image taken from multiple angles,
The step of calculating the construction progress is a fraud detection method characterized in that the progress is calculated using the ratio of pixels of the construction site image to the plurality of angles.
공사 현장 이미지를 수신하는 통신부;
상기 공사 현장 이미지로부터 공사 진척도를 판단하는 하나 이상의 프로세서들; 및
입출력부를 포함하고,
사기 하나 이상의 프로세서들은,
공사 현장 이미지를 입력 받고,
상기 공사 현장 이미지에 대하여 픽셀 단위의 분류를 학습된 공사 현장 분류 모델을 이용하여 수행하고, 그리고,
상기 분류 별 픽셀의 비율을 통하여 공사 진척도를 산출하는 공사 진척도 판단 장치.
a communications department that receives construction site images;
One or more processors that determine construction progress from the construction site image; and
Includes an input/output unit,
Fraud One or more processors,
Receive images of the construction site as input,
Perform pixel-level classification on the construction site image using the learned construction site classification model, and
A construction progress judgment device that calculates construction progress through the ratio of pixels for each category.
제 11 항에 있어서,
상기 공사 현장 분류 모델은 입력된 상기 공사 현장 이미지 내 픽셀 간 컨볼루션 연산을 수행하여 특징맵을 추출하는 인코더, 및
상기 추출된 특징맵을 업샘플링하여 픽셀 별 분류 결과를 출력하는 디코더를 포함하는 것을 특징으로 하는 공사 진척도 판단 장치.
According to claim 11,
The construction site classification model includes an encoder that extracts a feature map by performing a convolution operation between pixels in the input construction site image, and
A construction progress determination device comprising a decoder that upsamples the extracted feature map and outputs a classification result for each pixel.
제 12 항에 있어서,
상기 인코더는 상기 공사 현장 이미지로부터 컨볼루션을 수행하여 제1 특징맵을 추출하는 제1 네트워크, 및
상기 제1 특징 맵을 복수의 비율 파라미터에 따라 픽셀 간 컨볼루션을 연산하여 복수의 특징맵을 추출하고, 복수의 특징맵을 병합한 제2 특징맵을 추출하는 제2 네트워크를 포함하는 것을 특징으로 하는 공사 진척도 판단 장치.
According to claim 12,
The encoder is a first network that extracts a first feature map by performing convolution from the construction site image, and
Characterized by comprising a second network that extracts a plurality of feature maps by calculating inter-pixel convolution of the first feature map according to a plurality of ratio parameters, and extracts a second feature map by merging the plurality of feature maps. A construction progress judgment device.
제 13 항에 있어서,
상기 디코더는 상기 제1 네트워크의 출력 및 제2 특징맵의 차원을 축소 후 병합한 제3 특징맵을 업샘플링하여 픽셀별 분류 결과를 출력하는 것을 특징으로 하는 공사 진척도 판단 장치.
According to claim 13,
The decoder is a construction progress judgment device characterized in that the output of the first network and the third feature map obtained by reducing and merging the dimensions of the second feature map are upsampled to output a classification result for each pixel.
제 1 항 내지 제 10 항 중 어느 한 항에 따른 사기 행위 탐지 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium storing a program for performing the method for detecting fraud according to any one of claims 1 to 10. 제 1 항 내지 제 10 항 중 어느 한 항에 따른 사기 행위 탐지 방법을 수행하는 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램.A program stored in a computer-readable recording medium that performs the method for detecting fraud according to any one of claims 1 to 10.
KR1020220048412A 2022-04-19 2022-04-19 Method and device for determining construction progress through classification based on deep learning KR20230149121A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220048412A KR20230149121A (en) 2022-04-19 2022-04-19 Method and device for determining construction progress through classification based on deep learning
PCT/KR2023/005063 WO2023204528A1 (en) 2022-04-19 2023-04-14 Method and apparatus for determining degree of progress in construction through deep learning-based classification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220048412A KR20230149121A (en) 2022-04-19 2022-04-19 Method and device for determining construction progress through classification based on deep learning

Publications (1)

Publication Number Publication Date
KR20230149121A true KR20230149121A (en) 2023-10-26

Family

ID=88420343

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220048412A KR20230149121A (en) 2022-04-19 2022-04-19 Method and device for determining construction progress through classification based on deep learning

Country Status (2)

Country Link
KR (1) KR20230149121A (en)
WO (1) WO2023204528A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10387753B1 (en) * 2019-01-23 2019-08-20 StradVision, Inc. Learning method and learning device for convolutional neural network using 1×1 convolution for image recognition to be used for hardware optimization, and testing method and testing device using the same
KR102416227B1 (en) * 2019-12-24 2022-07-01 연세대학교 산학협력단 Apparatus for real-time monitoring for construction object and monitoring method and and computer program for the same
KR102244978B1 (en) * 2020-12-23 2021-04-28 주식회사 케이씨씨건설 Method, apparatus and computer program for training artificial intelligence model that judges danger in work site
KR102366840B1 (en) * 2021-02-08 2022-02-24 (주)아이언박스 methods for detecting construction objects based on artificial intelligence and cloud platform system for providing construction supervision service and system thereof
KR102354684B1 (en) * 2021-09-17 2022-01-21 윤영자 Method and system for interior design and construction method

Also Published As

Publication number Publication date
WO2023204528A1 (en) 2023-10-26

Similar Documents

Publication Publication Date Title
CN110287519B (en) Building engineering construction progress monitoring method and system integrating BIM
JP7198248B2 (en) Platforms, Systems, and Methods for Classifying Asset Characteristics and Asset Characteristic Maintenance Management with Aerial Image Analysis
Klein et al. Imaged-based verification of as-built documentation of operational buildings
Qin et al. 3D change detection at street level using mobile laser scanning point clouds and terrestrial images
US20200349695A1 (en) Image processing apparatus and image processing method
Wang Automatic checks from 3D point cloud data for safety regulation compliance for scaffold work platforms
JP6874096B2 (en) Damage diagram editing device and program
DE102018200221A1 (en) Site monitoring procedure
Chen et al. Proactive 2D model-based scan planning for existing buildings
Truong-Hong et al. Octree-based, automatic building facade generation from LiDAR data
CN112149217A (en) Method and device for generating three-dimensional indoor navigation scene, electronic equipment and storage medium
JP2021047197A (en) Damage data editing device, damage data editing method and program
Schueremans et al. The use of 3D-laser scanning in assessing the safety of masonry vaults—A case study on the church of Saint-Jacobs
CN110348343A (en) A kind of act of violence monitoring method, device, storage medium and terminal device
CN109034100B (en) Face pattern detection method, device, equipment and storage medium
CN110673146B (en) Weather prediction image detection method and device, computer equipment and readable storage medium
KR20230149121A (en) Method and device for determining construction progress through classification based on deep learning
Jiang et al. Scan-VS-BIM for real-time progress monitoring of bridge construction project
JP2023168548A (en) Inspection support device, method, and program
Quattrini et al. From TLS to FE analysis: Points cloud exploitation for structural behaviour definition. The San Ciriaco’s Bell Tower
KR20230149237A (en) System for 3D construction project management based on web and GIS and its operation method
Kim et al. Automated two-dimensional geometric model reconstruction from point cloud data for construction quality inspection and maintenance
CN113720283B (en) Building construction height identification method, device, electronic equipment and system
CN113192203A (en) Primitive processing method and device, electronic equipment and storage medium
KR20230089672A (en) Analysys system for construction cost using image of construction and analsys method using the same