KR102210614B1 - Method and server for differentiating space state information of structure based on machine learning - Google Patents

Method and server for differentiating space state information of structure based on machine learning Download PDF

Info

Publication number
KR102210614B1
KR102210614B1 KR1020200017273A KR20200017273A KR102210614B1 KR 102210614 B1 KR102210614 B1 KR 102210614B1 KR 1020200017273 A KR1020200017273 A KR 1020200017273A KR 20200017273 A KR20200017273 A KR 20200017273A KR 102210614 B1 KR102210614 B1 KR 102210614B1
Authority
KR
South Korea
Prior art keywords
spatial
layer
state information
learning
information
Prior art date
Application number
KR1020200017273A
Other languages
Korean (ko)
Inventor
이기상
류성호
Original Assignee
주식회사 씨엠엑스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씨엠엑스 filed Critical 주식회사 씨엠엑스
Priority to KR1020200017273A priority Critical patent/KR102210614B1/en
Priority to KR1020210011083A priority patent/KR102260056B1/en
Application granted granted Critical
Publication of KR102210614B1 publication Critical patent/KR102210614B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06K9/481
    • G06K9/627
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Primary Health Care (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Graphics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Disclosed are a method for discriminating spatial state information of a building based on machine learning to objectively discriminate the spatial state information based on data, and a spatial state information discrimination server using the same. According to the present invention, the method comprises the following steps of: (a) when a real image representing a space of the building is acquired from a user terminal, allowing the spatial state information discrimination server to input the real image to a feature extraction block so that the feature extraction block can analyze the real image, extract a feature from the real image, and output a feature vector; and (b) allowing the spatial state information discrimination server to input the feature vector to a spatial state classification block so that the spatial state classification block can perform a neural network calculation on the feature vector to output the spatial state information of the building on the real image, and to transmit the spatial state information to the user terminal, thereby supporting the user terminal to display the spatial state information.

Description

머신러닝에 기반하여 건축물의 공간 상태 정보를 판별하는 방법 및 이를 이용한 공간 상태 정보 판별 서버{METHOD AND SERVER FOR DIFFERENTIATING SPACE STATE INFORMATION OF STRUCTURE BASED ON MACHINE LEARNING}A method for determining spatial state information of a building based on machine learning, and a spatial state information determination server using it {METHOD AND SERVER FOR DIFFERENTIATING SPACE STATE INFORMATION OF STRUCTURE BASED ON MACHINE LEARNING}

본 발명은 머신러닝에 기반하여 건축물의 공간 상태 정보를 판별하는 방법 및 이를 이용한 공간 상태 정보 판별 서버에 관한 것이다.The present invention relates to a method for determining spatial state information of a building based on machine learning and a spatial state information determination server using the same.

종래에는 건축물에 적용된 공종, 안전 수칙 준수 여부 및 결함 또는 하자 발생 여부 등을 확인하기 위해서, 전문가가 일일이 건설 현장의 수많은 개별 공간들을 직접 찾아가서 검측 과정 등을 거쳐야 했으므로, 건설 현장 또는 유지관리 대상 건축물에 투입되는 인력들이 과도하게 많아지는 문제점이 존재하였다.Conventionally, in order to check the type of construction applied to the building, compliance with the safety rules, and whether defects or defects have occurred, experts had to personally visit numerous individual spaces on the construction site and go through the inspection process, so the construction site or the building subject to maintenance There was a problem in that the number of manpower to be put into operation was excessive.

또한, 건설 현장 관리 어플리케이션을 이용하여 건설 현장을 통합관리 하는 방법이 한국등록특허 10-1829169에 개시되어 있으나, 이와 같은 방안에는, 기존에 저장된 공종 진행 현황, 안전 수칙 준수 여부 및 결함 또는 하자 발생 여부만을 확인할 수 있을 뿐이므로 실시간으로 상기 항목들을 확인하기 어려운 문제점이 여전히 존재한다.In addition, a method of integrated management of a construction site using a construction site management application is disclosed in Korean Patent Registration No. 10-1829169, but in such a method, the existing stored construction progress status, compliance with safety rules, and whether defects or defects occur. Since only can be checked, there is still a problem that it is difficult to check the above items in real time.

따라서, 상기 문제점들을 해결하기 위한 개선 방안이 요구되는 실정이다.Therefore, there is a need for an improvement method to solve the above problems.

KRKR 10-182916910-1829169 B1B1

본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.An object of the present invention is to solve all of the above-described problems.

또한, 본 발명은 건설 현장 관계자 또는 유지관리 대상 건축물 관계자들의 주관적 기준을 근거로 공종 현황, 안전 수칙 준수 여부 및 결함 또는 하자 발생 여부 등이 잘못 판단되지 않도록, 데이터에 기반하여 객관적으로 공간 상태 정보를 판별하는 것을 다른 목적으로 한다.In addition, the present invention objectively provides spatial state information based on data so as not to erroneously determine the status of construction work, compliance with safety rules, and occurrence of defects or defects based on subjective standards of construction site officials or those concerned with buildings to be maintained. Discrimination is for another purpose.

또한, 본 발명은 적은 인력으로도 건설 현장 또는 유지관리 대상 건축물에 관한 대량의 업무를 처리할 수 있도록 하는 것을 또 다른 목적으로 한다.In addition, another object of the present invention is to enable a large amount of work related to a construction site or a maintenance target building to be processed with a small number of manpower.

또한, 본 발명은 관련 인력 및 업무 단계를 최소화함으로써 건설 현장 또는 유지관리 대상 건축물에 투입되는 비용을 절감하는 것을 또 다른 목적으로 한다.In addition, another object of the present invention is to reduce the cost input to a construction site or a maintenance target building by minimizing the relevant manpower and work steps.

또한, 본 발명은 관련 지식을 습득하지 않은 누구든지 공종 현황, 안전 수칙 준수 여부 및 결함 또는 하자 발생 여부 등을 구체적으로 확인할 수 있도록 하는 것을 또 다른 목적으로 한다.In addition, another object of the present invention is to enable anyone who has not acquired related knowledge to specifically check the status of construction work, compliance with safety rules, and whether defects or defects have occurred.

또한, 본 발명은 건설 현장 또는 유지관리 대상 건축물에서 관계자로 하여금 구조물에 접촉하지 않고도 공종 현황을 파악할 수 있도록 하여 관계자의 안전을 증대하는 것을 또 다른 목적으로 한다.In addition, another object of the present invention is to increase the safety of persons concerned by allowing persons concerned to grasp the status of construction work without contacting the structure at a construction site or a building subject to maintenance.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한, 본 발명의 특징적인 구성은 하기와 같다.In order to achieve the object of the present invention as described above, and to realize the characteristic effects of the present invention described later, the characteristic configuration of the present invention is as follows.

본 발명의 일 태양에 따르면, 머신러닝에 기반하여 건축물의 공간 상태 정보를 판별하는 방법에 있어서, (a) 사용자 단말로부터 건축물의 공간을 나타내는 실사영상 이미지가 획득되면, 공간 상태 정보 판별 서버가, 상기 실사영상 이미지를 피처 추출 블록에 입력시킴으로써 상기 피처 추출 블록으로 하여금 상기 실사영상 이미지를 분석하여 상기 실사영상 이미지 상의 피처를 추출하여 피처 벡터를 출력하도록 하는 단계; 및 (b) 상기 공간 상태 정보 판별 서버가, 상기 피처 벡터를 공간 상태 분류 블록으로 입력하여 상기 공간 상태 분류 블록으로 하여금 상기 피처 벡터를 신경망 연산하도록 하여 상기 실사영상 이미지 상에서의 상기 건축물의 공간 상태 정보를 출력하도록 하며, 상기 공간 상태 정보를 상기 사용자 단말로 전송하여 줌으로써 상기 사용자 단말로 하여금 상기 공간 상태 정보를 디스플레이하도록 지원하는 단계;를 포함하는 방법이 개시된다.According to an aspect of the present invention, in a method of determining spatial state information of a building based on machine learning, (a) when a live image representing a space of a building is obtained from a user terminal, the spatial state information determination server, Inputting the real-life image to a feature extraction block, causing the feature-extraction block to analyze the real-life image and extract a feature on the real-world image to output a feature vector; And (b) the spatial state information determination server inputs the feature vector as a spatial state classification block to cause the spatial state classification block to calculate the feature vector by a neural network, so that the spatial state information of the building on the real image image. And supporting the user terminal to display the spatial state information by outputting the spatial state information and transmitting the spatial state information to the user terminal.

일례로서, 상기 공간 상태 분류 블록은 FC 레이어(Fully Connected layer)를 포함하며, 상기 (b) 단계에서, 상기 공간 상태 정보 판별 서버는, 상기 피처 벡터를 상기 FC 레이어로 입력하여 상기 FC 레이어로 하여금 상기 피처 벡터를 신경망 연산하도록 함으로써, 기설정된 공종 클래스들 중 상기 실사영상 이미지 상에서의 상기 건축물의 상기 공간에 대응되는 특정 공종 클래스를 판별하도록 한 후, 상기 특정 공종 클래스에 대응되는 상기 공간 상태 정보를 출력하도록 하는 것을 특징으로 하는 방법이 개시된다.As an example, the spatial state classification block includes a fully connected layer, and in step (b), the spatial state information determination server inputs the feature vector to the FC layer to cause the FC layer By performing a neural network operation on the feature vector, a specific construction class corresponding to the space of the building on the real-life image is determined among preset construction classes, and then the spatial state information corresponding to the specific construction class is calculated. A method is disclosed, characterized in that the output is made.

일례로서, 상기 피처 추출 블록은 컨볼루션 레이어(convolution layer), RPN(Region Proposal Network), 풀링 레이어(pooling layer)를 포함하고, 상기 공간 상태 분류 블록은 FC 레이어를 포함하며, 상기 (a) 단계에서, 상기 공간 상태 정보 판별 서버는, 상기 실사영상 이미지를 상기 컨볼루션 레이어에 입력시킴으로써 상기 컨볼루션 레이어로 하여금 상기 실사영상 이미지를 적어도 한 번 컨볼루션 연산하도록 하여 상기 실사영상 이미지에 대응되는 공간 피처 맵(feature map)을 출력하도록 하며, 상기 공간 피처 맵을 상기 RPN으로 입력하여 상기 RPN으로 하여금 상기 공간 피처 맵 상에서 작업자가 있는 영역에 대응되는 프로포잘 박스(proposal box)들을 출력하도록 하며, 상기 풀링 레이어로 하여금 상기 프로포잘 박스들에 각각 대응되는 상기 공간 피처 맵 상의 영역들을 풀링하여 풀링된 피처 맵들에 대응되는 상기 피처 벡터를 출력하도록 하고, 상기 (b) 단계에서, 상기 공간 상태 정보 판별 서버는, 상기 피처 벡터를 상기 FC 레이어로 입력하여 상기 FC 레이어로 하여금 상기 작업자가 착용한 안전 장비를 확인하도록 하여 상기 작업자가 안전 상태에 있는지 여부를 판단하도록 한 후 상기 안전 상태에 대응되는 상기 공간 상태 정보를 출력하도록 하는 것을 특징으로 하는 방법이 개시된다.As an example, the feature extraction block includes a convolution layer, a region proposal network (RPN), and a pooling layer, the spatial state classification block includes an FC layer, and the step (a) In the spatial state information determination server, by inputting the real-life image to the convolution layer, the convolutional layer performs a convolution operation on the real-life image at least once, so that a spatial feature corresponding to the real-life image A map is output, and the spatial feature map is input to the RPN to cause the RPN to output proposal boxes corresponding to an area in which an operator is located on the spatial feature map, and the pooling Allows a layer to output the feature vectors corresponding to the pooled feature maps by pooling regions on the spatial feature maps respectively corresponding to the proposal boxes, and in step (b), the spatial state information determination server , The spatial state information corresponding to the safety state after inputting the feature vector to the FC layer and causing the FC layer to check the safety equipment worn by the worker to determine whether the worker is in a safe state. Disclosed is a method characterized in that to output.

일례로서, 상기 컨볼루션 레이어 및 상기 FC 레이어는 학습 데이터가 이용되어 각각 임의의 공간 피처 맵과 임의의 공간 상태 정보를 출력하도록 학습된 상태이며, 학습용 영상 이미지 - 상기 학습용 영상 이미지는 임의의 공간을 촬영한 영상 이미지임 - 가 획득되면, 학습 장치에 의해, (i) 상기 학습용 영상 이미지가 상기 컨볼루션 레이어로 입력됨으로써 상기 컨볼루션 레이어로 하여금 상기 학습용 영상 이미지가 적어도 한 번 컨볼루션 연산되도록 하여 상기 학습용 영상 이미지에 대응되는 학습용 공간 피처 맵이 출력되도록 하고, (ii) 상기 학습용 공간 피처 맵이 상기 RPN으로 입력되어 상기 RPN으로 하여금 상기 학습용 공간 피처 맵 상에서 학습용 작업자가 있는 영역에 대응되는 학습용 프로포잘 박스들이 출력되도록 하며, 상기 풀링 레이어로 하여금 상기 학습용 프로포잘 박스들에 각각 대응되는 상기 학습용 공간 피처 맵 상의 영역들이 풀링되어 학습용 풀링된 피처 맵들이 출력되도록 하고, 상기 학습용 풀링된 피처 맵들이 학습용 피처 벡터로 변환된 후, 상기 학습용 피처 벡터가 상기 FC 레이어로 입력되어 상기 FC 레이어로 하여금 상기 학습용 작업자가 착용한 안전 장비가 확인되도록 하여 상기 학습용 작업자가 안전 상태에 있는지 여부가 판단되도록 한 후 상기 안전 상태에 대응되는 학습용 공간 상태 정보가 출력되도록 하고, (iii) 로스(loss) 레이어로 하여금 상기 학습용 공간 상태 정보와 이에 대응되는 GT(Ground Truth)가 참조되도록 하여 로스가 생성되도록 하며, 상기 로스를 이용한 백프로퍼게이션(back propagation) 프로세스에 의해 상기 FC 레이어 및 상기 컨볼루션 레이어의 파라미터들 중 적어도 하나의 파라미터가 학습된 상태인 것을 특징으로 하는 방법이 개시된다.As an example, the convolutional layer and the FC layer are in a state in which training data is used to output an arbitrary spatial feature map and arbitrary spatial state information, respectively, and an image for training-the image for training is an arbitrary space. When is acquired, (i) the training video image is input to the convolution layer, causing the convolution layer to perform convolution calculation of the training video image at least once. A training spatial feature map corresponding to the training video image is output, and (ii) the training spatial feature map is input to the RPN to cause the RPN to learn a proposal corresponding to an area where a training worker is located on the training spatial feature map. Boxes are output, and the pooling layer causes the areas on the learning spatial feature map corresponding to the learning proposal boxes to be pooled to output the pooled feature maps for learning, and the pooled feature maps for learning are the learning features. After being converted to a vector, the learning feature vector is input to the FC layer, causing the FC layer to check the safety equipment worn by the learning worker to determine whether the learning worker is in a safe state, and then the safety. The learning spatial state information corresponding to the state is output, and (iii) the loss layer makes the learning spatial state information and the corresponding GT (Ground Truth) reference to generate a loss, and the loss is A method is disclosed, wherein at least one of the parameters of the FC layer and the convolution layer is in a learned state by a back propagation process used.

일례로서, 상기 피처 추출 블록은 컨볼루션 레이어, RPN, 풀링 레이어를 포함하고, 상기 공간 상태 분류 블록은 FC 레이어를 포함하며, 상기 (a) 단계에서, 상기 공간 상태 정보 판별 서버는, 상기 실사영상 이미지를 상기 컨볼루션 레이어에 입력시킴으로써 상기 컨볼루션 레이어로 하여금 상기 실사영상 이미지를 적어도 한 번 컨볼루션 연산하도록 하여 상기 실사영상 이미지에 대응되는 공간 피처 맵을 출력하도록 하며, 상기 공간 피처 맵을 상기 RPN으로 입력하여 상기 RPN으로 하여금 상기 공간 피처 맵 상에서 결함 또는 하자가 있는 것으로 판단되는 영역에 대응되는 프로포잘 박스들을 출력하도록 하며, 상기 풀링 레이어로 하여금 상기 프로포잘 박스들에 각각 대응되는 상기 공간 피처 맵 상의 영역들을 풀링하여 풀링된 피처 맵들에 대응되는 상기 피처 벡터를 출력하도록 하고, 상기 (b) 단계에서, 상기 공간 상태 정보 판별 서버는, 상기 피처 벡터를 상기 FC 레이어로 입력하여 상기 FC 레이어로 하여금 상기 공간에 상기 결함 또는 상기 하자가 실제로 존재하는지 여부를 판단하도록 하고, 상기 결함 또는 상기 하자가 실제로 존재하는 경우, 상기 결함 또는 상기 하자의 종류를 분류하도록 한 후 상기 결함 또는 상기 하자의 종류에 대응되는 상기 공간 상태 정보를 출력하도록 하는 것을 특징으로 하는 방법이 개시된다.As an example, the feature extraction block includes a convolution layer, an RPN, and a pooling layer, the spatial state classification block includes an FC layer, and in step (a), the spatial state information determination server, the real image By inputting an image to the convolutional layer, the convolutional layer performs a convolution operation on the real-life image at least once to output a spatial feature map corresponding to the real-life image, and the spatial feature map is the RPN Input to the RPN to output the proposal boxes corresponding to the region determined to have defects or defects on the spatial feature map, and cause the pooling layer to output the spatial feature maps respectively corresponding to the proposal boxes The image regions are pooled to output the feature vector corresponding to the pooled feature maps, and in step (b), the spatial state information determination server inputs the feature vector to the FC layer to cause the FC layer Determine whether the defect or the defect actually exists in the space, and if the defect or the defect actually exists, classify the type of the defect or the defect and then respond to the type of the defect or the defect. Disclosed is a method characterized in that the spatial state information is output.

일례로서, 상기 피처 추출 블록은 컨볼루션 레이어, RPN, 풀링 레이어를 포함하고, 상기 공간 상태 분류 블록은 제1 FC 레이어 및 제2 FC 레이어를 포함하며, 상기 (a) 단계에서, 상기 공간 상태 정보 판별 서버는, 상기 실사영상 이미지를 상기 컨볼루션 레이어에 입력시킴으로써 상기 컨볼루션 레이어로 하여금 상기 실사영상 이미지를 적어도 한 번 컨볼루션 연산하도록 하여 상기 실사영상 이미지에 대응되는 공간 피처 맵을 출력하도록 하며, 상기 공간 피처 맵을 상기 RPN으로 입력하여 상기 RPN으로 하여금 상기 공간 피처 맵 상에서 작업자가 있는 영역에 대응되는 프로포잘 박스들을 출력하도록 하며, 상기 풀링 레이어로 하여금 상기 프로포잘 박스들에 각각 대응되는 상기 공간 피처 맵 상의 영역들을 풀링하여 풀링된 피처 맵들에 대응되는 제1 피처 벡터를 출력하도록 하고, 상기 (b) 단계에서, 상기 공간 상태 정보 판별 서버는, (i) 상기 컨볼루션 레이어로부터 출력되는 상기 공간 피처 맵에 대응되는 제2 피처 벡터를 제1 FC 레이어로 입력하여 상기 제1 FC 레이어로 하여금 상기 제2 피처 벡터를 신경망 연산하도록 함으로써, 기설정된 공종 클래스들 중 상기 실사영상 이미지 상에서의 상기 건축물의 상기 공간에 대응되는 특정 공종 클래스를 판별하도록 한 후, 상기 특정 공종 클래스에 대응되는 특정 공종 정보를 출력하도록 하며, (ii) 상기 제1 피처 벡터를 상기 제2 FC 레이어로 입력하여 상기 제2 FC 레이어로 하여금 상기 작업자가 착용한 안전 장비를 확인하여 특정 안전 장비 착용 상태 정보를 출력하도록 하며, (iii) 상기 제1 FC 레이어로부터 출력된 상기 특정 공종 정보에 대응되어 설정된 기준 안전 장비 착용 상태 정보와 상기 제2 FC 레이어로부터 출력된 상기 특정 안전 장비 착용 상태 정보를 참조하여 상기 작업자가 상기 특정 공종 정보에 대응되는 안전 장비를 착용하였는지를 나타내는 작업자 안전 상태 정보를 생성하고, 상기 작업자 안전 상태 정보를 상기 사용자 단말로 전송하여 줌으로써 상기 사용자 단말로 하여금 상기 작업자 안전 상태 정보를 디스플레이하도록 지원하는 것을 특징으로 하는 방법이 개시된다.As an example, the feature extraction block includes a convolution layer, an RPN, and a pooling layer, and the spatial state classification block includes a first FC layer and a second FC layer, and in step (a), the spatial state information The determination server causes the convolutional layer to convolve the real-life image image at least once by inputting the real-life image image to the convolution layer to output a spatial feature map corresponding to the real-life image, By inputting the spatial feature map to the RPN, the RPN outputs proposal boxes corresponding to an area in which a worker is located on the spatial feature map, and the pooling layer causes the space corresponding to each of the proposal boxes. The regions on the feature map are pooled to output a first feature vector corresponding to the pooled feature maps. In step (b), the spatial state information determination server comprises: (i) the spatial output from the convolution layer By inputting a second feature vector corresponding to a feature map as a first FC layer and causing the first FC layer to calculate the second feature vector with a neural network, the structure of the building on the real-life image image among preset classes After determining a specific public type class corresponding to the space, specific public type information corresponding to the specific public type class is output, and (ii) the second FC layer by inputting the first feature vector to the second FC layer The layer checks the safety equipment worn by the worker to output specific safety equipment wearing state information, and (iii) the reference safety equipment wearing state information set in correspondence with the specific work type information output from the first FC layer Generates worker safety status information indicating whether the worker wears safety equipment corresponding to the specific work type information by referring to the specific safety equipment wearing status information output from the second FC layer, and the worker safety status information Disclosed is a method comprising supporting the user terminal to display the worker safety status information by transmitting it to the user terminal.

일례로서, 상기 컨볼루션 레이어, 상기 제1 FC 레이어 및 상기 제2 FC 레이어는 학습 데이터가 이용되어 각각 임의의 공간 피처 맵과 임의의 공간 상태 정보를 출력하도록 학습된 상태이며, 학습용 영상 이미지 - 상기 학습용 영상 이미지는 임의의 공간을 촬영한 영상 이미지임 - 가 획득되면, 학습 장치에 의해, (i) 상기 학습용 영상 이미지가 상기 컨볼루션 레이어로 입력됨으로써 상기 컨볼루션 레이어로 하여금 상기 학습용 영상 이미지가 적어도 한 번 컨볼루션 연산되도록 하여 상기 학습용 영상 이미지에 대응되는 학습용 공간 피처맵이 출력되도록 하고, 상기 학습용 공간 피처 맵이 상기 RPN으로 입력되어 상기 RPN으로 하여금 상기 학습용 공간 피처 맵 상에서 학습용 작업자가 있는 영역에 대응되는 학습용 프로포잘 박스들이 출력되도록 하며, 상기 풀링 레이어로 하여금 상기 학습용 프로포잘 박스들에 각각 대응되는 상기 학습용 공간 피처 맵 상의 영역들이 풀링되어 학습용 풀링된 피처 맵들에 대응되는 학습용 제1 피처 벡터가 출력되도록 하고 (ii-1) 상기 컨볼루션 레이어로부터 출력되는 상기 학습용 공간 피처맵에 대응되는 학습용 제2 피처 벡터가 상기 제1 FC 레이어로 입력되어 상기 제1 FC 레이어로 하여금 상기 학습용 제2 피처 벡터가 신경망 연산되도록 함으로써, 기설정된 공종 클래스들 중 상기 학습용 영상 이미지 상에서의 상기 건축물의 상기 공간에 대응되는 특정 공종 클래스가 판별되도록 한 후, 상기 특정 공종 클래스에 대응되는 학습용 특정 공종 정보가 출력되도록 하며, (ii-2) 상기 학습용 제1 피처 벡터가 상기 제2 FC 레이어로 입력되어 상기 제2 FC 레이어로 하여금 상기 학습용 작업자가 착용한 안전 장비가 확인되도록 하여 학습용 특정 안전 장비 착용 상태 정보가 출력되도록 하고, (iii-1) 로스(loss) 레이어로 하여금 상기 학습용 특정 공종 정보와 이에 대응되는 제1 GT(Ground Truth)가 참조되도록 하여 제1 로스가 생성되도록 하며, (iii-2) 상기 로스(loss) 레이어로 하여금 상기 학습용 특정 안전 장비 착용 상태 정보와 이에 대응되는 제2 GT(Ground Truth)가 참조되도록 하여 제2 로스가 생성되도록 하며, 상기 제1 로스 및 상기 제2 로스를 이용한 백프로퍼게이션(back propagation) 프로세스에 의해 상기 제1 FC 레이어, 상기 제2 FC 레이어 및 상기 컨볼루션 레이어의 파라미터들 중 적어도 하나의 파라미터가 학습된 상태인 것을 특징으로 하는 방법이 개시된다.As an example, the convolutional layer, the first FC layer, and the second FC layer are in a state in which training data is used to output an arbitrary spatial feature map and arbitrary spatial state information, respectively, and the training video image-the The training video image is a video image photographed in an arbitrary space-When is obtained, by the learning device, (i) the training video image is input to the convolution layer, causing the convolution layer to have at least the training video image A convolution operation is performed once so that a learning spatial feature map corresponding to the learning video image is output, and the learning spatial feature map is input to the RPN to cause the RPN to enter the area where the learning worker is located on the learning spatial feature map. Corresponding learning proposal boxes are output, and regions on the learning spatial feature map corresponding to the learning proposal boxes are pooled by the pooling layer, so that a learning first feature vector corresponding to the pooled feature maps for learning is obtained. And (ii-1) a second learning feature vector corresponding to the learning spatial feature map output from the convolutional layer is input to the first FC layer, causing the first FC layer to cause the learning second feature vector By allowing the neural network to be calculated, a specific construction class corresponding to the space of the building on the learning image image among preset construction classes is determined, and then specific construction type information for learning corresponding to the specific construction class is output. , (ii-2) The first feature vector for learning is input to the second FC layer so that the second FC layer checks the safety equipment worn by the learning worker, so that information on the wearing state of specific safety equipment for learning is output. And, (iii-1) the first loss is generated by allowing the loss layer to refer to the specific construction type information for learning and the corresponding first GT (Ground Truth). And (iii-2) a second loss is generated by allowing the loss layer to refer to the training specific safety equipment wearing state information and a corresponding second GT (ground truth), and the first loss And at least one of parameters of the first FC layer, the second FC layer, and the convolution layer is learned by a back propagation process using the second loss. The method is disclosed.

일례로서, 상기 건축물의 동, 호, 층 및 실 중 적어도 하나에 의하여 특정되는 상기 건축물 내 개별 공간들에 관한 정보인 공간 정보들이 획득된 상태에서, 상기 (b) 단계에서, 상기 공간 상태 정보 판별 서버가, 상기 사용자 단말이 위치하고 있는 위치 정보를 참조하여 상기 공간 정보들 중, 상기 사용자 단말이 위치하는 특정 공간 정보를 확인하고, 상기 특정 공간 정보를 상기 사용자 단말로 전송하여, 상기 사용자 단말로 하여금 상기 공간 상태 정보 및 상기 특정 공간 정보를 디스플레이하도록 지원하는 것을 특징으로 하는 방법이 개시된다.As an example, in a state in which spatial information, which is information about individual spaces within the building specified by at least one of the building's building, building, floor, and room, is obtained, in step (b), the spatial state information is determined. The server checks the specific spatial information in which the user terminal is located among the spatial information by referring to the location information where the user terminal is located, and transmits the specific spatial information to the user terminal, causing the user terminal to Disclosed is a method comprising supporting to display the spatial state information and the specific spatial information.

일례로서, 상기 (b) 단계에서, 상기 공간 상태 정보 판별 서버가, 상기 공간 상태 정보를 타 사용자 단말에 전송하여 줌으로써 상기 타 사용자 단말로 하여금 상기 공간 상태 정보를 디스플레이하도록 지원하는 것을 특징으로 하는 방법이 개시된다.As an example, in the step (b), the spatial state information determination server transmits the spatial state information to another user terminal, thereby supporting the other user terminal to display the spatial state information. Is initiated.

일례로서, 상기 (b) 단계에서, 상기 공간 상태 정보 판별 서버가, 상기 공간 상태 정보 및 상기 실사영상 이미지를 상기 타 사용자 단말로 전송하고, (c) 상기 타 사용자 단말로부터 상기 실사영상 이미지의 임의의 영역 중 특정 영역에 대한 지시 정보가 획득되면, 상기 공간 상태 정보 판별 서버가, 상기 지시 정보를 상기 사용자 단말로 전송하여 줌으로써 상기 사용자 단말로 하여금 상기 지시 정보에 대응되는 마크업을 렌더링하도록 하고, 상기 마크업을 상기 실사영상 이미지의 상기 특정 영역에 디스플레이하도록 지원하는 단계;를 더 포함하는 것을 특징으로 하는 방법이 개시된다.As an example, in the step (b), the spatial state information determination server transmits the spatial state information and the live-action image to the other user terminal, and (c) randomly selects the live-action image from the other user terminal. When the indication information for a specific area among the areas of is obtained, the spatial state information determination server transmits the indication information to the user terminal to cause the user terminal to render a markup corresponding to the indication information, Disclosed is a method further comprising: supporting the markup to be displayed in the specific area of the live-action image image.

본 발명의 다른 태양에 따르면, 머신러닝에 기반하여 건축물의 공간 상태 정보를 판별하는 방법에 있어서, 인스트럭션들을 저장하는 적어도 하나의 메모리; 및 상기 인스트럭션들을 실행하기 위해 구성된 적어도 하나의 프로세서를 포함하되, 상기 프로세서는, (1) 사용자 단말로부터 건축물의 공간을 나타내는 실사영상 이미지가 획득되면, 상기 실사영상 이미지를 피처 추출 블록에 입력시킴으로써 상기 피처 추출 블록으로 하여금 상기 실사영상 이미지를 분석하여 상기 실사영상 이미지 상의 피처를 추출하여 피처 벡터를 출력하도록 하는 프로세스; 및 (2) 상기 피처 벡터를 공간 상태 분류 블록으로 입력하여 상기 공간 상태 분류 블록으로 하여금 상기 피처 벡터를 신경망 연산하도록 하여 상기 실사영상 이미지 상에서의 상기 건축물의 공간 상태 정보를 출력하도록 하며, 상기 공간 상태 정보를 상기 사용자 단말로 전송하여 줌으로써 상기 사용자 단말로 하여금 상기 공간 상태 정보를 디스플레이하도록 지원하는 프로세스를 수행하는 상기 인스트럭션들을 실행하는 공간 상태 정보 판별 서버가 개시된다.According to another aspect of the present invention, there is provided a method for determining spatial state information of a building based on machine learning, comprising: at least one memory for storing instructions; And at least one processor configured to execute the instructions, wherein the processor includes: (1) when a real-life image representing a space of a building is obtained from a user terminal, the real-life image is input to a feature extraction block, A process of causing a feature extraction block to analyze the real-life image, extract a feature on the real-life image, and output a feature vector; And (2) inputting the feature vector as a spatial state classification block to cause the spatial state classification block to calculate the feature vector with a neural network to output spatial state information of the building on the real-life image, and the spatial state Disclosed is a spatial state information determination server that executes the instructions for performing a process of supporting the user terminal to display the spatial state information by transmitting information to the user terminal.

일례로서, 상기 공간 상태 분류 블록은 FC 레이어(Fully Connected layer)를 포함하며, 상기 프로세서는, 상기 (2) 프로세스에서, 상기 피처 벡터를 상기 FC 레이어로 입력하여 상기 FC 레이어로 하여금 상기 피처 벡터를 신경망 연산하도록 함으로써, 기설정된 공종 클래스들 중 상기 실사영상 이미지 상에서의 상기 건축물의 상기 공간에 대응되는 특정 공종 클래스를 판별하도록 한 후, 상기 특정 공종 클래스에 대응되는 상기 공간 상태 정보를 출력하도록 하는 것을 특징으로 하는 공간 상태 정보 판별 서버가 개시된다.As an example, the spatial state classification block includes a fully connected layer, and the processor, in the (2) process, inputs the feature vector to the FC layer to cause the FC layer to generate the feature vector. By performing a neural network calculation, after determining a specific construction class corresponding to the space of the building on the real-life image among preset construction classes, outputting the spatial state information corresponding to the specific construction class. A characterized spatial state information determination server is disclosed.

일례로서, 상기 피처 추출 블록은 컨볼루션 레이어(convolution layer), RPN(Region Proposal Network), 풀링 레이어(pooling layer)를 포함하고, 상기 공간 상태 분류 블록은 FC 레이어를 포함하며, 상기 프로세서는, 상기 (1) 프로세스에서, 상기 실사영상 이미지를 상기 컨볼루션 레이어에 입력시킴으로써 상기 컨볼루션 레이어로 하여금 상기 실사영상 이미지를 적어도 한 번 컨볼루션 연산하도록 하여 상기 실사영상 이미지에 대응되는 공간 피처 맵(feature map)을 출력하도록 하며, 상기 공간 피처 맵을 상기 RPN으로 입력하여 상기 RPN으로 하여금 상기 공간 피처 맵 상에서 작업자가 있는 영역에 대응되는 프로포잘 박스(proposal box)들을 출력하도록 하며, 상기 풀링 레이어로 하여금 상기 프로포잘 박스들에 각각 대응되는 상기 공간 피처 맵 상의 영역들을 풀링하여 풀링된 피처 맵들에 대응되는 상기 피처 벡터를 출력하도록 하고, 상기 (2) 프로세스에서, 상기 피처 벡터를 상기 FC 레이어로 입력하여 상기 FC 레이어로 하여금 상기 작업자가 착용한 안전 장비를 확인하도록 하여 상기 작업자가 안전 상태에 있는지 여부를 판단하도록 한 후 상기 안전 상태에 대응되는 상기 공간 상태 정보를 출력하도록 하는 것을 특징으로 하는 공간 상태 정보 판별 서버가 개시된다.As an example, the feature extraction block includes a convolution layer, a region proposal network (RPN), and a pooling layer, the spatial state classification block includes an FC layer, and the processor includes: (1) In the process, by inputting the real-life image to the convolution layer, the convolutional layer causes the real-life image to be convolved at least once, and a spatial feature map corresponding to the real-life image is performed. ), and inputs the spatial feature map to the RPN to cause the RPN to output proposal boxes corresponding to an area in which a worker is located on the spatial feature map, and the pooling layer causes the Regions on the spatial feature map corresponding to each of the proposal boxes are pooled to output the feature vector corresponding to the pooled feature maps, and in the (2) process, the feature vector is input to the FC layer and the Spatial state information discrimination, characterized in that the FC layer checks the safety equipment worn by the worker to determine whether the worker is in a safe state, and then outputs the spatial state information corresponding to the safety state. The server is started.

일례로서, 상기 컨볼루션 레이어 및 상기 FC 레이어는 학습 데이터가 이용되어 각각 임의의 공간 피처 맵과 임의의 공간 상태 정보를 출력하도록 학습된 상태이며, 학습용 영상 이미지 - 상기 학습용 영상 이미지는 임의의 공간을 촬영한 영상 이미지임 - 가 획득되면, 학습 장치에 의해, (i) 상기 학습용 영상 이미지가 상기 컨볼루션 레이어로 입력됨으로써 상기 컨볼루션 레이어로 하여금 상기 학습용 영상 이미지가 적어도 한 번 컨볼루션 연산되도록 하여 상기 학습용 영상 이미지에 대응되는 학습용 공간 피처 맵이 출력되도록 하고, (ii) 상기 학습용 공간 피처 맵이 상기 RPN으로 입력되어 상기 RPN으로 하여금 상기 학습용 공간 피처 맵 상에서 학습용 작업자가 있는 영역에 대응되는 학습용 프로포잘 박스들이 출력되도록 하며, 상기 풀링 레이어로 하여금 상기 학습용 프로포잘 박스들에 각각 대응되는 상기 학습용 공간 피처 맵 상의 영역들이 풀링되어 학습용 풀링된 피처 맵들이 출력되도록 하고, 상기 학습용 풀링된 피처 맵들이 학습용 피처 벡터로 변환된 후, 상기 학습용 피처 벡터가 상기 FC 레이어로 입력되어 상기 FC 레이어로 하여금 상기 학습용 작업자가 착용한 안전 장비가 확인되도록 하여 상기 학습용 작업자가 안전 상태에 있는지 여부가 판단되도록 한 후 상기 안전 상태에 대응되는 학습용 공간 상태 정보가 출력되도록 하고, (iii) 로스(loss) 레이어로 하여금 상기 학습용 공간 상태 정보와 이에 대응되는 GT(Ground Truth)가 참조되도록 하여 로스가 생성되도록 하며, 상기 로스를 이용한 백프로퍼게이션(back propagation) 프로세스에 의해 상기 FC 레이어 및 상기 컨볼루션 레이어의 파라미터들 중 적어도 하나의 파라미터가 학습된 상태인 것을 특징으로 하는 공간 상태 정보 판별 서버가 개시된다.As an example, the convolutional layer and the FC layer are in a state in which training data is used to output an arbitrary spatial feature map and arbitrary spatial state information, respectively, and an image for training-the image for training is an arbitrary space. When is acquired, (i) the training video image is input to the convolution layer, causing the convolution layer to perform convolution calculation of the training video image at least once. A training spatial feature map corresponding to the training video image is output, and (ii) the training spatial feature map is input to the RPN to cause the RPN to learn a proposal corresponding to an area where a training worker is located on the training spatial feature map. Boxes are output, and the pooling layer causes the areas on the learning spatial feature map corresponding to the learning proposal boxes to be pooled to output the pooled feature maps for learning, and the pooled feature maps for learning are the learning features. After being converted to a vector, the learning feature vector is input to the FC layer, causing the FC layer to check the safety equipment worn by the learning worker to determine whether the learning worker is in a safe state, and then the safety. The learning spatial state information corresponding to the state is output, and (iii) the loss layer makes the learning spatial state information and the corresponding GT (Ground Truth) reference to generate a loss, and the loss is A spatial state information determination server, characterized in that at least one of the parameters of the FC layer and the convolution layer is learned by a back propagation process used.

일례로서, 상기 피처 추출 블록은 컨볼루션 레이어, RPN, 풀링 레이어를 포함하고, 상기 공간 상태 분류 블록은 FC 레이어를 포함하며, 상기 프로세서는, 상기 (1) 프로세스에서, 상기 실사영상 이미지를 상기 컨볼루션 레이어에 입력시킴으로써 상기 컨볼루션 레이어로 하여금 상기 실사영상 이미지를 적어도 한 번 컨볼루션 연산하도록 하여 상기 실사영상 이미지에 대응되는 공간 피처 맵을 출력하도록 하며, 상기 공간 피처 맵을 상기 RPN으로 입력하여 상기 RPN으로 하여금 상기 공간 피처 맵 상에서 결함 또는 하자가 있는 것으로 판단되는 영역에 대응되는 프로포잘 박스들을 출력하도록 하며, 상기 풀링 레이어로 하여금 상기 프로포잘 박스들에 각각 대응되는 상기 공간 피처 맵 상의 영역들을 풀링하여 풀링된 피처 맵들에 대응되는 상기 피처 벡터를 출력하도록 하고, 상기 (2) 프로세스에서, 상기 피처 벡터를 상기 FC 레이어로 입력하여 상기 FC 레이어로 하여금 상기 공간에 상기 결함 또는 상기 하자가 실제로 존재하는지 여부를 판단하도록 하고, 상기 결함 또는 상기 하자가 실제로 존재하는 경우, 상기 결함 또는 상기 하자의 종류를 분류하도록 한 후 상기 결함 또는 상기 하자의 종류에 대응되는 상기 공간 상태 정보를 출력하도록 하는 것을 특징으로 하는 공간 상태 정보 판별 서버가 개시된다.As an example, the feature extraction block includes a convolutional layer, an RPN, and a pooling layer, the spatial state classification block includes an FC layer, and the processor includes, in the (1) process, the real-life image By inputting into the lusion layer, the convolutional layer causes the real-life image to be convoluted at least once to output a spatial feature map corresponding to the real-life image, and the spatial feature map is input to the RPN and the Causes the RPN to output proposal boxes corresponding to regions determined to have defects or defects on the spatial feature map, and cause the pooling layer to pull regions on the spatial feature map corresponding to the proposal boxes respectively To output the feature vector corresponding to the pooled feature maps, and in the (2) process, input the feature vector to the FC layer to cause the FC layer to determine whether the defect or the defect actually exists in the space. To determine whether the defect or the defect actually exists, classify the type of the defect or the defect, and output the spatial state information corresponding to the type of the defect or the defect. The spatial state information determination server is started.

일례로서, 상기 피처 추출 블록은 컨볼루션 레이어, RPN, 풀링 레이어를 포함하고, 상기 공간 상태 분류 블록은 제1 FC 레이어 및 제2 FC 레이어를 포함하며, 상기 프로세서는, 상기 (1) 프로세스에서, 상기 실사영상 이미지를 상기 컨볼루션 레이어에 입력시킴으로써 상기 컨볼루션 레이어로 하여금 상기 실사영상 이미지를 적어도 한 번 컨볼루션 연산하도록 하여 상기 실사영상 이미지에 대응되는 공간 피처 맵을 출력하도록 하며, 상기 공간 피처 맵을 상기 RPN으로 입력하여 상기 RPN으로 하여금 상기 공간 피처 맵 상에서 작업자가 있는 영역에 대응되는 프로포잘 박스들을 출력하도록 하며, 상기 풀링 레이어로 하여금 상기 프로포잘 박스들에 각각 대응되는 상기 공간 피처 맵 상의 영역들을 풀링하여 풀링된 피처 맵들에 대응되는 제1 피처 벡터를 출력하도록 하고, 상기 (2) 프로세스에서, (i) 상기 컨볼루션 레이어로부터 출력되는 상기 공간 피처 맵에 대응되는 제2 피처 벡터를 제1 FC 레이어로 입력하여 상기 제1 FC 레이어로 하여금 상기 제2 피처 벡터를 신경망 연산하도록 함으로써, 기설정된 공종 클래스들 중 상기 실사영상 이미지 상에서의 상기 건축물의 상기 공간에 대응되는 특정 공종 클래스를 판별하도록 한 후, 상기 특정 공종 클래스에 대응되는 특정 공종 정보를 출력하도록 하며, (ii) 상기 제1 피처 벡터를 상기 제2 FC 레이어로 입력하여 상기 제2 FC 레이어로 하여금 상기 작업자가 착용한 안전 장비를 확인하여 특정 안전 장비 착용 상태 정보를 출력하도록 하며, (iii) 상기 제1 FC 레이어로부터 출력된 상기 특정 공종 정보에 대응되어 설정된 기준 안전 장비 착용 상태 정보와 상기 제2 FC 레이어로부터 출력된 상기 특정 안전 장비 착용 상태 정보를 참조하여 상기 작업자가 상기 특정 공종 정보에 대응되는 안전 장비를 착용하였는지를 나타내는 작업자 안전 상태 정보를 생성하고, 상기 작업자 안전 상태 정보를 상기 사용자 단말로 전송하여 줌으로써 상기 사용자 단말로 하여금 상기 작업자 안전 상태 정보를 디스플레이하도록 지원하는 것을 특징으로 하는 공간 상태 정보 판별 서버가 개시된다.As an example, the feature extraction block includes a convolution layer, an RPN, and a pooling layer, the spatial state classification block includes a first FC layer and a second FC layer, and the processor, in the (1) process, By inputting the real-life image image to the convolution layer, the convolutional layer causes the real-life image to be convolved at least once to output a spatial feature map corresponding to the real-life image, and the spatial feature map Input into the RPN to cause the RPN to output proposal boxes corresponding to an area in which a worker is located on the spatial feature map, and to cause the pooling layer to output an area on the spatial feature map corresponding to each of the proposal boxes. Are pooled to output a first feature vector corresponding to the pooled feature maps, and in the (2) process, (i) a second feature vector corresponding to the spatial feature map output from the convolution layer is first By inputting into an FC layer and causing the first FC layer to calculate the second feature vector, a specific construction class corresponding to the space of the building on the real-life image among preset construction classes is determined. Thereafter, the specific work type information corresponding to the specific work class is output, and (ii) the first feature vector is input to the second FC layer, and the second FC layer checks the safety equipment worn by the worker. To output specific safety equipment wearing state information, and (iii) reference safety equipment wearing state information set in response to the specific work type information output from the first FC layer and the specific safety equipment output from the second FC layer By referring to wearing state information, worker safety state information indicating whether the worker wears safety equipment corresponding to the specific work type information is generated, and the worker safety state information is transmitted to the user terminal. Disclosed is a spatial state information determination server, which supports a user terminal to display the worker safety state information.

일례로서, 상기 컨볼루션 레이어, 상기 제1 FC 레이어 및 상기 제2 FC 레이어는 학습 데이터가 이용되어 각각 임의의 공간 피처 맵과 임의의 공간 상태 정보를 출력하도록 학습된 상태이며, 학습용 영상 이미지 - 상기 학습용 영상 이미지는 임의의 공간을 촬영한 영상 이미지임 - 가 획득되면, 학습 장치에 의해, (i) 상기 학습용 영상 이미지가 상기 컨볼루션 레이어로 입력됨으로써 상기 컨볼루션 레이어로 하여금 상기 학습용 영상 이미지가 적어도 한 번 컨볼루션 연산되도록 하여 상기 학습용 영상 이미지에 대응되는 학습용 공간 피처맵이 출력되도록 하고, 상기 학습용 공간 피처 맵이 상기 RPN으로 입력되어 상기 RPN으로 하여금 상기 학습용 공간 피처 맵 상에서 학습용 작업자가 있는 영역에 대응되는 학습용 프로포잘 박스들이 출력되도록 하며, 상기 풀링 레이어로 하여금 상기 학습용 프로포잘 박스들에 각각 대응되는 상기 학습용 공간 피처 맵 상의 영역들이 풀링되어 학습용 풀링된 피처 맵들에 대응되는 학습용 제1 피처 벡터가 출력되도록 하고 (ii-1) 상기 컨볼루션 레이어로부터 출력되는 상기 학습용 공간 피처맵에 대응되는 학습용 제2 피처 벡터가 상기 제1 FC 레이어로 입력되어 상기 제1 FC 레이어로 하여금 상기 학습용 제2 피처 벡터가 신경망 연산되도록 함으로써, 기설정된 공종 클래스들 중 상기 학습용 영상 이미지 상에서의 상기 건축물의 상기 공간에 대응되는 특정 공종 클래스가 판별되도록 한 후, 상기 특정 공종 클래스에 대응되는 학습용 특정 공종 정보가 출력되도록 하며, (ii-2) 상기 학습용 제1 피처 벡터가 상기 제2 FC 레이어로 입력되어 상기 제2 FC 레이어로 하여금 상기 학습용 작업자가 착용한 안전 장비가 확인되도록 하여 학습용 특정 안전 장비 착용 상태 정보가 출력되도록 하고, (iii-1) 로스(loss) 레이어로 하여금 상기 학습용 특정 공종 정보와 이에 대응되는 제1 GT(Ground Truth)가 참조되도록 하여 제1 로스가 생성되도록 하며, (iii-2) 상기 로스(loss) 레이어로 하여금 상기 학습용 특정 안전 장비 착용 상태 정보와 이에 대응되는 제2 GT(Ground Truth)가 참조되도록 하여 제2 로스가 생성되도록 하며, 상기 제1 로스 및 상기 제2 로스를 이용한 백프로퍼게이션(back propagation) 프로세스에 의해 상기 제1 FC 레이어, 상기 제2 FC 레이어 및 상기 컨볼루션 레이어의 파라미터들 중 적어도 하나의 파라미터가 학습된 상태인 것을 특징으로 하는 공간 상태 정보 판별 서버가 개시된다.As an example, the convolutional layer, the first FC layer, and the second FC layer are in a state in which training data is used to output an arbitrary spatial feature map and arbitrary spatial state information, respectively, and the training video image-the The training video image is a video image photographed in an arbitrary space-When is obtained, by the learning device, (i) the training video image is input to the convolution layer, causing the convolution layer to have at least the training video image A convolution operation is performed once so that a learning spatial feature map corresponding to the learning video image is output, and the learning spatial feature map is input to the RPN to cause the RPN to enter the area where the learning worker is located on the learning spatial feature map. Corresponding learning proposal boxes are output, and regions on the learning spatial feature map corresponding to the learning proposal boxes are pooled by the pooling layer, so that a learning first feature vector corresponding to the pooled feature maps for learning is obtained. And (ii-1) a second learning feature vector corresponding to the learning spatial feature map output from the convolutional layer is input to the first FC layer, causing the first FC layer to cause the learning second feature vector By allowing the neural network to be calculated, a specific construction class corresponding to the space of the building on the learning image image among preset construction classes is determined, and then specific construction type information for learning corresponding to the specific construction class is output. , (ii-2) The first feature vector for learning is input to the second FC layer so that the second FC layer checks the safety equipment worn by the learning worker, so that information on the wearing state of specific safety equipment for learning is output. And, (iii-1) the first loss is generated by allowing the loss layer to refer to the specific construction type information for learning and the corresponding first GT (Ground Truth). And (iii-2) a second loss is generated by allowing the loss layer to refer to the training specific safety equipment wearing state information and a corresponding second GT (ground truth), and the first loss And at least one of parameters of the first FC layer, the second FC layer, and the convolution layer is learned by a back propagation process using the second loss. The spatial state information determination server is started.

일례로서, 상기 건축물의 동, 호, 층 및 실 중 적어도 하나에 의하여 특정되는 상기 건축물 내 개별 공간들에 관한 정보인 공간 정보들이 획득된 상태에서, 상기 프로세서는, 상기 (2) 프로세스에서, 상기 사용자 단말이 위치하고 있는 위치 정보를 참조하여 상기 공간 정보들 중, 상기 사용자 단말이 위치하는 특정 공간 정보를 확인하고, 상기 특정 공간 정보를 상기 사용자 단말로 전송하여, 상기 사용자 단말로 하여금 상기 공간 상태 정보 및 상기 특정 공간 정보를 디스플레이하도록 지원하는 것을 특징으로 하는 공간 상태 정보 판별 서버가 개시된다.As an example, in a state in which spatial information, which is information about individual spaces within the building specified by at least one of the building's wing, arc, floor, and room, is obtained, the processor, in the process (2), Among the spatial information, specific spatial information in which the user terminal is located is checked with reference to the location information in which the user terminal is located, and the specific spatial information is transmitted to the user terminal, so that the user terminal causes the spatial state information. And a spatial state information determination server that supports to display the specific spatial information.

일례로서, 상기 프로세서는, 상기 (2) 프로세스에서, 상기 공간 상태 정보를 타 사용자 단말에 전송하여 줌으로써 상기 타 사용자 단말로 하여금 상기 공간 상태 정보를 디스플레이하도록 지원하는 것을 특징으로 하는 공간 상태 정보 판별 서버가 개시된다.As an example, the processor supports the other user terminal to display the spatial state information by transmitting the spatial state information to another user terminal in the (2) process. Is initiated.

일례로서, 상기 프로세서는, 상기 (2) 프로세스에서, 상기 공간 상태 정보 및 상기 실사영상 이미지를 상기 타 사용자 단말로 전송하고, (3) 상기 타 사용자 단말로부터 상기 실사영상 이미지의 임의의 영역 중 특정 영역에 대한 지시 정보가 획득되면, 상기 공간 상태 정보 판별 서버가, 상기 지시 정보를 상기 사용자 단말로 전송하여 줌으로써 상기 사용자 단말로 하여금 상기 지시 정보에 대응되는 마크업을 렌더링하도록 하고, 상기 마크업을 상기 실사영상 이미지의 상기 특정 영역에 디스플레이하도록 지원하는 프로세스;를 더 포함하는 것을 특징으로 하는 공간 상태 정보 판별 서버가 개시된다.As an example, the processor, in the (2) process, transmits the spatial state information and the live-action image image to the other user terminal, and (3) a specific area of the live-action image image from the other user terminal. When the indication information for the region is obtained, the spatial state information determination server transmits the indication information to the user terminal to cause the user terminal to render a markup corresponding to the indication information, and perform the markup. The spatial state information determination server further comprises a process of supporting the display of the real-life image on the specific area.

이 외에도, 본 발명의 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition to this, a computer-readable recording medium for recording a computer program for executing the method of the present invention is further provided.

본 발명은 건설 현장 관계자 또는 유지관리 대상 건축물 관계자들의 주관적 기준을 근거로 공종 현황, 안전 수칙 준수 여부 및 결함 또는 하자 발생 여부 등이 잘못 판단되지 않도록, 데이터에 기반하여 객관적으로 공간 상태 정보를 판별하는 효과가 있다.The present invention objectively determines spatial state information based on data so that the status of construction work, compliance with safety rules, and occurrence of defects or defects, etc. are not erroneously determined based on subjective standards of construction site officials or those concerned with buildings to be maintained. It works.

또한, 본 발명은 적은 인력으로도 건설 현장 또는 유지관리 대상 건축물에 관한 대량의 업무를 처리할 수 있도록 하는 효과가 있다.In addition, the present invention has the effect of allowing a large amount of work related to a construction site or a maintenance target building to be processed with a small number of manpower.

또한, 본 발명은 관련 인력 및 업무 단계를 최소화함으로써 건설 현장 또는 유지관리 대상 건축물에 투입되는 비용을 절감하는 효과가 있다.In addition, the present invention has the effect of reducing the cost input to the construction site or the maintenance target building by minimizing the relevant manpower and work steps.

또한, 본 발명은 관련 지식을 습득하지 않은 누구든지 공종 현황, 안전 수칙 준수 여부 및 결함 또는 하자 발생 여부 등을 구체적으로 확인할 수 있도록 하는 효과가 있다.In addition, the present invention has the effect of allowing anyone who has not acquired related knowledge to specifically check the status of construction types, compliance with safety rules, and whether defects or defects have occurred.

또한, 본 발명은 건설 현장 또는 유지관리 대상 건축물에서 관계자로 하여금 구조물에 접촉하지 않고도 공종 현황을 파악할 수 있도록 하여 관계자의 안전을 증대하는 효과가 있다.In addition, the present invention has the effect of increasing the safety of the person concerned by allowing the person concerned to grasp the status of the work type without contacting the structure at the construction site or the maintenance target building.

본 발명의 실시예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자(이하 "통상의 기술자")에게 있어서는 발명적 작업이 이루어짐 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명의 일 실시예에 따라 머신러닝에 기반하여 건축물의 공간 상태 정보를 판별하기 위한 공간 상태 정보 판별 서버, 사용자 단말 및 타 사용자 단말을 개략적으로 도시한 것이고,
도 2는 본 발명의 일 실시예에 따라 건축물의 공간 상태 정보를 판별하는 과정을 개략적으로 도시한 것이고,
도 3은 본 발명의 일 실시예에 따라 특정 공종 클래스를 판별하는 모습을 개략적으로 도시한 것이고,
도 4는 본 발명의 일 실시예에 따라 안전 상태를 판별하는 모습을 개략적으로 도시한 것이고,
도 5는 본 발명의 일 실시예에 따라 결함 또는 하자 존재 여부 및 종류를 판별하는 모습을 개략적으로 도시한 것이다.
The accompanying drawings, which are attached to be used in the description of the embodiments of the present invention, are only some of the embodiments of the present invention, and those of ordinary skill in the technical field to which the present invention pertains Other drawings can be obtained based on these drawings without any further work being done.
1 schematically illustrates a spatial state information determination server, a user terminal, and other user terminals for determining spatial state information of a building based on machine learning according to an embodiment of the present invention.
2 schematically illustrates a process of determining spatial state information of a building according to an embodiment of the present invention,
3 schematically shows a state of determining a specific public type class according to an embodiment of the present invention,
4 schematically shows a state of determining a safety state according to an embodiment of the present invention,
5 schematically shows a state of determining whether a defect or defect exists and its type according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.DETAILED DESCRIPTION OF THE INVENTION The detailed description of the present invention to be described below refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced in order to clarify the objects, technical solutions and advantages of the present invention. These embodiments are described in detail sufficient to enable a person skilled in the art to practice the present invention.

또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐, "포함하다"라는 단어 및 그것의 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다.Further, throughout the detailed description and claims of the present invention, the word "comprises" and variations thereof are not intended to exclude other technical features, additions, components or steps. Other objects, advantages, and features of the present invention to those skilled in the art will appear, partly from the present disclosure, and partly from the practice of the present invention. The examples and drawings below are provided by way of example and are not intended to limit the invention.

더욱이 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.Moreover, the present invention covers all possible combinations of the embodiments indicated herein. It is to be understood that the various embodiments of the present invention are different from each other, but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description to be described below is not intended to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all scopes equivalent to those claimed by the claims. In the drawings, like reference numerals refer to the same or similar functions over several aspects.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to enable those of ordinary skill in the art to easily implement the present invention.

도 1은 본 발명의 일 실시예에 따라 머신러닝에 기반하여 건축물의 공간 상태 정보를 판별하는 공간 상태 정보 판별 서버(100), 사용자 단말(200) 및 타 사용자 단말(300)을 개략적으로 도시한 것으로, 도 1을 참조하면, 공간 상태 정보 판별 서버(100)는 머신러닝에 기반하여 건축물의 공간 상태 정보를 판별하기 위한 인스트럭션들을 저장하는 메모리(110)와 메모리(110)에 저장된 인스트럭션들에 대응하여 머신러닝에 기반하여 건축물의 공간 상태 정보를 판별하는 동작을 수행하는 프로세서(120)를 포함할 수 있다. 1 schematically shows a spatial state information determination server 100, a user terminal 200, and another user terminal 300 for determining spatial state information of a building based on machine learning according to an embodiment of the present invention. Referring to FIG. 1, the spatial state information determination server 100 corresponds to a memory 110 storing instructions for determining spatial state information of a building and instructions stored in the memory 110 based on machine learning. Accordingly, it may include a processor 120 that performs an operation of determining spatial state information of a building based on machine learning.

구체적으로, 공간 상태 정보 판별 서버(100)는 전형적으로 컴퓨팅 장치(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS) 및 스토리지 영역 네트워크(SAN)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 인스트럭션들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.Specifically, the spatial state information determination server 100 is typically a computing device (e.g., a device that may include a computer processor, a memory, a storage, an input device and an output device, and other components of a conventional computing device; a router, a switch). Electronic communication devices such as; using a combination of electronic information storage systems such as network attached storage (NAS) and storage area networks (SAN)) and computer software (i.e., instructions that make the computing device function in a specific way) To achieve the desired system performance.

또한, 컴퓨팅 장치의 프로세서는 MPU(Micro Processing Unit) 또는 CPU(Central Processing Unit), 캐쉬 메모리(Cache Memory), 데이터 버스(Data Bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 컴퓨팅 장치는 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.In addition, the processor of the computing device may include a hardware configuration such as a micro processing unit (MPU) or a central processing unit (CPU), a cache memory, and a data bus. In addition, the computing device may further include an operating system and a software configuration of an application that performs a specific purpose.

그러나, 컴퓨팅 장치가 본 발명을 실시하기 위한 미디엄, 프로세서 및 메모리가 통합된 형태인 integrated 프로세서를 포함하는 경우를 배제하는 것은 아니다.However, it is not excluded that the computing device includes an integrated processor in which a medium, a processor, and a memory are integrated for implementing the present invention.

한편, 사용자 단말(200) 및 타 사용자 단말(300) 각각은 건축물의 공간 상태 정보를 디스플레이하기 위한 인스트럭션들을 저장하는 각각의 메모리(210, 310)와 각각의 메모리(210, 310)에 저장된 인스트럭션들에 대응하여 건축물의 공간 상태 정보를 디스플레이하는 동작을 수행하는 각각의 프로세서(220, 320)를 포함할 수 있다.On the other hand, the user terminal 200 and the other user terminal 300, respectively, each memory (210, 310) that stores instructions for displaying the spatial state information of the building and instructions stored in each of the memories (210, 310). Each of the processors 220 and 320 may be configured to perform an operation of displaying spatial state information of a building in response to the corresponding structure.

구체적으로, 사용자 단말(200) 및 타 사용자 단말(300) 각각은 전형적으로 컴퓨팅 장치(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS) 및 스토리지 영역 네트워크(SAN)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 인스트럭션들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.Specifically, each of the user terminal 200 and the other user terminal 300 typically includes a computing device (e.g., a computer processor, memory, storage, input device and output device, and other components of an existing computing device). Devices; electronic communication devices such as routers, switches, etc.; electronic information storage systems such as network attached storage (NAS) and storage area networks (SANs) and computer software (i.e., instructions that cause the computing device to function in a specific way) ) May be used to achieve the desired system performance.

또한, 컴퓨팅 장치의 프로세서는 MPU(Micro Processing Unit) 또는 CPU(Central Processing Unit), 캐쉬 메모리(Cache Memory), 데이터 버스(Data Bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 컴퓨팅 장치는 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.In addition, the processor of the computing device may include a hardware configuration such as a micro processing unit (MPU) or a central processing unit (CPU), a cache memory, and a data bus. In addition, the computing device may further include an operating system and a software configuration of an application that performs a specific purpose.

그러나, 컴퓨팅 장치가 본 발명을 실시하기 위한 미디엄, 프로세서 및 메모리가 통합된 형태인 integrated 프로세서를 포함하는 경우를 배제하는 것은 아니다.However, it is not excluded that the computing device includes an integrated processor in which a medium, a processor, and a memory are integrated for implementing the present invention.

이와 같이 구성된 본 발명의 일 실시예에 따른 공간 상태 정보 판별 서버(100), 사용자 단말(200) 및 타 사용자 단말(300)을 이용하여 머신러닝에 기반하여 건축물의 공간 상태 정보를 판별하는 방법에 대해 설명하면 다음과 같다.A method for determining spatial state information of a building based on machine learning using the spatial state information determination server 100, the user terminal 200 and the other user terminal 300 according to an embodiment of the present invention configured as described above. It is as follows.

참고로, 도 2에서 도시하는 컨볼루션 레이어(410), RPN(420), 풀링 레이어(430), 제1 FC 레이어(510) 및 제2 FC 레이어(520)는 공간 상태 정보 판별 서버(100)에 포함될 수 있으나, 이에 한정되는 것은 아니며, 별도의 독립된 장치로 구성될 수도 있다. 또한, 제1 FC 레이어(510) 및 제2 FC 레이어(520)는 분류기(classifier)를 통해 클래시피케이션 스코어를 획득할 수 있으나, 이에 한정되는 것은 아니며, 가령, 리그레서(regressor)를 통해 리그레션 정보를 추가적으로 획득할 수도 있다. 이에 대한 자세한 설명은 후술한다.For reference, the convolution layer 410, the RPN 420, the pooling layer 430, the first FC layer 510 and the second FC layer 520 shown in FIG. 2 are the spatial state information determination server 100 It may be included in, but is not limited thereto, and may be configured as a separate independent device. In addition, the first FC layer 510 and the second FC layer 520 may obtain a classification score through a classifier, but are not limited thereto, for example, a league through a regressor. It is also possible to obtain additional lesson information. A detailed description of this will be described later.

공간 상태 정보를 출력하고 이를 사용자 단말(200)에 디스플레이하도록 지원하는 전체적인 프로세스를 설명하면, 사용자 단말(200)로부터 건축물의 공간을 나타내는 실사영상 이미지가 획득되면, 공간 상태 정보 판별 서버(100)가, 실사영상 이미지를 피처 추출 블록(400)에 입력시킴으로써 상기 피처 추출 블록(400)으로 하여금 상기 실사영상 이미지를 분석하여 상기 실사영상 이미지 상의 피처를 추출하여 피처 벡터를 출력하도록 할 수 있다.When the overall process of outputting spatial state information and supporting it to be displayed on the user terminal 200 is described, when a live-action image representing the space of the building is obtained from the user terminal 200, the spatial state information determination server 100 , By inputting the real image image to the feature extraction block 400, the feature extraction block 400 may analyze the real image image and extract a feature on the real image image to output a feature vector.

여기서, 공간 상태 정보는, 건축물의 공간 내 특정 부위에 적용되는 공종에 관한 정보, 건축물의 공간 내에서 작업하는 작업자의 안전 상태에 관한 정보, 건축물의 공간 내 특정 부위에 발생한 결함 또는 하자에 관한 정보 등을 포함할 수 있다.Here, the spatial status information is information on the type of work applied to a specific part of the building space, information on the safety status of workers working in the building space, information on defects or defects occurring in a specific part of the building space And the like.

그리고, 공간 상태 정보 판별 서버(100)가, 피처 벡터를 공간 상태 분류 블록(500)으로 입력하여 상기 공간 상태 분류 블록(500)으로 하여금 피처 벡터를 신경망 연산하도록 하여 실사영상 이미지 상에서의 건축물의 공간 상태 정보를 출력하도록 하며, 공간 상태 정보를 사용자 단말(200)로 전송하여 줌으로써 사용자 단말(200)로 하여금 공간 상태 정보를 디스플레이하도록 지원할 수 있다.In addition, the spatial state information determination server 100 inputs a feature vector into the spatial state classification block 500 and causes the spatial state classification block 500 to calculate the feature vector in a neural network, The state information is output, and the spatial state information is transmitted to the user terminal 200 to enable the user terminal 200 to display the spatial state information.

먼저, 건축물의 공간 내 특정 부위에 적용되는 공종에 관한 공간 상태 정보를 출력하는 경우에 대해 도 2를 참조하여 구체적으로 설명한다.First, a case of outputting spatial state information about a construction type applied to a specific part of a building space will be described in detail with reference to FIG. 2.

구체적으로, 공간 상태 분류 블록(500)이 FC 레이어(Fully Connected layer)를 포함할 때, 공간 상태 정보 판별 서버(100)는, 피처 벡터를 FC 레이어로 입력하여 FC 레이어로 하여금 피처 벡터를 신경망 연산하도록 함으로써, 기설정된 공종 클래스들 중 실사영상 이미지 상에서의 건축물의 공간에 대응되는 특정 공종 클래스를 판별하도록 한 후, 특정 공종 클래스에 대응되는 공간 상태 정보를 출력하도록 할 수 있다. 여기서, 기설정된 공종 클래스들은 건설 현장 또는 유지관리 대상 건축물에 적용될 수 있는 모든 공종들을 포함할 수 있다.Specifically, when the spatial state classification block 500 includes a fully connected layer, the spatial state information determination server 100 inputs a feature vector as an FC layer and causes the FC layer to compute the feature vector in a neural network. By doing so, it is possible to determine a specific construction class corresponding to the space of the building on the live-action image among the preset construction class classes, and then output spatial state information corresponding to the specific construction class class. Here, the preset construction type classes may include all construction types applicable to a construction site or a maintenance target building.

일례로, 도 3에서는, 조적 공사에 대응되는 공간 상태 정보가 사용자 단말(200)로 전송되어, 실사영상 이미지에 나타나는 공종이 조적 공사인 것으로 사용자 단말(200)의 하단부에 디스플레이되는 모습을 도시하고 있다.As an example, in FIG. 3, the spatial state information corresponding to the masonry construction is transmitted to the user terminal 200, and the construction type shown in the live-action image is a masonry construction and is displayed on the lower end of the user terminal 200. have.

다음으로, 건축물의 공간 내에서 작업하는 작업자의 안전 상태에 관한 공간 상태 정보를 출력하는 경우에 대해 다시 도 2를 참조하여 구체적인 과정을 설명한다.Next, a specific process will be described with reference to FIG. 2 again for the case of outputting spatial state information on the safety state of a worker working in the space of the building.

구체적으로, 피처 추출 블록(400)은 컨볼루션 레이어(convolution layer), RPN(Region Proposal Network), 풀링 레이어(pooling layer)를 포함하고, 공간 상태 분류 블록(500)은 FC 레이어를 포함할 때, 공간 상태 정보 판별 서버(100)는, 실사영상 이미지를 컨볼루션 레이어(410)에 입력시킴으로써 컨볼루션 레이어(410)로 하여금 실사영상 이미지를 적어도 한번 컨볼루션 연산하도록 하여 실사영상 이미지에 대응되는 공간 피처 맵(feature map)을 출력하도록 하며, 컨볼루션 레이어(410)로부터 출력된 공간 피처 맵을 RPN(420)으로 입력하여 RPN(420)으로 하여금 공간 피처 맵 상에서 작업자가 있는 영역에 대응되는 프로포잘 박스(proposal box)들을 출력하도록 하며, 풀링 레이어(430)로 하여금 프로포잘 박스들에 각각 대응되는 공간 피처 맵 상의 영역들을 풀링하여 풀링된 피처 맵들에 대응되는 피처 벡터를 출력하도록 할 수 있다. Specifically, when the feature extraction block 400 includes a convolution layer, a region proposal network (RPN), and a pooling layer, and the spatial state classification block 500 includes an FC layer, The spatial state information determination server 100 inputs a real-life image to the convolution layer 410 to cause the convolution layer 410 to convolve the real-life image at least once, thereby providing a spatial feature corresponding to the real-life image. A map (feature map) is output, and the spatial feature map output from the convolution layer 410 is input to the RPN 420, causing the RPN 420 to a proposal box corresponding to the area where the operator is located on the spatial feature map. (proposal boxes) may be output, and the pooling layer 430 may be able to output feature vectors corresponding to the pooled feature maps by pooling regions on a spatial feature map corresponding to each of the proposal boxes.

그리고 공간 상태 정보 판별 서버(100)는, 피처 벡터를 FC 레이어로 입력하여 FC 레이어로 하여금 작업자가 착용한 안전 장비를 확인하도록 하여 작업자가 안전 상태에 있는지 여부를 판단하도록 한 후 안전 상태에 대응되는 공간 상태 정보를 출력하도록 할 수 있다.In addition, the spatial state information determination server 100 inputs the feature vector as an FC layer to allow the FC layer to check the safety equipment worn by the worker to determine whether the worker is in a safe state, and then respond to the safety state. It is possible to output spatial state information.

일례로, 건설 현장에서 작업자가 안전화를 신었으나 안전모를 착용하고 있지 않은 상태를 나타내는 실사영상 이미지가 획득되는 경우에 대해 설명하기로 한다. 즉, 공간 상태 정보 판별 서버(100)는, FC 레이어로 하여금 해당 작업자가 착용한 안전 장비들을 확인하도록 함으로써 작업자가 현재 안전모를 착용하고 있지 않음을 판단하도록 할 수 있다, 그리고, 작업자의 안전 상태에 대응되는 공간 상태 정보가 출력되어 해당 공간 상태 정보가 사용자 단말(200)로 전송되면, 도 4에서 도시하는 바와 같이, 실사영상 이미지에 나타나는 작업자가 현재 안전모를 착용하고 있지 않은 것으로 사용자 단말(200)에 디스플레이될 수 있다.As an example, a description will be made of a case in which a live-action image image indicating a state in which a worker is wearing safety shoes but not wearing a hard hat is acquired at a construction site. That is, the spatial state information determination server 100 may allow the FC layer to determine that the worker is not currently wearing a hard hat by allowing the FC layer to check the safety equipment worn by the corresponding worker, and the safety state of the worker. When the corresponding spatial state information is output and the corresponding spatial state information is transmitted to the user terminal 200, as shown in FIG. 4, the operator shown in the live image image is not currently wearing a hard hat, and the user terminal 200 Can be displayed on.

또한, 공간 상태 정보 판별 서버(100)는, 작업자가 현재 안전모를 착용하고 있는지 여부뿐만 아니라, 도 4처럼 해당 작업자에 대응되는 바운딩 박스도 함께 사용자 단말(200)에 디스플레이되도록 지원할 수 있다.In addition, the spatial state information determination server 100 may support not only whether a worker is currently wearing a hard hat, but also a bounding box corresponding to the worker as shown in FIG. 4 to be displayed on the user terminal 200.

또한, 위에서는 공간 상태 정보에 대응되는 안전 상태로서 작업자의 현재 안전 장비 착용 상태를 예를 들어 설명하였으나, 이에 한정되는 것은 아니며, 건설 현장 또는 유지관리 대상 건축물에서 높은 확률로 발생할 수 있는 안전 사고의 발생 가능성에 대응되는 공간 상태 정보가 디스플레이 될 수 있다.In addition, in the above, as a safety state corresponding to the spatial state information, the current state of wearing safety equipment is described as an example, but the present disclosure is not limited thereto. Spatial state information corresponding to the probability of occurrence may be displayed.

일례로, 건설 현장에 승강기 설치 작업이 진행 중이고, 각 층에는 아직 승강기 도어가 설치되지 않은 경우에, 승강기 도어가 설치되지 않은 모습이 촬영된 실사영상 이미지가 획득되면, 공간 상태 정보 판별 서버(100)는, 위에서 설명한 신경망 연산 과정 등을 거쳐, FC 레이어로 하여금 추락 안전 사고 발생 가능성을 나타내는 공간 상태 정보를 출력하도록 할 수 있으며, 해당 공간 상태 정보를 사용자 단말(200)로 전송하여 줌으로써 사용자 단말(200)로 하여금 추락 안전 사고가 발생할 수 있음을 경고하는 알림창을 디스플레이하도록 지원할 수도 있다.As an example, when an elevator installation work is in progress at a construction site, and an elevator door is not yet installed on each floor, when a live-action image of the elevator door is obtained, the space state information determination server 100 ) May cause the FC layer to output spatial state information indicating the possibility of a fall safety accident, through the neural network computation process described above, and transmit the spatial state information to the user terminal 200, thereby allowing the user terminal ( 200) may be supported to display a notification window warning that a fall safety accident may occur.

한편, 컨볼루션 레이어(410) 및 제2 FC 레이어(520)는 학습 데이터가 이용되어 각각 임의의 공간 피처 맵과 임의의 공간 상태 정보를 출력하도록 학습된 상태이며, 학습용 영상 이미지 - 학습용 영상 이미지는 임의의 공간을 촬영한 영상 이미지임 - 가 획득되면, 학습 장치에 의해, (i) 학습용 영상 이미지가 컨볼루션 레이어(410)로 입력됨으로써 컨볼루션 레이어(410)로 하여금 학습용 영상 이미지가 적어도 한 번 컨볼루션 연산되도록 하여 학습용 영상 이미지에 대응되는 학습용 공간 피처 맵이 출력되도록 하고, (ii) 학습용 공간 피처 맵이 RPN(420)으로 입력되어 RPN(420)으로 하여금 학습용 공간 피처 맵 상에서 학습용 작업자가 있는 영역에 대응되는 학습용 프로포잘 박스들이 출력되도록 하며, 풀링 레이어(430)로 하여금 학습용 프로포잘 박스들에 각각 대응되는 학습용 공간 피처 맵 상의 영역들이 풀링되어 학습용 풀링된 피처 맵들이 출력되도록 하고, 학습용 풀링된 피처 맵들이 학습용 피처 벡터로 변환된 후, 학습용 피처 벡터가 FC 레이어로 입력되어 FC 레이어로 하여금 학습용 작업자가 착용한 안전 장비가 확인되도록 하여 학습용 작업자가 안전 상태에 있는지 여부가 판단되도록 한 후 안전 상태에 대응되는 학습용 공간 상태 정보가 출력되도록 하고, (iii) 로스(loss) 레이어로 하여금 학습용 공간 상태 정보와 이에 대응되는 GT(Ground Truth)가 참조되도록 하여 로스가 생성되도록 하며, 로스를 이용한 백프로퍼게이션(back propagation) 프로세스에 의해 FC 레이어 및 컨볼루션 레이어(410)의 파라미터들 중 적어도 하나의 파라미터가 학습된 상태일 수 있다.On the other hand, the convolution layer 410 and the second FC layer 520 are in a state in which training data is used and are in a state in which they are trained to output arbitrary spatial feature maps and arbitrary spatial state information, respectively. When is acquired, (i) the training video image is input to the convolution layer 410, causing the convolution layer 410 to receive the training video image at least once. Convolution operation is performed so that the learning spatial feature map corresponding to the learning image is output, and (ii) the learning spatial feature map is inputted to the RPN 420 to cause the RPN 420 to have a learning operator on the learning spatial feature map. The learning proposal boxes corresponding to the regions are output, and the pooling layer 430 causes the regions on the learning spatial feature map corresponding to the learning proposal boxes to be pooled to output the pooled feature maps for learning, and pooling for learning. After the converted feature maps are converted into learning feature vectors, the learning feature vectors are input to the FC layer, and the FC layer allows the FC layer to check the safety equipment worn by the learning worker to determine whether the learning worker is in a safe state. The spatial state information for learning corresponding to the state is output, and (iii) the loss layer is made to refer to the spatial state information for learning and the corresponding GT (Ground Truth) to generate a loss. At least one parameter among the parameters of the FC layer and the convolution layer 410 may be learned by a back propagation process.

다음으로, 건축물의 공간 내 특정 부위에 발생한 결함 또는 하자에 관한 공간 상태 정보를 출력하는 경우에 대해 다시 도 2를 참조하여 구체적인 과정을 설명한다.Next, a detailed process will be described with reference to FIG. 2 again for the case of outputting spatial state information about defects or defects occurring in a specific part of the building space.

구체적으로, 피처 추출 블록(400)은 컨볼루션 레이어(410), RPN(420), 풀링 레이어(430)를 포함하고, 공간 상태 분류 블록(500)은 FC 레이어를 포함할 때, 공간 상태 정보 판별 서버(100)는, 실사영상 이미지를 컨볼루션 레이어(410)에 입력시킴으로써 컨볼루션 레이어(410)로 하여금 실사영상 이미지를 적어도 한 번 컨볼루션 연산하도록 하여 실사영상 이미지에 대응되는 공간 피처 맵을 출력하도록 하며, 공간 피처 맵을 RPN(420)으로 입력하여 RPN(420)으로 하여금 공간 피처 맵 상에서 결함 또는 하자가 있는 것으로 판단되는 영역에 대응되는 프로포잘 박스들을 출력하도록 하며, 풀링 레이어(430)로 하여금 프로포잘 박스들에 각각 대응되는 공간 피처 맵 상의 영역들을 풀링하여 풀링된 피처 맵들에 대응되는 피처 벡터를 출력하도록 할 수 있다.Specifically, when the feature extraction block 400 includes a convolution layer 410, an RPN 420, and a pooling layer 430, and the spatial state classification block 500 includes an FC layer, spatial state information is determined The server 100 outputs a spatial feature map corresponding to the real image image by inputting the real image image to the convolution layer 410 so that the convolution layer 410 performs a convolution operation on the real image image at least once. The spatial feature map is inputted to the RPN 420 so that the RPN 420 outputs proposal boxes corresponding to the region determined to have a defect or defect on the spatial feature map, and the pooling layer 430 By pooling regions on a spatial feature map corresponding to each of the proposal boxes, it is possible to output a feature vector corresponding to the pooled feature maps.

그리고 공간 상태 정보 판별 서버(100)는, 피처 벡터를 FC 레이어로 입력하여 FC 레이어로 하여금 공간에 결함 또는 하자가 실제로 존재하는지 여부를 판단하도록 하고, 결함 또는 하자가 실제로 존재하는 경우, 결함 또는 하자의 종류를 분류하도록 한 후 결함 또는 하자의 종류에 대응되는 공간 상태 정보를 출력하도록 할 수 있다.In addition, the spatial state information determination server 100 inputs the feature vector to the FC layer to allow the FC layer to determine whether a defect or defect actually exists in the space, and when the defect or defect actually exists, the defect or defect After classifying the types of defects, spatial state information corresponding to the types of defects or defects may be output.

일례로, 유지관리 대상 건축물내 특정 공간의 천장에 누수 하자가 발생한 모습을 담은 실사영상 이미지가 획득되는 경우에 대해 설명하기로 한다. As an example, a description will be given of a case in which a live-action image image containing a leak defect occurred on the ceiling of a specific space in a building to be maintained is acquired.

이때, 공간 상태 정보 판별 서버(100)는, 해당 실사영상 이미지를 분석함으로써 실제로 결함 또는 하자가 존재하는지 여부를 판단하고 결함 또는 하자의 종류만이 사용자 단말(200)을 통해 디스플레이되도록 할 수 있다. 그러나, 이에 한정되는 것은 아니며, 결함 또는 하자의 발생 위치도 결함 또는 하자의 종류와 함께 디스플레이되도록 할 수 있다.In this case, the spatial state information determination server 100 may determine whether a defect or defect actually exists by analyzing the corresponding real-life image image, and display only the type of the defect or defect through the user terminal 200. However, the present invention is not limited thereto, and the location of the defect or defect may be displayed together with the type of the defect or defect.

즉, 공간 상태 정보 판별 서버(100)가, 누수 하자가 발생한 모습을 담은 실사영상 이미지를 위에서 설명한 이미지 프로세싱 과정을 통해 분석하여 클래시피케이션 스코어들 및 리그레션 정보를 산출하도록 할 수 있다. 그리고, 클래시피케이션 스코어들이 참조되어 하자의 종류가 누수 하자인 것으로 결정되고, 리그레션 정보가 참조되어 실사영상 이미지 상에서의 누수 하자 발생 위치가 결정되어 누수 하자에 대응되는 공간 상태 정보가 출력되고, 누수 하자에 대응되는 공간 상태 정보가 사용자 단말(200)로 전송되면, 도 5에서 도시하는 바와 같이, 공간 상태 정보 판별 서버(100)가, 실사 영상 이미지 상에서 관찰되는 하자의 종류는 누수 하자이며 하자의 발생 위치는 이미지 상의 소정의 위치에 해당하는 것으로 사용자 단말(200)에 디스플레이되도록 지원할 수 있다.That is, the spatial state information determination server 100 may analyze a real-life image containing a leak defect through the image processing process described above to calculate the classification scores and regression information. Then, the classification score is referenced to determine that the type of the defect is a leak defect, and the regression information is referred to determine the location of the leak defect in the live image, and spatial state information corresponding to the leak defect is output, When the spatial state information corresponding to the leak defect is transmitted to the user terminal 200, as shown in FIG. 5, the spatial state information determination server 100, the type of the defect observed on the live image is a leak defect. The occurrence location of is corresponding to a predetermined location on the image and may be supported to be displayed on the user terminal 200.

한편, 공간 상태 정보 판별 서버(100)는, 특정 공종에 관한 정보 및 작업자의 안전 장비 착용 상태 정보를 참조하여, 현재 작업자가 특정 공종에 부합하는 안전 장비를 착용하였는지 여부를 판단할 수 있다.Meanwhile, the spatial state information determination server 100 may determine whether or not the current worker wears safety equipment corresponding to the specific work type by referring to information on a specific work type and safety equipment wearing state information of the worker.

즉, 피처 추출 블록(400)은 컨볼루션 레이어(410), RPN(420), 풀링 레이어(430)를 포함하고, 상기 공간 상태 분류 블록(500)은 제1 FC 레이어(510) 및 제2 FC 레이어(520)를 포함할 때, 공간 상태 정보 판별 서버(100)는, 실사영상 이미지를 컨볼루션 레이어(410)에 입력시킴으로써 컨볼루션 레이어(410)로 하여금 실사영상 이미지를 적어도 한 번 컨볼루션 연산하도록 하여 실사영상 이미지에 대응되는 공간 피처 맵을 출력하도록 하며, 공간 피처 맵을 RPN(420)으로 입력하여 RPN(420)으로 하여금 공간 피처 맵 상에서 작업자가 있는 영역에 대응되는 프로포잘 박스들을 출력하도록 하며, 풀링 레이어(430)로 하여금 프로포잘 박스들에 각각 대응되는 공간 피처 맵 상의 영역들을 풀링하여 풀링된 피처 맵들에 대응되는 제1 피처 벡터를 출력하도록 할 수 있다.That is, the feature extraction block 400 includes a convolutional layer 410, an RPN 420, and a pooling layer 430, and the spatial state classification block 500 includes a first FC layer 510 and a second FC layer. When including the layer 520, the spatial state information determination server 100, by inputting the real image image into the convolution layer 410, the convolutional layer 410 performs a convolution operation of the real image image at least once So that the spatial feature map corresponding to the real-life image is output, and the spatial feature map is input to the RPN 420 so that the RPN 420 outputs the proposal boxes corresponding to the area where the operator is located on the spatial feature map. In addition, the pooling layer 430 may pool regions on a spatial feature map corresponding to each of the proposal boxes to output a first feature vector corresponding to the pooled feature maps.

그리고, 공간 상태 정보 판별 서버(100)는, (i) 컨볼루션 레이어(410)로부터 출력되는 공간 피처 맵에 대응되는 제2 피처 벡터를 제1 FC 레이어(510)로 입력하여 제1 FC 레이어(510)로 하여금 제2 피처 벡터를 신경망 연산하도록 함으로써, 기설정된 공종 클래스들 중 실사영상 이미지 상에서의 건축물의 공간에 대응되는 특정 공종 클래스를 판별하도록 한 후, 특정 공종 클래스에 대응되는 특정 공종 정보를 출력하도록 하며, (ii) 제1 피처 벡터를 제2 FC 레이어(520)로 입력하여 제2 FC 레이어(520)로 하여금 작업자가 착용한 안전 장비를 확인하여 특정 안전 장비 착용 상태 정보를 출력하도록 하며, (iii) 제1 FC 레이어(510)로부터 출력된 특정 공종 정보에 대응되어 설정된 기준 안전 장비 착용 상태 정보와 제2 FC 레이어(520)로부터 출력된 특정 안전 장비 착용 상태 정보를 참조하여 작업자가 특정 공종 정보에 대응되는 안전 장비를 착용하였는지를 나타내는 작업자 안전 상태 정보를 생성하고, 작업자 안전 상태 정보를 사용자 단말(200)로 전송하여 줌으로써 사용자 단말(200)로 하여금 작업자 안전 상태 정보를 디스플레이하도록 지원할 수 있다.Then, the spatial state information determination server 100, (i) inputs the second feature vector corresponding to the spatial feature map output from the convolution layer 410 to the first FC layer 510 to the first FC layer ( 510) to determine a specific construction class corresponding to the space of the building in the real-life image among preset construction classes by performing a neural network operation on the second feature vector, and then determine specific construction type information corresponding to the specific construction type class. And (ii) inputting the first feature vector to the second FC layer 520 to cause the second FC layer 520 to check the safety equipment worn by the worker and output specific safety equipment wearing state information. , (iii) The operator is specified by referring to the standard safety equipment wearing state information set in response to the specific work type information output from the first FC layer 510 and the specific safety equipment wearing state information output from the second FC layer 520. It is possible to support the user terminal 200 to display the worker safety status information by generating worker safety status information indicating whether safety equipment corresponding to the work type information is worn, and transmitting the worker safety status information to the user terminal 200. .

일례로, 건축물의 바닥에 에폭시를 시공하기 위해서는 작업자들이 방독 마스크를 착용해야 하는 것으로 기준 안전 장비 착용 상태 정보가 설정될 수 있다.For example, in order to install epoxy on the floor of a building, workers must wear a gas mask, and information on the wearing state of standard safety equipment may be set.

위와 같은 상황에서, 에폭시를 시공하는 작업자들이 방독 마스크를 착용하지 않은 모습이 촬영된 실사영상 이미지가 획득되면, 공간 상태 정보 판별 서버(100)는, 상술한 이미지 분석 프로세싱을 수행함으로써, (i) 에폭시 시공 작업에 대응되는 특정 공종 정보 및 작업자들이 현재 안전 장비를 착용한 상태를 나타내는 특정 안전 장비 착용 상태 정보가 출력되도록 하고, (ii) 특정 공종 정보를 참조하여 에폭시 시공 작업에 대응되어 설정된 기준 안전 장비 착용 상태 정보를 확인하고, (iii) 기준 안전 장비 착용 상태 정보와 특정 안전 장비 착용 상태 정보를 비교하여 해당 작업자들이 방독 마스크를 착용하고 있지 않음을 나타내는 작업자 안전 상태 정보를 생성할 수 있다.In the above situation, when a photorealistic image of the workers installing the epoxy without wearing a gas mask is acquired, the spatial state information determination server 100 performs the above-described image analysis processing, (i) Specific construction type information corresponding to the epoxy construction work and specific safety equipment wearing status information indicating the state of workers currently wearing safety equipment are output, and (ii) the standard safety set in response to the epoxy construction work by referring to the specific construction type information It is possible to check the equipment wearing state information, and (iii) compare the standard safety equipment wearing state information with the specific safety equipment wearing state information to generate worker safety state information indicating that the corresponding workers are not wearing gas masks.

이에 따라, 작업자들의 안전 장비 착용 상태를 일률적으로 판단하지 않고, 특정 공종별로 안전 장비 착용 상태를 판단할 수 있게 된다.Accordingly, it is possible to determine the state of wearing the safety equipment for each specific type of work without uniformly determining the state of wearing the safety equipment of workers.

여기서, 컨볼루션 레이어(410), 제1 FC 레이어(510) 및 제2 FC 레이어(520)는 학습 데이터가 이용되어 각각 임의의 공간 피처 맵과 임의의 공간 상태 정보를 출력하도록 학습된 상태이며, 학습용 영상 이미지 - 학습용 영상 이미지는 임의의 공간을 촬영한 영상 이미지임 - 가 획득되면, 학습 장치에 의해, (i) 학습용 영상 이미지가 컨볼루션 레이어(410)로 입력됨으로써 컨볼루션 레이어(410)로 하여금 학습용 영상 이미지가 적어도 한 번 컨볼루션 연산되도록 하여 학습용 영상 이미지에 대응되는 학습용 공간 피처 맵이 출력되도록 하고, 학습용 공간 피처 맵이 RPN(420)으로 입력되어 RPN(420)으로 하여금 학습용 공간 피처 맵 상에서 학습용 작업자가 있는 영역에 대응되는 학습용 프로포잘 박스들이 출력되도록 하며, 풀링 레이어(430)로 하여금 학습용 프로포잘 박스들에 각각 대응되는 학습용 공간 피처 맵 상의 영역들이 풀링되어 학습용 풀링된 피처 맵들에 대응되는 학습용 제1 피처 벡터가 출력되도록 하고 (ii-1) 컨볼루션 레이어(410)로부터 출력되는 학습용 공간 피처맵에 대응되는 학습용 제2 피처 벡터가 제1 FC 레이어(510)로 입력되어 제1 FC 레이어(510)로 하여금 학습용 제2 피처 벡터가 신경망 연산되도록 함으로써, 기설정된 공종 클래스들 중 학습용 영상 이미지 상에서의 건축물의 공간에 대응되는 특정 공종 클래스가 판별되도록 한 후, 특정 공종 클래스에 대응되는 학습용 특정 공종 정보가 출력되도록 하며, (ii-2) 학습용 제1 피처 벡터가 제2 FC 레이어(520)로 입력되어 제2 FC 레이어(520)로 하여금 학습용 작업자가 착용한 안전 장비가 확인되도록 하여 학습용 특정 안전 장비 착용 상태 정보가 출력되도록 하고, (iii-1) 로스(loss) 레이어로 하여금 학습용 특정 공종 정보와 이에 대응되는 제1 GT(Ground Truth)가 참조되도록 하여 제1 로스가 생성되도록 하며, (iii-2) 로스(loss) 레이어로 하여금 학습용 특정 안전 장비 착용 상태 정보와 이에 대응되는 제2 GT(Ground Truth)가 참조되도록 하여 제2 로스가 생성되도록 하며, 제1 로스 및 제2 로스를 이용한 백프로퍼게이션(back propagation) 프로세스에 의해 제1 FC 레이어(510), 제2 FC 레이어(520) 및 컨볼루션 레이어(410)의 파라미터들 중 적어도 하나의 파라미터가 학습된 상태일 수 있다.Here, the convolutional layer 410, the first FC layer 510, and the second FC layer 520 are in a state in which training data is used to output an arbitrary spatial feature map and arbitrary spatial state information, respectively, The training video image-The training video image is a video image photographed in an arbitrary space-When is acquired, by the learning device, (i) the training video image is inputted to the convolution layer 410 to be converted to the convolution layer 410. The training video image is subjected to a convolution operation at least once so that a training spatial feature map corresponding to the training video image is output, and the training spatial feature map is input to the RPN 420 to allow the RPN 420 to perform a training spatial feature map. The learning proposal boxes corresponding to the region where the learning worker is located are output, and the areas on the learning spatial feature map corresponding to the learning proposal boxes are pooled by the pooling layer 430 to correspond to the pooled feature maps for learning. (Ii-1) The second feature vector for learning corresponding to the learning spatial feature map output from the convolution layer 410 is inputted to the first FC layer 510 and the first FC By allowing the layer 510 to calculate the second feature vector for learning, a neural network is used to determine a specific construction class corresponding to the space of the building on the learning image among preset construction classes, and then for learning corresponding to the specific construction class. Specific construction type information is output, and (ii-2) the first feature vector for learning is input to the second FC layer 520 to allow the second FC layer 520 to check the safety equipment worn by the learning worker for learning. (Iii-1) The first loss is generated by allowing the specific safety equipment wearing state information to be output, and (iii-1) the loss layer to refer to the specific work type information for learning and the corresponding first GT (Ground Truth), (iii-2) To the loss layer The second loss is generated by referring to the training specific safety equipment wearing state information and the corresponding second GT (Ground Truth), and by a back propagation process using the first loss and the second loss. At least one of parameters of the first FC layer 510, the second FC layer 520, and the convolution layer 410 may be in a learned state.

한편, 도 3 내지 도 5의 상단부에 도시된 바와 같이, 사용자 단말(200)이 위치하는 특정 공간 정보가 추가적으로 디스플레이될 수도 있다. Meanwhile, as shown in the upper part of FIGS. 3 to 5, specific spatial information in which the user terminal 200 is located may be additionally displayed.

즉, 건축물의 동, 호, 층 및 실 중 적어도 하나에 의하여 특정되는 건축물 내 개별 공간들에 관한 정보인 공간 정보들이 획득된 상태에서, 공간 상태 정보 판별 서버(100)가, 사용자 단말(200)이 위치하고 있는 위치 정보를 참조하여 공간 정보들 중, 사용자 단말(200)이 위치하는 특정 공간 정보를 확인하고, 특정 공간 정보를 사용자 단말(200)로 전송하여, 사용자 단말(200)로 하여금 공종, 안전 상태, 결함 또는 하자 등에 관한 공간 상태 정보뿐만 아니라 특정 공간 정보도 함께 디스플레이하도록 지원할 수 있다. 이를 통해, 복잡한 구조의 건축물이라고 하더라도, 특정 공종, 특정 작업자, 특정 결함 또는 하자 등이 어디에 위치하는지를 정확히 파악할 수 있게 된다.That is, in a state in which spatial information, which is information about individual spaces within the building specified by at least one of the building's building, building, floor, and room, is acquired, the spatial state information determination server 100 Among the spatial information, specific spatial information in which the user terminal 200 is located is checked with reference to the location information in which the user terminal 200 is located, and specific spatial information is transmitted to the user terminal 200 to cause the user terminal 200 It can support to display not only spatial state information about safety states, defects or defects, but also specific spatial information. Through this, even if it is a building with a complex structure, it is possible to accurately grasp where a specific type of construction, a specific worker, a specific defect or defect is located.

한편, 공간 상태 정보 판별 서버(100)가, 공간 상태 정보를 타 사용자 단말(300)에 전송하여 줌으로써 타 사용자 단말(300)로 하여금 공간 상태 정보를 디스플레이하도록 지원할 수 있다.Meanwhile, the spatial state information determination server 100 may support the other user terminal 300 to display the spatial state information by transmitting the spatial state information to the other user terminal 300.

여기서, 타 사용자란, 건설 현장이나 유지관리 대상 건축물에서 작업하는 작업자 외에도 작업자에 대해 일련의 작업을 지시하는 지시자, 감리자 등을 포함할 수 있다.Here, the other user may include an indicator, a supervisor, etc., instructing a series of work to a worker in addition to a worker who works on a construction site or a building to be maintained.

그리고, 공간 상태 정보 판별 서버(100)는, 공간 상태 정보뿐만 아니라 실사영상 이미지도 타 사용자 단말(300)로 전송할 수 있으며, 타 사용자 단말(300)로부터 실사영상 이미지의 임의의 영역 중 특정 영역에 대한 지시 정보가 획득되면, 지시 정보를 사용자 단말(200)로 전송하여 줌으로써 사용자 단말(200)로 하여금 지시 정보에 대응되는 마크업을 렌더링하도록 하고, 마크업을 실사영상 이미지의 특정 영역에 디스플레이하도록 지원할 수 있다.In addition, the spatial state information determination server 100 may transmit not only the spatial state information, but also the live image image to the other user terminal 300, and from the other user terminal 300 to a specific region of the live image image. When the instruction information is obtained, the instruction information is transmitted to the user terminal 200 so that the user terminal 200 renders the markup corresponding to the instruction information, and displays the markup in a specific area of the live image. You can apply.

이처럼, 마크업 디스플레이를 통해, 결함 또는 하자가 발생한 부적합한 시공 상태에 대한 보완 작업 이행 지시, 공종별 작업 순서에 관한 지시 등이 이루어질 수 있다.In this way, through the markup display, an instruction to perform a supplementary work for an inappropriate construction state in which a defect or defect has occurred, and an instruction on the work order for each type of work can be made.

또한, 이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Further, the embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic-optical media such as floptical disks. media), and a hardware device specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the present invention, and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described by specific matters such as specific elements and limited embodiments and drawings, but this is provided only to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , Anyone with ordinary knowledge in the technical field to which the present invention pertains can make various modifications and variations from these descriptions.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention is limited to the above-described embodiments and should not be defined, and all modifications that are equally or equivalent to the claims as well as the claims to be described later fall within the scope of the spirit of the present invention. I would say.

Claims (20)

머신러닝에 기반하여 건축물의 공간 상태 정보를 판별하는 방법에 있어서,
(a) 사용자 단말로부터 건축물의 공간을 나타내는 실사영상 이미지가 획득되면, 공간 상태 정보 판별 서버가, 상기 실사영상 이미지를 피처 추출 블록에 입력시킴으로써 상기 피처 추출 블록으로 하여금 상기 실사영상 이미지를 분석하여 상기 실사영상 이미지 상의 피처를 추출하여 피처 벡터를 출력하도록 하는 단계; 및
(b) 상기 공간 상태 정보 판별 서버가, 상기 피처 벡터를 공간 상태 분류 블록으로 입력하여 상기 공간 상태 분류 블록으로 하여금 상기 피처 벡터를 신경망 연산하도록 하여 상기 실사영상 이미지 상에서의 상기 건축물의 공간 상태 정보를 출력하도록 하며, 상기 공간 상태 정보를 상기 사용자 단말로 전송하여 줌으로써 상기 사용자 단말로 하여금 상기 공간 상태 정보를 디스플레이하도록 지원하는 단계;
를 포함하되,
상기 피처 추출 블록은 컨볼루션 레이어, RPN, 풀링 레이어를 포함하고,
상기 공간 상태 분류 블록은 제1 FC 레이어 및 제2 FC 레이어를 포함하며,
상기 (a) 단계에서,
상기 공간 상태 정보 판별 서버는, 상기 실사영상 이미지를 상기 컨볼루션 레이어에 입력시킴으로써 상기 컨볼루션 레이어로 하여금 상기 실사영상 이미지를 적어도 한 번 컨볼루션 연산하도록 하여 상기 실사영상 이미지에 대응되는 공간 피처 맵을 출력하도록 하며, 상기 공간 피처 맵을 상기 RPN으로 입력하여 상기 RPN으로 하여금 상기 공간 피처 맵 상에서 작업자가 있는 영역에 대응되는 프로포잘 박스들을 출력하도록 하며, 상기 풀링 레이어로 하여금 상기 프로포잘 박스들에 각각 대응되는 상기 공간 피처 맵 상의 영역들을 풀링하여 풀링된 피처 맵들에 대응되는 제1 피처 벡터를 출력하도록 하고,
상기 (b) 단계에서,
상기 공간 상태 정보 판별 서버는, (i) 상기 컨볼루션 레이어로부터 출력되는 상기 공간 피처 맵에 대응되는 제2 피처 벡터를 제1 FC 레이어로 입력하여 상기 제1 FC 레이어로 하여금 상기 제2 피처 벡터를 신경망 연산하도록 함으로써, 기설정된 공종 클래스들 중 상기 실사영상 이미지 상에서의 상기 건축물의 상기 공간에 대응되는 특정 공종 클래스를 판별하도록 한 후, 상기 특정 공종 클래스에 대응되는 특정 공종 정보를 출력하도록 하며, (ii) 상기 제1 피처 벡터를 상기 제2 FC 레이어로 입력하여 상기 제2 FC 레이어로 하여금 상기 작업자가 착용한 안전 장비를 확인하여 특정 안전 장비 착용 상태 정보를 출력하도록 하며, (iii) 상기 제1 FC 레이어로부터 출력된 상기 특정 공종 정보에 대응되어 설정된 기준 안전 장비 착용 상태 정보와 상기 제2 FC 레이어로부터 출력된 상기 특정 안전 장비 착용 상태 정보를 참조하여 상기 작업자가 상기 특정 공종 정보에 대응되는 안전 장비를 착용하였는지를 나타내는 작업자 안전 상태 정보를 생성하고, 상기 작업자 안전 상태 정보를 상기 사용자 단말로 전송하여 줌으로써 상기 사용자 단말로 하여금 상기 작업자 안전 상태 정보를 디스플레이하도록 지원하는 것을 특징으로 하는 방법.
In a method of determining spatial state information of a building based on machine learning,
(a) When a real-life image representing the space of the building is acquired from the user terminal, the spatial state information determination server inputs the real-life image to the feature extraction block, causing the feature extraction block to analyze the real-life image and Extracting a feature on the real-life image and outputting a feature vector; And
(b) The spatial state information determination server inputs the feature vector as a spatial state classification block, and causes the spatial state classification block to calculate the feature vector by a neural network, so that the spatial state information of the building on the real-life image Outputting and transmitting the spatial state information to the user terminal to enable the user terminal to display the spatial state information;
Including,
The feature extraction block includes a convolution layer, an RPN, and a pooling layer,
The spatial state classification block includes a first FC layer and a second FC layer,
In step (a),
The spatial state information determination server generates a spatial feature map corresponding to the real image image by inputting the real image image to the convolution layer to cause the convolution layer to convolve the real image image at least once. Output, and input the spatial feature map to the RPN so that the RPN outputs proposal boxes corresponding to the area where the worker is on the spatial feature map, and causes the pooling layer to each of the proposal boxes The corresponding regions on the spatial feature map are pooled to output a first feature vector corresponding to the pooled feature maps,
In step (b),
The spatial state information determination server (i) inputs a second feature vector corresponding to the spatial feature map output from the convolutional layer to a first FC layer, and causes the first FC layer to generate the second feature vector. By performing a neural network operation, after determining a specific construction class corresponding to the space of the building on the real-life image among preset construction classes, the specific construction type information corresponding to the specific construction class is output, and ( ii) by inputting the first feature vector to the second FC layer, causing the second FC layer to check the safety equipment worn by the worker and output specific safety equipment wearing state information, (iii) the first Safety equipment in which the worker corresponds to the specific work type information by referring to reference safety equipment wearing state information set in response to the specific work type information output from the FC layer and the specific safety equipment wearing state information output from the second FC layer. And generating worker safety status information indicating whether or not the worker is wearing, and transmitting the worker safety status information to the user terminal, thereby supporting the user terminal to display the worker safety status information.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 컨볼루션 레이어, 상기 제1 FC 레이어 및 상기 제2 FC 레이어는 학습 데이터가 이용되어 각각 임의의 공간 피처 맵과 임의의 공간 상태 정보를 출력하도록 학습된 상태이며,
학습용 영상 이미지 - 상기 학습용 영상 이미지는 임의의 공간을 촬영한 영상 이미지임 - 가 획득되면, 학습 장치에 의해, (i) 상기 학습용 영상 이미지가 상기 컨볼루션 레이어로 입력됨으로써 상기 컨볼루션 레이어로 하여금 상기 학습용 영상 이미지가 적어도 한 번 컨볼루션 연산되도록 하여 상기 학습용 영상 이미지에 대응되는 학습용 공간 피처 맵이 출력되도록 하고, 상기 학습용 공간 피처 맵이 상기 RPN으로 입력되어 상기 RPN으로 하여금 상기 학습용 공간 피처 맵 상에서 학습용 작업자가 있는 영역에 대응되는 학습용 프로포잘 박스들이 출력되도록 하며, 상기 풀링 레이어로 하여금 상기 학습용 프로포잘 박스들에 각각 대응되는 상기 학습용 공간 피처 맵 상의 영역들이 풀링되어 학습용 풀링된 피처 맵들에 대응되는 학습용 제1 피처 벡터가 출력되도록 하고 (ii-1) 상기 컨볼루션 레이어로부터 출력되는 상기 학습용 공간 피처맵에 대응되는 학습용 제2 피처 벡터가 상기 제1 FC 레이어로 입력되어 상기 제1 FC 레이어로 하여금 상기 학습용 제2 피처 벡터가 신경망 연산되도록 함으로써, 기설정된 공종 클래스들 중 상기 학습용 영상 이미지 상에서의 상기 건축물의 상기 공간에 대응되는 특정 공종 클래스가 판별되도록 한 후, 상기 특정 공종 클래스에 대응되는 학습용 특정 공종 정보가 출력되도록 하며, (ii-2) 상기 학습용 제1 피처 벡터가 상기 제2 FC 레이어로 입력되어 상기 제2 FC 레이어로 하여금 상기 학습용 작업자가 착용한 안전 장비가 확인되도록 하여 학습용 특정 안전 장비 착용 상태 정보가 출력되도록 하고, (iii-1) 로스(loss) 레이어로 하여금 상기 학습용 특정 공종 정보와 이에 대응되는 제1 GT(Ground Truth)가 참조되도록 하여 제1 로스가 생성되도록 하며, (iii-2) 상기 로스(loss) 레이어로 하여금 상기 학습용 특정 안전 장비 착용 상태 정보와 이에 대응되는 제2 GT(Ground Truth)가 참조되도록 하여 제2 로스가 생성되도록 하며, 상기 제1 로스 및 상기 제2 로스를 이용한 백프로퍼게이션(back propagation) 프로세스에 의해 상기 제1 FC 레이어, 상기 제2 FC 레이어 및 상기 컨볼루션 레이어의 파라미터들 중 적어도 하나의 파라미터가 학습된 상태인 것을 특징으로 하는 방법.
The method of claim 1,
The convolutional layer, the first FC layer, and the second FC layer are in a state in which training data is used to output an arbitrary spatial feature map and arbitrary spatial state information, respectively,
When the training video image-the training video image is a video image photographed in an arbitrary space-is obtained, by the learning device, (i) the training video image is input to the convolution layer, causing the convolution layer The training video image is subjected to a convolution operation at least once so that a training spatial feature map corresponding to the training video image is output, and the training spatial feature map is input to the RPN to cause the RPN to learn on the training spatial feature map. The learning proposal boxes corresponding to the area where the operator is located are output, and the pooling layer causes the areas on the learning spatial feature map corresponding to the learning proposal boxes to be pooled to be used for learning corresponding to the pooled feature maps for learning. A first feature vector is output, and (ii-1) a second learning feature vector corresponding to the learning spatial feature map output from the convolution layer is input to the first FC layer, and the first FC layer causes the By allowing the second feature vector for learning to be computed with a neural network, a specific construction class corresponding to the space of the building on the learning image is determined among preset construction classes, and then a specific construction type for learning corresponding to the specific construction class. Information is output, and (ii-2) the first feature vector for learning is input to the second FC layer so that the second FC layer confirms the safety equipment worn by the learning worker to wear specific safety equipment for learning. The state information is output, (iii-1) the loss layer is made to refer to the specific work type information for learning and the first GT (Ground Truth) corresponding thereto to generate a first loss, and (iii- 2) A second loss is generated by allowing the loss layer to refer to the training specific safety equipment wearing state information and a corresponding second GT (Ground Truth). At least one of the parameters of the first FC layer, the second FC layer, and the convolution layer is learned by a back propagation process using the first loss and the second loss. Method, characterized in that in the state.
제1항에 있어서,
상기 건축물의 동, 호, 층 및 실 중 적어도 하나에 의하여 특정되는 상기 건축물 내 개별 공간들에 관한 정보인 공간 정보들이 획득된 상태에서,
상기 (b) 단계에서,
상기 공간 상태 정보 판별 서버가, 상기 사용자 단말이 위치하고 있는 위치 정보를 참조하여 상기 공간 정보들 중, 상기 사용자 단말이 위치하는 특정 공간 정보를 확인하고, 상기 특정 공간 정보를 상기 사용자 단말로 전송하여, 상기 사용자 단말로 하여금 상기 공간 상태 정보 및 상기 특정 공간 정보를 디스플레이하도록 지원하는 것을 특징으로 하는 방법.
The method of claim 1,
In a state in which spatial information, which is information about individual spaces within the building specified by at least one of the building's wing, arc, floor, and room, is obtained,
In step (b),
The spatial state information determination server checks the specific spatial information in which the user terminal is located among the spatial information by referring to the location information in which the user terminal is located, and transmits the specific spatial information to the user terminal, And supporting the user terminal to display the spatial state information and the specific spatial information.
제1항에 있어서,
상기 (b) 단계에서,
상기 공간 상태 정보 판별 서버가, 상기 공간 상태 정보를 타 사용자 단말에 전송하여 줌으로써 상기 타 사용자 단말로 하여금 상기 공간 상태 정보를 디스플레이하도록 지원하는 것을 특징으로 하는 방법.
The method of claim 1,
In step (b),
And the spatial state information determination server transmits the spatial state information to another user terminal to support the other user terminal to display the spatial state information.
제9항에 있어서,
상기 (b) 단계에서,
상기 공간 상태 정보 판별 서버가, 상기 공간 상태 정보 및 상기 실사영상 이미지를 상기 타 사용자 단말로 전송하고,
(c) 상기 타 사용자 단말로부터 상기 실사영상 이미지의 임의의 영역 중 특정 영역에 대한 지시 정보가 획득되면, 상기 공간 상태 정보 판별 서버가, 상기 지시 정보를 상기 사용자 단말로 전송하여 줌으로써 상기 사용자 단말로 하여금 상기 지시 정보에 대응되는 마크업을 렌더링하도록 하고, 상기 마크업을 상기 실사영상 이미지의 상기 특정 영역에 디스플레이하도록 지원하는 단계;
를 더 포함하는 것을 특징으로 하는 방법.
The method of claim 9,
In step (b),
The spatial state information determination server transmits the spatial state information and the live-action image image to the other user terminal,
(c) When instruction information for a specific region among a certain region of the live-action image is obtained from the other user terminal, the spatial state information determination server transmits the instruction information to the user terminal to the user terminal. Rendering the markup corresponding to the indication information and supporting the markup to be displayed in the specific area of the real-life image;
The method further comprising a.
머신러닝에 기반하여 건축물의 공간 상태 정보를 판별하는 공간 상태 정보 판별 서버에 있어서,
인스트럭션들을 저장하는 적어도 하나의 메모리; 및
상기 인스트럭션들을 실행하기 위해 구성된 적어도 하나의 프로세서를 포함하되,
상기 프로세서는, (1) 사용자 단말로부터 건축물의 공간을 나타내는 실사영상 이미지가 획득되면, 상기 실사영상 이미지를 피처 추출 블록에 입력시킴으로써 상기 피처 추출 블록으로 하여금 상기 실사영상 이미지를 분석하여 상기 실사영상 이미지 상의 피처를 추출하여 피처 벡터를 출력하도록 하는 프로세스; 및 (2) 상기 피처 벡터를 공간 상태 분류 블록으로 입력하여 상기 공간 상태 분류 블록으로 하여금 상기 피처 벡터를 신경망 연산하도록 하여 상기 실사영상 이미지 상에서의 상기 건축물의 공간 상태 정보를 출력하도록 하며, 상기 공간 상태 정보를 상기 사용자 단말로 전송하여 줌으로써 상기 사용자 단말로 하여금 상기 공간 상태 정보를 디스플레이하도록 지원하는 프로세스를 수행하는 상기 인스트럭션들을 실행하되,
상기 피처 추출 블록은 컨볼루션 레이어, RPN, 풀링 레이어를 포함하고,
상기 공간 상태 분류 블록은 제1 FC 레이어 및 제2 FC 레이어를 포함하며,
상기 프로세서는,
상기 (1) 프로세스에서,
상기 실사영상 이미지를 상기 컨볼루션 레이어에 입력시킴으로써 상기 컨볼루션 레이어로 하여금 상기 실사영상 이미지를 적어도 한 번 컨볼루션 연산하도록 하여 상기 실사영상 이미지에 대응되는 공간 피처 맵을 출력하도록 하며, 상기 공간 피처 맵을 상기 RPN으로 입력하여 상기 RPN으로 하여금 상기 공간 피처 맵 상에서 작업자가 있는 영역에 대응되는 프로포잘 박스들을 출력하도록 하며, 상기 풀링 레이어로 하여금 상기 프로포잘 박스들에 각각 대응되는 상기 공간 피처 맵 상의 영역들을 풀링하여 풀링된 피처 맵들에 대응되는 제1 피처 벡터를 출력하도록 하고,
상기 (2) 프로세스에서,
(i) 상기 컨볼루션 레이어로부터 출력되는 상기 공간 피처 맵에 대응되는 제2 피처 벡터를 제1 FC 레이어로 입력하여 상기 제1 FC 레이어로 하여금 상기 제2 피처 벡터를 신경망 연산하도록 함으로써, 기설정된 공종 클래스들 중 상기 실사영상 이미지 상에서의 상기 건축물의 상기 공간에 대응되는 특정 공종 클래스를 판별하도록 한 후, 상기 특정 공종 클래스에 대응되는 특정 공종 정보를 출력하도록 하며, (ii) 상기 제1 피처 벡터를 상기 제2 FC 레이어로 입력하여 상기 제2 FC 레이어로 하여금 상기 작업자가 착용한 안전 장비를 확인하여 특정 안전 장비 착용 상태 정보를 출력하도록 하며, (iii) 상기 제1 FC 레이어로부터 출력된 상기 특정 공종 정보에 대응되어 설정된 기준 안전 장비 착용 상태 정보와 상기 제2 FC 레이어로부터 출력된 상기 특정 안전 장비 착용 상태 정보를 참조하여 상기 작업자가 상기 특정 공종 정보에 대응되는 안전 장비를 착용하였는지를 나타내는 작업자 안전 상태 정보를 생성하고, 상기 작업자 안전 상태 정보를 상기 사용자 단말로 전송하여 줌으로써 상기 사용자 단말로 하여금 상기 작업자 안전 상태 정보를 디스플레이하도록 지원하는 것을 특징으로 하는 공간 상태 정보 판별 서버.
In a spatial state information determination server that determines spatial state information of a building based on machine learning,
At least one memory for storing instructions; And
Comprising at least one processor configured to execute the instructions,
The processor includes: (1) When a real-life image representing a space of a building is obtained from a user terminal, the feature extraction block analyzes the real-life image by inputting the real-life image into a feature extraction block, A process of extracting a feature on the image and outputting a feature vector; And (2) inputting the feature vector as a spatial state classification block to cause the spatial state classification block to calculate the feature vector with a neural network to output spatial state information of the building on the real-life image, and the spatial state Executing the instructions for performing a process of supporting the user terminal to display the spatial state information by transmitting information to the user terminal,
The feature extraction block includes a convolution layer, an RPN, and a pooling layer,
The spatial state classification block includes a first FC layer and a second FC layer,
The processor,
In the above (1) process,
By inputting the real-life image image to the convolution layer, the convolutional layer causes the real-life image to be convolved at least once to output a spatial feature map corresponding to the real-life image, and the spatial feature map Input into the RPN to cause the RPN to output proposal boxes corresponding to an area in which a worker is located on the spatial feature map, and to cause the pooling layer to output an area on the spatial feature map corresponding to each of the proposal boxes. Are pooled to output a first feature vector corresponding to the pooled feature maps,
In the above (2) process,
(i) By inputting a second feature vector corresponding to the spatial feature map output from the convolutional layer into a first FC layer, and causing the first FC layer to calculate the second feature vector, a neural network is performed, Among the classes, a specific construction class corresponding to the space of the building on the real-life image is determined, and then specific construction type information corresponding to the specific construction class is output, and (ii) the first feature vector is By inputting to the second FC layer, the second FC layer checks the safety equipment worn by the worker and outputs specific safety equipment wearing state information, and (iii) the specific construction type output from the first FC layer. Worker safety status information indicating whether the worker has worn safety equipment corresponding to the specific work type information by referring to reference safety equipment wearing status information set in response to the information and the specific safety equipment wearing status information output from the second FC layer And, by transmitting the worker safety status information to the user terminal, the user terminal supports the display of the worker safety status information.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제11항에 있어서,
상기 컨볼루션 레이어, 상기 제1 FC 레이어 및 상기 제2 FC 레이어는 학습 데이터가 이용되어 각각 임의의 공간 피처 맵과 임의의 공간 상태 정보를 출력하도록 학습된 상태이며,
학습용 영상 이미지 - 상기 학습용 영상 이미지는 임의의 공간을 촬영한 영상 이미지임 - 가 획득되면, 학습 장치에 의해, (i) 상기 학습용 영상 이미지가 상기 컨볼루션 레이어로 입력됨으로써 상기 컨볼루션 레이어로 하여금 상기 학습용 영상 이미지가 적어도 한 번 컨볼루션 연산되도록 하여 상기 학습용 영상 이미지에 대응되는 학습용 공간 피처맵이 출력되도록 하고, 상기 학습용 공간 피처 맵이 상기 RPN으로 입력되어 상기 RPN으로 하여금 상기 학습용 공간 피처 맵 상에서 학습용 작업자가 있는 영역에 대응되는 학습용 프로포잘 박스들이 출력되도록 하며, 상기 풀링 레이어로 하여금 상기 학습용 프로포잘 박스들에 각각 대응되는 상기 학습용 공간 피처 맵 상의 영역들이 풀링되어 학습용 풀링된 피처 맵들에 대응되는 학습용 제1 피처 벡터가 출력되도록 하고 (ii-1) 상기 컨볼루션 레이어로부터 출력되는 상기 학습용 공간 피처맵에 대응되는 학습용 제2 피처 벡터가 상기 제1 FC 레이어로 입력되어 상기 제1 FC 레이어로 하여금 상기 학습용 제2 피처 벡터가 신경망 연산되도록 함으로써, 기설정된 공종 클래스들 중 상기 학습용 영상 이미지 상에서의 상기 건축물의 상기 공간에 대응되는 특정 공종 클래스가 판별되도록 한 후, 상기 특정 공종 클래스에 대응되는 학습용 특정 공종 정보가 출력되도록 하며, (ii-2) 상기 학습용 제1 피처 벡터가 상기 제2 FC 레이어로 입력되어 상기 제2 FC 레이어로 하여금 상기 학습용 작업자가 착용한 안전 장비가 확인되도록 하여 학습용 특정 안전 장비 착용 상태 정보가 출력되도록 하고, (iii-1) 로스(loss) 레이어로 하여금 상기 학습용 특정 공종 정보와 이에 대응되는 제1 GT(Ground Truth)가 참조되도록 하여 제1 로스가 생성되도록 하며, (iii-2) 상기 로스(loss) 레이어로 하여금 상기 학습용 특정 안전 장비 착용 상태 정보와 이에 대응되는 제2 GT(Ground Truth)가 참조되도록 하여 제2 로스가 생성되도록 하며, 상기 제1 로스 및 상기 제2 로스를 이용한 백프로퍼게이션(back propagation) 프로세스에 의해 상기 제1 FC 레이어, 상기 제2 FC 레이어 및 상기 컨볼루션 레이어의 파라미터들 중 적어도 하나의 파라미터가 학습된 상태인 것을 특징으로 하는 공간 상태 정보 판별 서버.
The method of claim 11,
The convolutional layer, the first FC layer, and the second FC layer are in a state in which training data is used to output an arbitrary spatial feature map and arbitrary spatial state information, respectively,
When the training video image-the training video image is a video image photographed in an arbitrary space-is obtained, by the learning device, (i) the training video image is input to the convolution layer, causing the convolution layer The training video image is subjected to a convolution operation at least once so that a training spatial feature map corresponding to the training video image is output, and the training spatial feature map is input to the RPN to cause the RPN to learn on the training spatial feature map. The learning proposal boxes corresponding to the area where the operator is located are output, and the pooling layer causes the areas on the learning spatial feature map corresponding to the learning proposal boxes to be pooled to be used for learning corresponding to the pooled feature maps for learning. A first feature vector is output, and (ii-1) a second learning feature vector corresponding to the learning spatial feature map output from the convolution layer is input to the first FC layer, and the first FC layer causes the By allowing the second feature vector for learning to be computed with a neural network, a specific construction class corresponding to the space of the building on the learning image is determined among preset construction classes, and then a specific construction type for learning corresponding to the specific construction class. Information is output, and (ii-2) the first feature vector for learning is input to the second FC layer so that the second FC layer confirms the safety equipment worn by the learning worker to wear specific safety equipment for learning. The state information is output, (iii-1) the loss layer is made to refer to the specific work type information for learning and the first GT (Ground Truth) corresponding thereto to generate a first loss, and (iii- 2) Even if the second loss is generated by allowing the loss layer to refer to the training specific safety equipment wearing state information and the corresponding second GT (Ground Truth) And at least one of the parameters of the first FC layer, the second FC layer, and the convolution layer is learned by a back propagation process using the first loss and the second loss. Space status information determination server, characterized in that in the state.
제11항에 있어서,
상기 건축물의 동, 호, 층 및 실 중 적어도 하나에 의하여 특정되는 상기 건축물 내 개별 공간들에 관한 정보인 공간 정보들이 획득된 상태에서,
상기 프로세서는,
상기 (2) 프로세스에서,
상기 사용자 단말이 위치하고 있는 위치 정보를 참조하여 상기 공간 정보들 중, 상기 사용자 단말이 위치하는 특정 공간 정보를 확인하고, 상기 특정 공간 정보를 상기 사용자 단말로 전송하여, 상기 사용자 단말로 하여금 상기 공간 상태 정보 및 상기 특정 공간 정보를 디스플레이하도록 지원하는 것을 특징으로 하는 공간 상태 정보 판별 서버.
The method of claim 11,
In a state in which spatial information, which is information about individual spaces within the building specified by at least one of the building's wing, arc, floor, and room, is obtained,
The processor,
In the above (2) process,
Among the spatial information, specific spatial information in which the user terminal is located is checked with reference to the location information in which the user terminal is located, and the specific spatial information is transmitted to the user terminal, so that the user terminal causes the spatial state Spatial state information determination server, characterized in that supporting to display information and the specific spatial information.
제11항에 있어서,
상기 프로세서는,
상기 (2) 프로세스에서,
상기 공간 상태 정보를 타 사용자 단말에 전송하여 줌으로써 상기 타 사용자 단말로 하여금 상기 공간 상태 정보를 디스플레이하도록 지원하는 것을 특징으로 하는 공간 상태 정보 판별 서버.
The method of claim 11,
The processor,
In the above (2) process,
The spatial state information determination server, characterized in that by transmitting the spatial state information to another user terminal to support the other user terminal to display the spatial state information.
제19항에 있어서,
상기 프로세서는,
상기 (2) 프로세스에서,
상기 공간 상태 정보 및 상기 실사영상 이미지를 상기 타 사용자 단말로 전송하고,
(3) 상기 타 사용자 단말로부터 상기 실사영상 이미지의 임의의 영역 중 특정 영역에 대한 지시 정보가 획득되면, 상기 공간 상태 정보 판별 서버가, 상기 지시 정보를 상기 사용자 단말로 전송하여 줌으로써 상기 사용자 단말로 하여금 상기 지시 정보에 대응되는 마크업을 렌더링하도록 하고, 상기 마크업을 상기 실사영상 이미지의 상기 특정 영역에 디스플레이하도록 지원하는 프로세스;
를 더 포함하는 것을 특징으로 하는 공간 상태 정보 판별 서버.
The method of claim 19,
The processor,
In the above (2) process,
Transmit the spatial state information and the live-action image to the other user terminal,
(3) When instruction information for a specific region among a certain region of the live-action image is obtained from the other user terminal, the spatial state information determination server transmits the instruction information to the user terminal to the user terminal. A process of rendering the markup corresponding to the indication information and supporting the display of the markup in the specific area of the live image;
Space state information determination server, characterized in that it further comprises.
KR1020200017273A 2020-02-12 2020-02-12 Method and server for differentiating space state information of structure based on machine learning KR102210614B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200017273A KR102210614B1 (en) 2020-02-12 2020-02-12 Method and server for differentiating space state information of structure based on machine learning
KR1020210011083A KR102260056B1 (en) 2020-02-12 2021-01-26 Method and server for differentiating space state information of structure based on machine learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200017273A KR102210614B1 (en) 2020-02-12 2020-02-12 Method and server for differentiating space state information of structure based on machine learning

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210011083A Division KR102260056B1 (en) 2020-02-12 2021-01-26 Method and server for differentiating space state information of structure based on machine learning

Publications (1)

Publication Number Publication Date
KR102210614B1 true KR102210614B1 (en) 2021-02-03

Family

ID=74572495

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200017273A KR102210614B1 (en) 2020-02-12 2020-02-12 Method and server for differentiating space state information of structure based on machine learning
KR1020210011083A KR102260056B1 (en) 2020-02-12 2021-01-26 Method and server for differentiating space state information of structure based on machine learning

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210011083A KR102260056B1 (en) 2020-02-12 2021-01-26 Method and server for differentiating space state information of structure based on machine learning

Country Status (1)

Country Link
KR (2) KR102210614B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102376290B1 (en) 2021-05-24 2022-03-18 김재황 System for managing defect based on augument reality
KR20220117039A (en) * 2021-02-16 2022-08-23 충북대학교 산학협력단 Method and system for automatic classification of bridge components based on deep learning

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220156432A (en) 2021-05-18 2022-11-25 디엘이앤씨 주식회사 Photo-based building construction defect analysis apparatus using deep learning

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070096409A (en) * 2006-03-24 2007-10-02 주식회사 네이블텍 A disaster prevention system and method
KR101715001B1 (en) * 2015-12-30 2017-03-23 연세대학교 산학협력단 Display system for safety evaluation in construction sites using of wearable device, and thereof method
KR101829169B1 (en) 2017-06-02 2018-02-19 신태용 Integrated management service system and method using construction and construction site management application, To do this Architectural construction site management application stored in media
KR101830121B1 (en) * 2017-05-22 2018-03-30 주식회사 씨엠엑스건축사사무소 Method for providing check and supervision of construction work, service providing server and user terminal using the same
KR20190048810A (en) * 2017-10-31 2019-05-09 에스케이텔레콤 주식회사 Apparatus and method for providing augmented reality contents
KR102048377B1 (en) * 2019-04-23 2019-11-25 고정석 Method for managing processes by using processing data with a spreadsheet type, process management server and specific worker's terminal using the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070096409A (en) * 2006-03-24 2007-10-02 주식회사 네이블텍 A disaster prevention system and method
KR101715001B1 (en) * 2015-12-30 2017-03-23 연세대학교 산학협력단 Display system for safety evaluation in construction sites using of wearable device, and thereof method
KR101830121B1 (en) * 2017-05-22 2018-03-30 주식회사 씨엠엑스건축사사무소 Method for providing check and supervision of construction work, service providing server and user terminal using the same
KR101829169B1 (en) 2017-06-02 2018-02-19 신태용 Integrated management service system and method using construction and construction site management application, To do this Architectural construction site management application stored in media
KR20190048810A (en) * 2017-10-31 2019-05-09 에스케이텔레콤 주식회사 Apparatus and method for providing augmented reality contents
KR102048377B1 (en) * 2019-04-23 2019-11-25 고정석 Method for managing processes by using processing data with a spreadsheet type, process management server and specific worker's terminal using the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220117039A (en) * 2021-02-16 2022-08-23 충북대학교 산학협력단 Method and system for automatic classification of bridge components based on deep learning
KR102469530B1 (en) * 2021-02-16 2022-11-21 충북대학교 산학협력단 Method and system for automatic classification of bridge components based on deep learning
KR102376290B1 (en) 2021-05-24 2022-03-18 김재황 System for managing defect based on augument reality

Also Published As

Publication number Publication date
KR102260056B1 (en) 2021-06-03

Similar Documents

Publication Publication Date Title
KR102210614B1 (en) Method and server for differentiating space state information of structure based on machine learning
CN112862153B (en) BIM-based fire rescue method, device, storage medium and device
US20210216770A1 (en) Method and system for smart living safety response from control center and savior in view of facility and industrial safety based on extended reality and internet of thing
CN106780116A (en) The construction method of power emergency drilling method, device and its scenario models, device
US10769855B2 (en) Personnel movement simulation and control
WO2019220589A1 (en) Video analysis device, video analysis method, and program
CN114997754B (en) Emergency plan analysis method and device based on cloud model and entropy weight method
CN112149962A (en) Risk quantitative evaluation method and system for cause behavior of construction accident
Ding et al. Intelligent emergency digital twin system for monitoring building fire evacuation
CN111062373A (en) Hoisting process danger identification method and system based on deep learning
JP7379902B2 (en) Program, information processing method, and information processing device
CN111860187A (en) High-precision worn mask identification method and system
CN111310647A (en) Generation method and device for automatic identification falling model
CN115860979A (en) Artificial intelligence management system for field operation of power grid
WO2021140590A1 (en) Human detection device, human detection method, and recording medium
CN113411227A (en) AR (augmented reality) -assisted network equipment testing method and device
JP2022056219A (en) Information processor, method for processing information, and program
Thomopoulos Risk-based security: From theory to practice
Pronina et al. Recognition of violations of individual labor protection rules using a convolutional neural network
JP7072247B2 (en) Damage grasping system, processing equipment and programs
WO2022071255A1 (en) Information processing device, information processing method, and program
KR102635901B1 (en) Hazardous object recognition system and method at construction site using AI robot
CN116385975B (en) Power distribution room safety monitoring system and method based on target detection
WO2023032317A1 (en) Program, information processing device, and information processing method
CN116630752B (en) Construction site target object identification method and device based on AI algorithm

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant