KR20230015834A - System and method for ground surface information in construction sites - Google Patents

System and method for ground surface information in construction sites Download PDF

Info

Publication number
KR20230015834A
KR20230015834A KR1020220051979A KR20220051979A KR20230015834A KR 20230015834 A KR20230015834 A KR 20230015834A KR 1020220051979 A KR1020220051979 A KR 1020220051979A KR 20220051979 A KR20220051979 A KR 20220051979A KR 20230015834 A KR20230015834 A KR 20230015834A
Authority
KR
South Korea
Prior art keywords
grid
ground surface
class
unit
information
Prior art date
Application number
KR1020220051979A
Other languages
Korean (ko)
Inventor
지석호
원대연
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Publication of KR20230015834A publication Critical patent/KR20230015834A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones

Abstract

Disclosed are a system and method for providing ground surface information in a construction site. The system for providing ground surface information in a construction site, according to an embodiment of the present invention, comprises: an unmanned aerial vehicle for capturing an on-site image from the air in a construction site; and a ground surface classification apparatus for classifying ground surface information by using the on-site image captured by the unmanned aerial vehicle. The ground surface classification apparatus comprises: an image input unit for receiving an input of the on-site image from the unmanned aerial vehicle; a grid division unit for dividing the input on-site image into a grid of a preset site; a classification unit for classifying the divided grid into a ground surface and a non-ground surface and extracting an object in the grid classified as the non-ground surface; a class defining unit for defining a class of the grid according to an operation result of the classification unit; a class information generation unit for generating class information according to the defined class; and a user interface for providing the generated class information to a user. According to the present invention, the efficiency of construction progress can be improved.

Description

건설현장의 지표면 정보 제공 시스템 및 방법 {SYSTEM AND METHOD FOR GROUND SURFACE INFORMATION IN CONSTRUCTION SITES}Construction site ground surface information provision system and method {SYSTEM AND METHOD FOR GROUND SURFACE INFORMATION IN CONSTRUCTION SITES}

본 발명은 건설현장의 지표면 정보 제공 시스템 및 방법에 관한 것으로서, 보다 상세하게는, 무인비행체에 의해 촬영된 현장영상으로부터 관리가 필요한 지표면 정보를 자동으로 제공하는 건설현장의 지표면 정보 제공 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for providing ground surface information at a construction site, and more particularly, to a system and method for providing ground surface information at a construction site that automatically provides ground surface information requiring management from field images captured by an unmanned aerial vehicle. it's about

건설 사업을 성공정으로 수행하기 위해서는, 지표면 정보를 신속하게 확인하여 관리하는 것이 매우 중요하다. 보다 구체적으로, 공사 진행시에 유해한 영향을 끼치는 요인들 예를 들면, 초목, 웅덩이, 큰 암석 등은 사전에 파악하여 제거 및 관리하여야 한다.In order to successfully carry out a construction project, it is very important to quickly check and manage surface information. More specifically, factors that have a harmful effect during construction, such as vegetation, puddles, and large rocks, must be identified in advance, removed, and managed.

이와 같이, 공사가 잘 진행되기 위해서는 공사를 시작하기 전에 지표면 정보를 확보하는 것이 매우 중요한데, 현재는 관리자가 직접 현장을 순회하면서 육안으로 지표면 상태를 확인하고 있는 실정이다.In this way, in order for the construction to proceed smoothly, it is very important to secure ground surface information before starting construction. Currently, the manager directly tours the site and checks the surface condition with the naked eye.

규모가 비교적 작은 공사 현장에서는 관리자가 현장을 순회하여 지표면 상태를 확인하는 것이 크게 문제가 되지 않을 수 있으나, 규모가 큰 공사 현장에서 관리자가 현장 전체를 일일이 순회하여 지표면 정보를 확보한다는 것은 쉬운 일이 아니다.In a relatively small construction site, it may not be a big problem for a manager to tour the site to check the surface condition, but in a large construction site, it is not easy for a manager to tour the entire site to obtain surface information. no.

특히, 넓은 지역에 분포하는 도로 공사 현장의 특성상, 관리자가 현장 전체를 순회하면서 지표면 정보를 확인하는데 매우 많은 시간과 비용이 소요되는 문제점이 있다.In particular, due to the nature of road construction sites distributed over a wide area, there is a problem in that it takes a lot of time and money for a manager to check surface information while touring the entire site.

국내등록특허 제10-1884920호(2018. 07. 27. 공개)Korean Registered Patent No. 10-1884920 (published on July 27, 2018)

전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 무인비행체에 의해 촬영된 현장영상을 그리드로 분할하고, 그리드 단위로 관리가 필요한 지표면 상의 객체들을 추출하여 정보를 제공함으로써, 공사 진행에 영향을 주는 요인들을 신속하고 정확하게 파악할 수 있도록 하는 건설현장의 지표면 정보 제공 시스템 및 방법을 제시하는 데 있다.In order to solve the above problems, the technical problem to be achieved by the present invention is to divide field images taken by unmanned aerial vehicles into grids, extract objects on the ground surface that need to be managed in grid units, and provide information to improve construction progress. The purpose of this study is to propose a system and method for providing ground surface information at a construction site so that influencing factors can be identified quickly and accurately.

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따른 건설현장의 지표면 정보 제공 시스템은, 건설현장의 항공에서 현장영상을 촬영하는 무인비행체, 무인비행체에 의해 촬영된 현장영상을 이용하여 지표면 정보를 분류하는 지표면 분류 장치를 포함하며, 지표면 분류 장치는, 무인비행체로부터 상기 현장영상을 입력받는 영상 입력부, 입력받은 현장영상을 기설정된 크기의 그리드로 구획하는 그리드 구획부, 구획된 그리드를 지표면 및 비지표면 중 하나로 분류하고, 비지표면으로 분류된 그리드 내에서 객체를 추출하는 분류부, 분류부의 동작 결과에 따라, 그리드의 클래스를 정의하는 클래스 정의부, 정의된 클래스에 따라 클래스 정보를 생성하는 클래스 정보 생성부, 및 생성된 클래스 정보를 사용자에게 제공하는 사용자 인터페이스부를 포함한다.As a means for solving the above-described technical problem, the system for providing ground surface information of a construction site according to an embodiment of the present invention uses an unmanned aerial vehicle for photographing field images from the air at a construction site, and a field image captured by an unmanned aerial vehicle. and a ground surface classification device for classifying ground surface information, wherein the ground surface classification device includes an image input unit for receiving the field image from an unmanned aerial vehicle, a grid partitioning unit for partitioning the input field image into a grid of a predetermined size, and a partitioned grid Classification unit that classifies objects into either ground surface or non-terrestrial surface and extracts objects from the grid classified as non-surface, class definition unit that defines the class of the grid according to the operation result of the classification unit, and class information according to the defined class. It includes a class information generation unit that generates class information, and a user interface unit that provides the generated class information to a user.

바람직하게, 그리드 구획부는, 현장영상을 5m×5m의 그리드로 구획할 수 있다.Preferably, the grid partitioning unit may partition the field image into a 5m×5m grid.

또한 바람직하게, 분류부는, 그리드를 지표면 및 비지표면으로 분류하는 지표면 분류부, 및 비지표면으로 분류된 그리드 내에서 객체를 분류하는 객체 분류부를 포함할 수 있다.Preferably, the classification unit may include a ground surface classification unit for classifying grids into land surfaces and non-land surfaces, and an object classification unit for classifying objects within grids classified as non-land surfaces.

또한 바람직하게, 지표면 분류부는, 기구축된 제1 데이터셋에 의해 동작하는 레스넷(ResNet)-101 네트워크로 구성되고, 객체 분류부는, 기구축된 제2 데이터셋에 의해 동작하는 레스넷-101 네트워크로 구성될 수 있다.Also preferably, the ground surface classification unit is composed of a ResNet-101 network operating by the first data set that has been scaled, and the object classifier is ResNet-101 that operates by the second data set that has been scaled. can be made into a network.

또한 바람직하게, 클래스 정보 생성부는, 정의된 클래스, 클래스가 포함된 그리드의 위치정보를 포함하는 클래스 정보를 생성할 수 있다.Also preferably, the class information generator may generate class information including defined classes and location information of grids including the classes.

한편, 본 발명의 다른 실시 예에 따른 건설현장의 지표면 정보 제공 방법은, 무인비행체로부터 건설현장의 항공에서 촬영한 현장영상을 입력받는 단계, 입력받은 현장영상을 기설정된 크기의 그리드로 구획하는 단계, 구획된 그리드를 지표면 및 비지표면 중 하나로 분류하는 단계, 비지표면으로 분류된 그리드 내에서 객체를 추출하는 단계, 분류 및 추출 결과에 따라, 상기 그리드의 클래스를 정의하는 단계, 정의된 클래스에 따라 클래스 정보를 생성하는 단계, 및 생성된 클래스 정보를 사용자에게 제공하는 단계를 포함한다.Meanwhile, a method for providing ground surface information of a construction site according to another embodiment of the present invention includes the steps of receiving an input image of a construction site taken from the air from an unmanned aerial vehicle, and dividing the received image of the site into a grid having a preset size. , classifying the partitioned grid into one of ground surface and non-terrestrial surface, extracting objects from the grid classified as non-terrestrial surface, defining the class of the grid according to the classification and extraction result, according to the defined class Generating class information, and providing the generated class information to a user.

바람직하게, 구획하는 단계는, 현장영상을 5m×5m의 그리드로 구획할 수 있다.Preferably, in the partitioning step, the field image may be partitioned into a 5m×5m grid.

또한 바람직하게, 분류하는 단계는, 기구축된 제1 데이터셋에 의해 동작하는 레스넷(ResNet)-101 네트워크에 의해 동작하고, 추출하는 단계는, 기구축된 제2 데이터셋에 의해 동작하는 레스넷-101 네트워크로 구성될 수 있다.Also preferably, the classifying step is performed by a ResNet-101 network operated by the first previously contracted dataset, and the extracting step is performed by the ResNet-101 network operated by the second previously built-up dataset. It can be configured as a Net-101 network.

또한 바람직하게, 생성하는 단계는, 정의된 클래스, 클래스가 포함된 그리드의 위치정보를 포함하는 클래스 정보를 생성할 수 있다.Also preferably, the generating step may generate class information including defined classes and location information of grids including the classes.

본 발명에 따르면, 매우 광범위한 건설현장에서 무인비행체가 촬영한 현장영상을 이용하여 지표면 상에 공사에 영향을 끼치는 요인을 자동으로 파악함으로써, 공사진행의 효율성을 향상시키고, 수작업으로 인한 시간 및 노력을 절감할 수 있는 건설현장의 지표면 정보 제공 시스템 및 방법을 제공하는 효과가 있다.According to the present invention, the efficiency of construction progress is improved and the time and effort due to manual work is improved by automatically identifying the factors affecting the construction on the ground surface using field images taken by unmanned aerial vehicles in a very wide construction site. There is an effect of providing a system and method for providing ground surface information at a construction site that can be reduced.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

첨부된 도면은 해당 기술 분야의 통상의 기술자에게 본 발명의 내용을 보다 상세하게 설명하기 위한 것으로 본 발명의 기술적 사상이 이에 한정되는 것은 아니다.
도 1은 본 발명의 바람직한 실시예에 따른 건설현장의 지표면 정보 제공 시스템의 네트워크 구성도,
도 2는 본 발명의 바람직한 실시예에 따른 지표면 분류 장치의 블록도,
도 3은 본 발명의 바람직한 실시예에 따른 지표면 분류 장치의 분류부의 동작을 설명하기 위한 도면,
도 4는 본 발명의 바람직한 실시예에 따른 지표면 분류 장치의 동작 중 발생하는 그리드 및 클래스를 설명하기 위한 도면, 그리고,
도 5는 본 발명의 바람직한 실시예에 따른 건설현장의 지표면 정보 제공 방법을 설명하기 위한 흐름도이다.
The accompanying drawings are intended to explain the contents of the present invention in more detail to those skilled in the art, but the technical spirit of the present invention is not limited thereto.
1 is a network configuration diagram of a system for providing ground surface information at a construction site according to a preferred embodiment of the present invention;
2 is a block diagram of a land surface classifier according to a preferred embodiment of the present invention;
3 is a view for explaining the operation of the classification unit of the ground surface classification device according to a preferred embodiment of the present invention;
4 is a diagram for explaining grids and classes generated during the operation of the ground surface classifier according to a preferred embodiment of the present invention; and
5 is a flowchart illustrating a method of providing ground surface information of a construction site according to a preferred embodiment of the present invention.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be easily understood through the following preferred embodiments in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content will be thorough and complete and the spirit of the present invention will be sufficiently conveyed to those skilled in the art.

본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한, 도면들에 있어서, 구성요소들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다.In this specification, when an element is referred to as being on another element, it means that it may be directly formed on the other element or a third element may be interposed therebetween. Also, in the drawings, the thickness of components is exaggerated for effective description of technical content.

본 명세서에서 제1, 제2 등의 용어가 구성요소들을 기술하기 위해서 사용된 경우, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시 예들은 그것의 상보적인 실시 예들도 포함한다.In this specification, when terms such as first and second are used to describe components, these components should not be limited by these terms. These terms are only used to distinguish one component from another. Embodiments described and illustrated herein also include complementary embodiments thereof.

또한, 제1 엘리먼트 (또는 구성요소)가 제2 엘리먼트(또는 구성요소) 상(ON)에서 동작 또는 실행된다고 언급될 때, 제1 엘리먼트(또는 구성요소)는 제2 엘리먼트(또는 구성요소)가 동작 또는 실행되는 환경에서 동작 또는 실행되거나 또는 제2 엘리먼트(또는 구성요소)와 직접 또는 간접적으로 상호 작용을 통해서 동작 또는 실행되는 것으로 이해되어야 할 것이다.Also, when it is said that a first element (or component) operates or is executed on (ON) a second element (or component), the first element (or component) means that the second element (or component) It should be understood that it is operated or executed in an environment in which it is operated or executed, or operated or executed through direct or indirect interaction with the second element (or component).

어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.Where an element, component, device, or system is referred to as including a component consisting of a program or software, even if not explicitly stated otherwise, that element, component, device, or system means that the program or software executes or operates. It should be understood that it includes hardware (eg, memory, CPU, etc.) or other programs or software (eg, operating system or driver required to drive hardware) required to do so.

또한, 어떤 엘리먼트(또는 구성요소)가 구현됨에 있어서 특별한 언급이 없다면, 그 엘리먼트(또는 구성요소)는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.In addition, it should be understood that, unless otherwise specified, the element (or component) may be implemented in any form of software, hardware, or both software and hardware.

또한, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.In addition, terms used in this specification are for describing embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. The terms 'comprises' and/or 'comprising' used in the specification do not exclude the presence or addition of one or more other elements.

도 1은 본 발명의 바람직한 실시예에 따른 건설현장의 지표면 정보 제공 시스템의 네트워크 구성도이다.1 is a network configuration diagram of a system for providing ground surface information at a construction site according to a preferred embodiment of the present invention.

도 1을 참조하면, 본 발명의 바람직한 실시예에 따른 건설현장의 지표면 정보 제공 시스템은, 서로 통신이 가능한 무인비행체(100), 및 지표면 분류 장치(200)로 이루어진다.Referring to FIG. 1 , a system for providing ground surface information at a construction site according to a preferred embodiment of the present invention includes an unmanned aerial vehicle 100 capable of communicating with each other and a ground surface classification device 200 .

무인비행체(Unmanned Aerial Vehicle, uncrewed aerial, UAV)(100)는 조종사가 탑승하지 않고, 지상에서 무선으로 조정하여 사전 프로그램된 경로에 따라 자동 또는 반자동으로 날아가는 비행체를 통칭하는 것으로, 통상 드론(Drone)이라 칭한다.An unmanned aerial vehicle (UAV) (100) is a collective term for an air vehicle that flies automatically or semi-automatically according to a pre-programmed route by radio control from the ground without a pilot on board. It is called.

본 건설현장의 지표면 정보 제공 시스템에서, 무인비행체(100)는 건설현장의 항공에서 현장영상을 촬영하고, 촬영된 현장영상을 지표면 분류 장치(200)로 전송한다. 무인비행체(100)는 높은 기동성으로 특히 넓은 지역에 분포하는 도로 공사 현장의 현장영상을 촬영하기에 매우 적합하다.In the ground surface information providing system of the present construction site, the unmanned aerial vehicle 100 captures a field image from the air of the construction site and transmits the captured field image to the ground surface classification device 200. The unmanned aerial vehicle 100 has high mobility and is particularly suitable for taking on-site images of road construction sites distributed over a wide area.

지표면 분류 장치(200)는 무인비행체(100)에 의해 촬영된 현장영상을 이용하여 지표면 정보를 분류하고, 분류된 결과를 사용자 편의를 고려한 정보의 형태로 생성하여 사용자(혹은 현장 관리자)에게 제공한다. 지표면 분류 장치(200)에 관하여는 후술하는 도 2에서 보다 상세히 설명한다.The ground surface classification device 200 classifies ground surface information using field images captured by the unmanned aerial vehicle 100, generates the classified result in the form of information considering user convenience, and provides it to the user (or site manager). . The ground surface classification device 200 will be described in more detail in FIG. 2 to be described later.

도 2는 본 발명의 바람직한 실시예에 따른 지표면 분류 장치의 블록도이다.2 is a block diagram of a land surface classifier according to a preferred embodiment of the present invention.

도 2를 참조하면, 본 발명의 바람직한 실시예에 따른 지표면 분류 장치(200)는 영상 입력부(210), 그리드 구획부(220), 분류부(230), 클래스 정의부(240), 클래스 정보 생성부(250), 사용자 인터페이스부(260), 저장부(270), 및 제어부(280)를 포함한다.Referring to FIG. 2 , the land surface classification apparatus 200 according to a preferred embodiment of the present invention includes an image input unit 210, a grid partition unit 220, a classification unit 230, a class definition unit 240, and class information generation. It includes a unit 250, a user interface unit 260, a storage unit 270, and a control unit 280.

영상 입력부(210)는 무인비행체(100)와의 네트워크 통신을 통해, 무인비행체(100)에서 촬영된 현장영상을 입력받는다. 이를 위해, 영상 입력부(210)는 지표면 분류 장치(200) 및 무인비행체(100)간의 네트워크 인터페이스를 지원하는데, 지표면 분류 장치(200) 및 무인비행체(100)는 무선 네트워크 통신 혹은 블루투스와 같은 근거리 무선 통신을 통해 통신할 수 있다.The image input unit 210 receives a field image captured by the unmanned aerial vehicle 100 through network communication with the unmanned aerial vehicle 100 . To this end, the image input unit 210 supports a network interface between the ground surface classification device 200 and the unmanned aerial vehicle 100. You can communicate through communication.

그리드 구획부(220)는 영상 입력부(210)를 통해 입력된 현장영상을 기설정된 크기의 복수의 그리드(Grid)로 구획한다. 다양한 객체가 혼재되어 있는 영상에서 그리드를 구획함으로써, 후술하는 분류부(230)의 동작 단위인 하나의 그리드 내에 등작하는 물체 유형(객체)의 수를 축소시킬 수 있다. 이는, 분류 모델의 성능을 향상시키는데 매우 효과적이다. 그리드 구획부(220)에 구획되는 그리드는 후술하는 도 4에서 보다 상세히 설명한다.The grid division unit 220 divides the field image input through the image input unit 210 into a plurality of grids having a preset size. By partitioning a grid in an image in which various objects are mixed, the number of object types (objects) included in one grid, which is an operation unit of the classification unit 230 to be described later, can be reduced. This is very effective in improving the performance of classification models. The grid partitioned by the grid dividing unit 220 will be described in more detail in FIG. 4 to be described later.

분류부(230)는 1차적으로 그리드 구획부(220)에 의해 구획된 그리드를 지표면 및 비지표면 중 하나로 분류하고, 2차적으로 비지표면으로 분류된 그리드에 한해 해당 그리드 내에서 객체를 추출한다. 여기서, 객체는, 웅덩이, 암석, 식생, 및 보호망을 포함할 수 있다.The classification unit 230 firstly classifies the grid partitioned by the grid partitioning unit 220 into one of a land surface and a non-terrestrial surface, and secondarily extracts an object from the grid only for the grid classified as a non-terrestrial surface. Here, the object may include a puddle, a rock, vegetation, and a protective net.

분류부(230)는 지표면 분류부(232), 및 객체 분류부(234)를 포함한다. 지표면 분류부(232)는 그리드 각각의 영상을 통해 각 그리드를 지표면 및 비지표면 중 하나로 분류한다. 또한, 객체 분류부(234)는 지표면 분류부(232)에 의해 비지표면으로 분류된 그리드에 한해 그리드 내의 영상으로부터 객체를 추출한다. 분류부(230)의 동작에 관하여는 후술하는 도 3d에서 보다 상세히 설명한다.The classification unit 230 includes a ground surface classification unit 232 and an object classification unit 234 . The ground surface classification unit 232 classifies each grid into one of a ground surface and a non-terrestrial surface through each grid image. In addition, the object classification unit 234 extracts objects from images within the grid only for grids classified as non-terrestrial surfaces by the ground surface classification unit 232 . The operation of the classification unit 230 will be described in detail with reference to FIG. 3D to be described later.

클래스 정의부(240)는 분류부(230)의 동작 결과에 따라, 각 그리드에 클래스를 정의한다. 클래스는, 지표면으로 분류된 그리드에 대하여는 지표면 클래스로 정의하고, 비지표면으로 분류된 그리드에 대하여는 각각으로부터 추출된 객체명으로 클래스를 정의한다.The class definition unit 240 defines a class in each grid according to the operation result of the classification unit 230 . A class is defined as a ground surface class for a grid classified as a ground surface, and a class is defined as an object name extracted from each grid for a grid classified as a non-ground surface.

클래스 정보 생성부(250)는 사용자에게 제공하기 위한 목적의 클래스 정보를 생성한다. 여기서, 클래스 정보는, 각 그리드별로 정의된 클래스, 클래스가 포함된 그리드의 위치정보를 포함할 수 있다.The class information generation unit 250 generates class information for the purpose of providing to the user. Here, the class information may include a class defined for each grid and location information of a grid including the class.

사용자 인터페이스부(260)는 사용자와 지표면 분류 장치(200)와의 인터페이스를 지원하는 것으로, 클래스 정보 생성부(250)에 의해 생성된 클래스 정보를 사용자에게 제공할 수 있고, 사용자의 조작에 의한 소정 정보를 입력받을 수 있다.The user interface unit 260 supports an interface between a user and the ground surface classification device 200, and can provide the user with the class information generated by the class information generation unit 250, and provide predetermined information by user manipulation. can be input.

저장부(270)는 본 지표면 분류 장치(200)의 동작에 필요한 모든 정보를 저장한다. 예를 들면, 저장부(270)는 무인비행체(100)로부터 전송받은 현장영상을 저장할 수 있고, 클래스 정보 생성부(250)에 의해 생성되는 클래스 정보를 저장할 수도 있다. 또한, 저장부(270)는 분류부(230)의 동작에 필요한 데이터셋 즉, 제1 데이터셋 및 제2 데이터셋을 저장할 수 있다.The storage unit 270 stores all information necessary for the operation of the ground surface classification device 200. For example, the storage unit 270 may store field images transmitted from the unmanned aerial vehicle 100 and may store class information generated by the class information generation unit 250 . Also, the storage unit 270 may store data sets necessary for the operation of the classification unit 230, that is, a first data set and a second data set.

제어부(280)는 본 지표면 분류 장치(200)의 전반적인 동작을 제어한다. 즉, 제어부(280)는 영상 입력부(210), 그리드 구획부(220), 분류부(230), 클래스 정의부(240), 클래스 정보 생성부(250), 사용자 인터페이스부(260), 및 저장부(270)들 간의 신호 입출력을 제어한다.The control unit 280 controls the overall operation of the land surface classification device 200. That is, the control unit 280 includes the image input unit 210, the grid division unit 220, the classification unit 230, the class definition unit 240, the class information generation unit 250, the user interface unit 260, and the storage Signal input/output between units 270 is controlled.

도 3은 본 발명의 바람직한 실시예에 따른 지표면 분류 장치의 분류부의 동작을 설명하기 위한 도면이다.3 is a diagram for explaining the operation of the classification unit of the land surface classification apparatus according to a preferred embodiment of the present invention.

분류부(230)는 복수의 그리드로 구획된 영상(Cropped Image)에 대하여 그 각각의 영상을 분석하여 지표면과 비지표면으로 분류한다. 분류부(230)는 1차적으로 그리드를 지표면 및 비지표면으로 분류하고, 2차적으로 비지표면으로 분류된 그리드에 한해 객체를 추출한다. 이를 위해, 분류부(230)는 지표면 분류부(232) 및 객체 분류부(234)를 포함한다.The classification unit 230 analyzes each of the cropped images divided into a plurality of grids and classifies them into ground surfaces and non-terrestrial surfaces. The classification unit 230 firstly classifies grids into ground surfaces and non-terrestrial surfaces, and secondarily extracts objects only for grids classified as non-terrestrial surfaces. To this end, the classification unit 230 includes a ground surface classification unit 232 and an object classification unit 234 .

지표면 분류부(232)는 기구축된 제1 데이터셋(DataSet)에 의해 동작하는 레스넷(ResNet)-101 네트워크를 통해 그리드를 지표면 및 비지표면으로 분류할 수 있다. 지표면 분류부(232)에서 지표면과 비지표면을 분류하는 기준은, 그리드의 영상을 분석한 결과가 흙 및 60cm 이하의 돌만으로 이루어지는 경우에 해당 그리드를 지표면으로 분류하고, 그 외에는 비지표면으로 분류한다.The ground surface classification unit 232 may classify the grid into a land surface and a non-terrestrial surface through the ResNet-101 network operated by the first data set (DataSet) of the instrument axis. The criterion for classifying the ground surface and non-terrestrial surface in the ground surface classification unit 232 is to classify the grid as a ground surface when the result of analyzing the image of the grid consists only of soil and stones of 60 cm or less, and classify the grid as a non-terrestrial surface otherwise. .

객체 분류부(234)는 기구축된 제2 데이터넷에 의해 동작하는 레스넷-101 네트워크를 통해 지표면 분류부(232)에 의해 비지표면으로 분류된 그리드 내의 영상으로부터 객체를 추출한다. 여기서, 객체는, 식생, 암석, 웅덩이, 및 보호망을 포함할 수 있다. 객체 분류부(234)에서 객체를 정의한 기준을 하기의 표 1에 나타내었다.The object classification unit 234 extracts an object from an image in a grid classified as a non-terrestrial surface by the ground surface classification unit 232 through the ResNet-101 network operated by the second datanet. Here, the objects may include vegetation, rocks, puddles, and protection nets. The criteria for defining objects in the object classification unit 234 are shown in Table 1 below.

객체object 정의Justice 식생Vegetation 나무, 잔디, 덤불과 같은 식생을 포함Includes vegetation such as trees, grass, and bushes 암석rock 직경 60cm 이상의 암석을 포함Contains rocks over 60 cm in diameter 웅덩이pool 지표면 위에 고여 있는 물을 포함Contains the water standing on the surface of the earth 보호망protective net 낙석 방지망, 비탈면 보호공과 같은 여러 보호망을 포함Including multiple protection nets such as anti-fall nets and slope protectors

결과적으로, 그리드로 분할된 영상들은 1차적으로는 지표면 분류부(232)에 의해 지표면 혹은 비지표면으로 구분되고, 2차적으로는 객체 분류부(234)에 의해 지표면, 식생, 암석, 웅덩이, 및 보호망으로 구분된다.As a result, the grid-divided images are firstly divided into land surfaces or non-terrestrial surfaces by the ground surface classification unit 232, and secondarily divided into ground surface, vegetation, rocks, puddles, and separated by a protective net.

전술한 바와 같이, 지표면 분류부(232) 및 객체 분류부(234)는 각각 제1 데이터셋 및 제2 데이터셋에 의해 동작하는 레스넷-101 네트워크로 구성된다. 레스넷-101 네트워크는 101개 계층으로 구성된 컨벌루션 신경망으로, 이미지넷 데이터베이스의 1백만개가 넘는 영상에 대해 훈련된 신경망의 사전 훈련된 버전을 불러올 수 있다.As described above, the ground surface classification unit 232 and the object classification unit 234 are composed of the Resnet-101 network operated by the first and second data sets, respectively. The ResNet-101 network is a 101-layer convolutional neural network that can load a pretrained version of a neural network trained on over 1 million images from the ImageNet database.

본 실시예에서는, 이러한 레스넷-101 네트워크를 활용하여 딥러닝 모델 아키텍쳐를 설계함으로써, 기구축된 학습 데이터셋을 바탕으로 분류 모델을 지속적으로 학습시킴으로써, 분류부(230)가 동작할 때마다 분류부(230)의 기능은 지속적으로 향상될 수 있다.In this embodiment, by designing the deep learning model architecture using the LesNet-101 network, the classification model is continuously trained based on the previously built-up training dataset, so that classification is performed whenever the classification unit 230 operates. The function of unit 230 can be continuously improved.

그러므로, 분류부(230)에서 그리드 단위의 영상들을 효율적으로 분류하기 위해서는, 레스넷-101 네트워크 학습을 위한 제1 데이터셋 및 제2 데이터셋의 구축이 필요하다.Therefore, in order to efficiently classify grid-based images in the classifier 230, it is necessary to construct a first dataset and a second dataset for learning the Lesnet-101 network.

이를 위해, 실제 건설현장을 대상으로 현장영상을 촬영하여 제1 데이터셋 및 제2 데이터셋을 구축하였다. 이에 따른 분류 모델 성능 평가를 확인한 결과를 표 2에 나타내었다.To this end, the first and second datasets were constructed by taking field images of actual construction sites. The result of confirming the performance evaluation of the classification model according to this is shown in Table 2.

분류Classification 클래스class 정확도
(Precision)
accuracy
(Precision)
재현율
(Recall)
recall
(Recall)
F1 스코어 (Score)F1 Score
지표면ground surface 지표면ground surface 0.990.99 0.970.97 0.980.98 비지표면non-terrestrial surface 0.970.97 0.990.99 0.980.98 비지표면non-terrestrial surface 웅덩이pool 0.820.82 0.270.27 0.400.40 식생Vegetation 0.940.94 0.890.89 0.910.91 암석rock 0.820.82 0.960.96 0.890.89 보호망protective net 0.890.89 0.730.73 0.800.80

표 2를 참조하면, 실제 현장영상을 기반으로 데이터셋을 구축하여 분류 모델의 성능 평가를 수행한 결과, 대부분의 클래스에서 준수한 수준의 성능을 보임을 알 수 있다. 다만, 웅덩이 클래스의 경우에는, 모양, 형태, 색상이 매우 다양하고, 물의 빛 반사와 같은 특성으로 인해 분류 모델의 성능이 다소 떨어지나, 이러한 웅덩이 클래스에 대한 성능 절감은 분류 모델의 지속적인 업데이트로 해소될 수 있다.Referring to Table 2, as a result of evaluating the performance of the classification model by constructing a dataset based on actual field images, it can be seen that most classes show compliant performance. However, in the case of the puddle class, the shape, form, and color are very diverse, and the performance of the classification model is somewhat degraded due to characteristics such as light reflection of water. can

도 4는 본 발명의 바람직한 실시예에 따른 지표면 분류 장치의 동작 중 발생하는 그리드 및 클래스를 설명하기 위한 도면이다.4 is a diagram for explaining grids and classes generated during the operation of the ground surface classifier according to a preferred embodiment of the present invention.

무인비행체(100)로부터 현장영상이 입력되면, 그리드 구획부(220)에 의해 입력된 현장영상을 기설정된 크기의 그리드로 구획한다. 그리드 구획부(220)는 n×n 크기로 그리드를 구획할 수 있으며, 여기서 n은 5m일 수 있다. 즉, 그리드 구획부(220)는 정사각형 형태로 그리드를 구획할 수 있다. 또한, 그리드 구획부(220)에 의해 구획되는 그리드의 크기는 현장의 종류, 현장의 면적 등을 고려하여 변경될 수 있다.When a field image is input from the unmanned aerial vehicle 100, the field image input by the grid partitioning unit 220 is partitioned into a grid having a predetermined size. The grid partitioning unit 220 may partition the grid in an n×n size, where n may be 5 m. That is, the grid dividing unit 220 may partition the grid in a square shape. In addition, the size of the grid partitioned by the grid partitioning unit 220 may be changed in consideration of the type of site, the area of the site, and the like.

그리드 구획부(220)에 의해 현장영상에 대한 그리드 구획이 완료되면, 영상은 그리드 단위로 분류부(230)에 입력된다. 분류부(230)는 지표면 분류부(232) 및 객체 분류부(234)를 포함하는데, 지표면 분류부(232)가 먼저 동작하고, 지표면 분류부(232)의 동작 결과를 이용하여 객체 분류부(234)가 동작한다.When the grid division of field images is completed by the grid division unit 220, the images are input to the classification unit 230 in grid units. The classification unit 230 includes a ground surface classification unit 232 and an object classification unit 234. The ground surface classification unit 232 operates first, and the object classification unit (using the operation result of the ground surface classification unit 232) 234) works.

지표면 분류부(232)는 A와 같이 그리드 단위로 구획된 영상 각각을 제1 데이터셋에 의해 동작하는 레스넷-101 네트워크 동작에 의해 지표면 혹은 비지표면으로 분류한다.The ground surface classification unit 232 classifies each of the images divided into grid units as shown in A into a ground surface or a non-terrestrial surface by the Resnet-101 network operation based on the first dataset.

이후, 객체 분류부(234)는 A에서 비지표면으로 분류된 그리드에 한해 각각을 제2 데이터셋에 의해 동작하는 레스넷-101 네트워크 동작에 의해 객체로 분류하여, B와 같이 웅덩이, 식생, 암석, 및 보호망 중 하나로 분류한다.Thereafter, the object classification unit 234 classifies each of the grids classified as non-surfaces in A into objects by the Resnet-101 network operation operated by the second dataset, and classifies them into puddles, vegetation, and rocks as in B. It is classified as one of , , and protective nets.

이후, 클래스 정의부(240)에서는 지표면 분류부(232) 및 객체 분류부(234)의 동작 결과를 이용하여, 각 그리드에 클래스를 정의한다. 여기서, 클래스 정의는 데이터 라벨링을 수행하는 동작에 해당한다. 클래스 정의부(240)에 의해, 각 그리드는 지표면, 웅덩이, 식생, 암석, 및 보호망 중 하나로 정의된다. 분류부(230)에서 최종적으로 출력되는 결과물은 B에 해당한다.Thereafter, the class definition unit 240 defines a class for each grid using the operation results of the ground surface classification unit 232 and the object classification unit 234. Here, class definition corresponds to an operation of performing data labeling. Each grid is defined by the class definition unit 240 as one of ground surface, puddle, vegetation, rock, and protection net. The result finally output from the classification unit 230 corresponds to B.

도 5는 본 발명의 바람직한 실시예에 따른 건설현장의 지표면 정보 제공 방법을 설명하기 위한 흐름도이다. 5 is a flowchart illustrating a method of providing ground surface information of a construction site according to a preferred embodiment of the present invention.

여기에서는 도 1 내지 도 5를 참조하여, 본 발명의 바람직한 실시예에 따른 건설현장의 지표면 정보 제공 방법을 설명한다.Here, with reference to FIGS. 1 to 5, a method for providing ground surface information of a construction site according to a preferred embodiment of the present invention will be described.

무인비행체(100)는 기설정된 비행 범위 내를 비행하면서 현장영상을 촬영한다. 무인비행체(100)에 의해 촬영되는 현장영상은 소정 네트워크를 통해 지표면 분류 장치(200)로 전송되고, 지표면 분류 장치(200)에서는 영상 입력부(210)를 통해 무인비행체(100)가 촬영한 현장영상을 입력받는다(S300).The unmanned aerial vehicle 100 takes a field image while flying within a preset flight range. The field image captured by the unmanned aerial vehicle 100 is transmitted to the ground surface classification device 200 through a predetermined network, and the field image captured by the unmanned air vehicle 100 is transmitted through the image input unit 210 in the ground surface classification device 200. is input (S300).

영상 입력부(210)를 통해 입력받은 현장영상은 그리드 구획부(220)에 의해 기설정된 크기의 그리드로 구획된다(S310). 그리드는 현장 상황 및 현장 종류에 따라 그 크기 및 개수가 다를 수 있다.The field image received through the image input unit 210 is partitioned into a grid having a preset size by the grid partitioning unit 220 (S310). Grids may vary in size and number depending on site conditions and types of sites.

그리드 구획부(220)에 의해 그리드가 구획되면, 그리드 단위의 영상은 분류부(230)로 입력된다. 지표면 분류부(232)에서는 각 그리드에 대하여 지표면 혹은 비지표면으로 분류하고(S320), 객체 분류부(234)에서는 그리드 중 비지표면으로 분류된 그리드에 대하여 객체를 추출한다(S330).When the grid is partitioned by the grid partitioning unit 220 , the grid unit image is input to the classifying unit 230 . The ground surface classifying unit 232 classifies each grid into a land surface or a non-terrestrial surface (S320), and the object classifying unit 234 extracts an object from a grid classified as a non-terrestrial surface among the grids (S330).

모든 그리드에 대하여 객체 추출이 완료되면, 클래스 정의부(240)에서는 각 그리드에 대한 클래스를 정의하고(S340), 클래스 정보 생성부(250)는 클래스 정의부(240)에 의해 생성된 클래스에 따라 클래스 정보를 생성한다(S350). 클래스 정보는 사용자에게 제공하기 위한 목적으로 생성되는 정보로, 각 그리드에 정의된 클래스, 및 클래스가 포함된 그리드의 위치정보를 포함할 수 있다.When object extraction is completed for all grids, the class definition unit 240 defines a class for each grid (S340), and the class information generation unit 250 determines the class according to the class generated by the class definition unit 240. Class information is generated (S350). Class information is information generated for the purpose of providing to users, and may include classes defined in each grid and location information of grids including the classes.

클래스 정보 생성부(250)에 의해 생성된 클래스 정보는 사용자 인터페이스부(260)를 통해 사용자에게 제공된다(S360).The class information generated by the class information generation unit 250 is provided to the user through the user interface unit 260 (S360).

이러한 동작에 의해, 넓은 건설현장 특히, 광범위하게 분포하게 되는 도로공사 현장에서 드론과 같은 무인비행체(100)를 통해 촬영한 현장영상을 촬영하면, 지표면 분류 장치(200)에서 그리드를 구획하고, 그리드별로 객체를 추출하여 클래스 정보를 사용자에게 제공한다. 이에 의해, 사용자는 공사에 유해한 영향을 끼치는 객체들의 종류 및 위치를 쉽게 파악할 수 있다.By this operation, when a field image taken through an unmanned aerial vehicle 100 such as a drone is taken at a wide construction site, in particular, a road construction site that is widely distributed, the ground surface classification device 200 divides the grid, and the grid Each object is extracted and class information is provided to the user. As a result, the user can easily grasp the types and positions of objects that have a harmful effect on the construction.

본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art to which the present invention pertains will understand that the present invention may be embodied in other specific forms without changing its technical spirit or essential features. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.

100 : 무인비행체 200 : 지표면 분류 장치
210 : 영상 입력부 220 : 그리드 구획부
230 : 분류부 232 : 지표면 분류부
234 : 객체 분류부 240 : 클래스 정의부
250 : 클래스 정보 생성부 260 : 사용자 인터페이스부
270 : 저장부 270 : 제어부
100: unmanned aerial vehicle 200: ground classification device
210: video input unit 220: grid division unit
230: classification unit 232: ground surface classification unit
234: object classification unit 240: class definition unit
250: class information generation unit 260: user interface unit
270: storage unit 270: control unit

Claims (9)

건설현장의 항공에서 현장영상을 촬영하는 무인비행체;
상기 무인비행체에 의해 촬영된 상기 현장영상을 이용하여 지표면 정보를 분류하는 지표면 분류 장치;를 포함하며,
상기 지표면 분류 장치는,
상기 무인비행체로부터 상기 현장영상을 입력받는 영상 입력부;
상기 입력받은 현장영상을 기설정된 크기의 그리드로 구획하는 그리드 구획부;
상기 구획된 그리드를 지표면 및 비지표면 중 하나로 분류하고, 상기 비지표면으로 분류된 그리드 내에서 객체를 추출하는 분류부;
상기 분류부의 동작 결과에 따라, 상기 그리드의 클래스를 정의하는 클래스 정의부;
상기 정의된 클래스에 따라 클래스 정보를 생성하는 클래스 정보 생성부; 및
상기 생성된 클래스 정보를 사용자에게 제공하는 사용자 인터페이스부;를 포함하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 시스템.
An unmanned aerial vehicle that takes on-site images from the air at a construction site;
A ground surface classification device for classifying ground surface information using the field image captured by the unmanned aerial vehicle; includes,
The ground surface classification device,
an image input unit receiving the field image from the unmanned aerial vehicle;
a grid division unit dividing the received field image into a grid having a preset size;
a classification unit that classifies the partitioned grid into one of a ground surface and a non-terrestrial surface, and extracts an object from the grid classified as a non-terrestrial surface;
a class definition unit defining a class of the grid according to an operation result of the classification unit;
a class information generating unit generating class information according to the defined class; and
A system for providing ground surface information at a construction site, comprising: a user interface unit for providing the generated class information to a user.
제 1 항에 있어서,
상기 그리드 구획부는, 상기 현장영상을 5m×5m의 그리드로 구획하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 시스템.
According to claim 1,
The grid partitioning unit divides the field image into a 5m×5m grid.
제 1 항에 있어서,
상기 분류부는,
상기 그리드를 상기 지표면 및 상기 비지표면으로 분류하는 지표면 분류부; 및
상기 비지표면으로 분류된 그리드 내에서 객체를 분류하는 객체 분류부;를 포함하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 시스템.
According to claim 1,
The classification unit,
a ground surface classification unit that classifies the grid into the land surface and the non-terrestrial surface; and
A ground surface information providing system for a construction site comprising: an object classification unit for classifying objects within the grid classified as the non-surface.
제 1 항에 있어서,
상기 지표면 분류부는, 기구축된 제1 데이터셋에 의해 동작하는 레스넷(ResNet)-101 네트워크로 구성되고,
상기 객체 분류부는, 기구축된 제2 데이터셋에 의해 동작하는 레스넷-101 네트워크로 구성되는 것을 특징으로 하는 건설현장의 지표면 정보 제공 시스템.
According to claim 1,
The ground surface classification unit is composed of a ResNet-101 network operated by a first data set that has been scaled,
The object classification unit is composed of a Resnet-101 network operated by the second data set that has been built-up.
제 1 항에 있어서,
상기 클래스 정보 생성부는, 상기 정의된 클래스, 상기 클래스가 포함된 그리드의 위치정보를 포함하는 클래스 정보를 생성하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 시스템.
According to claim 1,
The system for providing ground surface information at a construction site, characterized in that the class information generating unit generates class information including the defined class and location information of a grid including the class.
무인비행체로부터 건설현장의 항공에서 촬영한 현장영상을 입력받는 단계;
상기 입력받은 현장영상을 기설정된 크기의 그리드로 구획하는 단계;
상기 구획된 그리드를 지표면 및 비지표면 중 하나로 분류하는 단계:
상기 비지표면으로 분류된 그리드 내에서 객체를 추출하는 단계;
상기 분류 및 추출 결과에 따라, 상기 그리드의 클래스를 정의하는 단계;
상기 정의된 클래스에 따라 클래스 정보를 생성하는 단계; 및
상기 생성된 클래스 정보를 사용자에게 제공하는 단계;를 포함하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 방법.
Receiving an input field image taken from an aerial view of a construction site from an unmanned aerial vehicle;
Dividing the input field image into a grid having a preset size;
Classifying the partitioned grid into one of a ground surface and a non-terrestrial surface:
extracting an object from the grid classified as the non-surface;
defining a class of the grid according to a result of the classification and extraction;
generating class information according to the defined class; and
A method for providing ground surface information at a construction site, comprising: providing the generated class information to a user.
제 6 항에 있어서,
상기 구획하는 단계는, 상기 현장영상을 5m×5m의 그리드로 구획하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 방법.
According to claim 6,
In the step of partitioning, the ground surface information providing method of the construction site, characterized in that for partitioning the site image into a grid of 5m × 5m.
제 6 항에 있어서,
상기 분류하는 단계는, 기구축된 제1 데이터셋에 의해 동작하는 레스넷(ResNet)-101 네트워크에 의해 동작하고,
상기 추출하는 단계는, 기구축된 제2 데이터셋에 의해 동작하는 레스넷-101 네트워크로 구성되는 것을 특징으로 하는 건설현장의 지표면 정보 제공 방법.
According to claim 6,
The classification step is operated by the ResNet-101 network operated by the first data set that has been built up,
The method of providing ground surface information at a construction site, characterized in that the extracting step is composed of a ResNet-101 network operated by the second data set that has been built-up.
제 6 항에 있어서,
상기 생성하는 단계는, 상기 정의된 클래스, 상기 클래스가 포함된 그리드의 위치정보를 포함하는 클래스 정보를 생성하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 방법.
According to claim 6,
The generating step comprises generating class information including the defined class and location information of a grid including the class.
KR1020220051979A 2021-07-23 2022-04-27 System and method for ground surface information in construction sites KR20230015834A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210097120 2021-07-23
KR20210097120 2021-07-23

Publications (1)

Publication Number Publication Date
KR20230015834A true KR20230015834A (en) 2023-01-31

Family

ID=85109355

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220051979A KR20230015834A (en) 2021-07-23 2022-04-27 System and method for ground surface information in construction sites

Country Status (1)

Country Link
KR (1) KR20230015834A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101884920B1 (en) 2017-12-13 2018-08-03 (주)한성개발공사 Method for underground facilities positional information by uav

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101884920B1 (en) 2017-12-13 2018-08-03 (주)한성개발공사 Method for underground facilities positional information by uav

Similar Documents

Publication Publication Date Title
Khan et al. Unmanned aerial vehicle in the machine learning environment
US10846843B2 (en) Utilizing artificial intelligence with captured images to detect agricultural failure
CN115546672B (en) Forest picture processing method and system based on image processing
CN108197584A (en) A kind of recognition methods again of the pedestrian based on triple deep neural network
DE112021001971T5 (en) AUTOMATED TERRAIN-BASED DETECTION OF DRILLING PLATFORMS AND THEIR SURROUNDINGS
Young et al. Optimizing aerial imagery collection and processing parameters for drone‐based individual tree mapping in structurally complex conifer forests
Fortin et al. Instance segmentation for autonomous log grasping in forestry operations
Garforth et al. Visual appearance analysis of forest scenes for monocular SLAM
Williams et al. Three-dimensional segmentation of trees through a flexible multi-class graph cut algorithm (MCGC)
Cao et al. Benchmarking airborne laser scanning tree segmentation algorithms in broadleaf forests shows high accuracy only for canopy trees
CN112906648A (en) Method and device for classifying objects in land parcel and electronic equipment
KR20230015834A (en) System and method for ground surface information in construction sites
Linchant et al. WIMUAS: Developing a tool to review wildlife data from various UAS flight plans
CN115649501A (en) Night driving illumination system and method for unmanned aerial vehicle
Voloshyn Conceptual model of information system for drone monitoring of trees’ condition
Chen et al. Ground material classification for UAV-based photogrammetric 3D data A 2D-3D Hybrid Approach
Popescu et al. Dual networks based system for detecting and classifying harmful insects in orchards
DE202018100752U1 (en) Bayesian methodology for geospatial object / feature recognition
KR101991027B1 (en) Method and apparatus of 3d path flight for forest disaster preventing
CN114694048A (en) Sparse shrub species identification method and system based on unmanned aerial vehicle remote sensing technology
KR102254768B1 (en) Scene Graph Generation apparatus
JP7042690B2 (en) Data generator for learning
MacIntosh Surveying practices in the drone age: An accuracy and slope assessment of UAV-derived elevation products
Goh et al. Integration precision and unmanned aerial vehicles technology in oil palm management system development
Anderson Examining Aspen Expansion from before and after Prescribed Burning in a Native Fescue Grassland through Geospatial Techniques