KR20230015834A - System and method for ground surface information in construction sites - Google Patents
System and method for ground surface information in construction sites Download PDFInfo
- Publication number
- KR20230015834A KR20230015834A KR1020220051979A KR20220051979A KR20230015834A KR 20230015834 A KR20230015834 A KR 20230015834A KR 1020220051979 A KR1020220051979 A KR 1020220051979A KR 20220051979 A KR20220051979 A KR 20220051979A KR 20230015834 A KR20230015834 A KR 20230015834A
- Authority
- KR
- South Korea
- Prior art keywords
- grid
- ground surface
- class
- unit
- information
- Prior art date
Links
- 238000010276 construction Methods 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 13
- 238000000638 solvent extraction Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 3
- 239000011435 rock Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000013145 classification model Methods 0.000 description 5
- 230000001681 protective effect Effects 0.000 description 5
- 238000005192 partition Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000009931 harmful effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000001012 protector Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
Abstract
Description
본 발명은 건설현장의 지표면 정보 제공 시스템 및 방법에 관한 것으로서, 보다 상세하게는, 무인비행체에 의해 촬영된 현장영상으로부터 관리가 필요한 지표면 정보를 자동으로 제공하는 건설현장의 지표면 정보 제공 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for providing ground surface information at a construction site, and more particularly, to a system and method for providing ground surface information at a construction site that automatically provides ground surface information requiring management from field images captured by an unmanned aerial vehicle. it's about
건설 사업을 성공정으로 수행하기 위해서는, 지표면 정보를 신속하게 확인하여 관리하는 것이 매우 중요하다. 보다 구체적으로, 공사 진행시에 유해한 영향을 끼치는 요인들 예를 들면, 초목, 웅덩이, 큰 암석 등은 사전에 파악하여 제거 및 관리하여야 한다.In order to successfully carry out a construction project, it is very important to quickly check and manage surface information. More specifically, factors that have a harmful effect during construction, such as vegetation, puddles, and large rocks, must be identified in advance, removed, and managed.
이와 같이, 공사가 잘 진행되기 위해서는 공사를 시작하기 전에 지표면 정보를 확보하는 것이 매우 중요한데, 현재는 관리자가 직접 현장을 순회하면서 육안으로 지표면 상태를 확인하고 있는 실정이다.In this way, in order for the construction to proceed smoothly, it is very important to secure ground surface information before starting construction. Currently, the manager directly tours the site and checks the surface condition with the naked eye.
규모가 비교적 작은 공사 현장에서는 관리자가 현장을 순회하여 지표면 상태를 확인하는 것이 크게 문제가 되지 않을 수 있으나, 규모가 큰 공사 현장에서 관리자가 현장 전체를 일일이 순회하여 지표면 정보를 확보한다는 것은 쉬운 일이 아니다.In a relatively small construction site, it may not be a big problem for a manager to tour the site to check the surface condition, but in a large construction site, it is not easy for a manager to tour the entire site to obtain surface information. no.
특히, 넓은 지역에 분포하는 도로 공사 현장의 특성상, 관리자가 현장 전체를 순회하면서 지표면 정보를 확인하는데 매우 많은 시간과 비용이 소요되는 문제점이 있다.In particular, due to the nature of road construction sites distributed over a wide area, there is a problem in that it takes a lot of time and money for a manager to check surface information while touring the entire site.
전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 무인비행체에 의해 촬영된 현장영상을 그리드로 분할하고, 그리드 단위로 관리가 필요한 지표면 상의 객체들을 추출하여 정보를 제공함으로써, 공사 진행에 영향을 주는 요인들을 신속하고 정확하게 파악할 수 있도록 하는 건설현장의 지표면 정보 제공 시스템 및 방법을 제시하는 데 있다.In order to solve the above problems, the technical problem to be achieved by the present invention is to divide field images taken by unmanned aerial vehicles into grids, extract objects on the ground surface that need to be managed in grid units, and provide information to improve construction progress. The purpose of this study is to propose a system and method for providing ground surface information at a construction site so that influencing factors can be identified quickly and accurately.
본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.
전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따른 건설현장의 지표면 정보 제공 시스템은, 건설현장의 항공에서 현장영상을 촬영하는 무인비행체, 무인비행체에 의해 촬영된 현장영상을 이용하여 지표면 정보를 분류하는 지표면 분류 장치를 포함하며, 지표면 분류 장치는, 무인비행체로부터 상기 현장영상을 입력받는 영상 입력부, 입력받은 현장영상을 기설정된 크기의 그리드로 구획하는 그리드 구획부, 구획된 그리드를 지표면 및 비지표면 중 하나로 분류하고, 비지표면으로 분류된 그리드 내에서 객체를 추출하는 분류부, 분류부의 동작 결과에 따라, 그리드의 클래스를 정의하는 클래스 정의부, 정의된 클래스에 따라 클래스 정보를 생성하는 클래스 정보 생성부, 및 생성된 클래스 정보를 사용자에게 제공하는 사용자 인터페이스부를 포함한다.As a means for solving the above-described technical problem, the system for providing ground surface information of a construction site according to an embodiment of the present invention uses an unmanned aerial vehicle for photographing field images from the air at a construction site, and a field image captured by an unmanned aerial vehicle. and a ground surface classification device for classifying ground surface information, wherein the ground surface classification device includes an image input unit for receiving the field image from an unmanned aerial vehicle, a grid partitioning unit for partitioning the input field image into a grid of a predetermined size, and a partitioned grid Classification unit that classifies objects into either ground surface or non-terrestrial surface and extracts objects from the grid classified as non-surface, class definition unit that defines the class of the grid according to the operation result of the classification unit, and class information according to the defined class. It includes a class information generation unit that generates class information, and a user interface unit that provides the generated class information to a user.
바람직하게, 그리드 구획부는, 현장영상을 5m×5m의 그리드로 구획할 수 있다.Preferably, the grid partitioning unit may partition the field image into a 5m×5m grid.
또한 바람직하게, 분류부는, 그리드를 지표면 및 비지표면으로 분류하는 지표면 분류부, 및 비지표면으로 분류된 그리드 내에서 객체를 분류하는 객체 분류부를 포함할 수 있다.Preferably, the classification unit may include a ground surface classification unit for classifying grids into land surfaces and non-land surfaces, and an object classification unit for classifying objects within grids classified as non-land surfaces.
또한 바람직하게, 지표면 분류부는, 기구축된 제1 데이터셋에 의해 동작하는 레스넷(ResNet)-101 네트워크로 구성되고, 객체 분류부는, 기구축된 제2 데이터셋에 의해 동작하는 레스넷-101 네트워크로 구성될 수 있다.Also preferably, the ground surface classification unit is composed of a ResNet-101 network operating by the first data set that has been scaled, and the object classifier is ResNet-101 that operates by the second data set that has been scaled. can be made into a network.
또한 바람직하게, 클래스 정보 생성부는, 정의된 클래스, 클래스가 포함된 그리드의 위치정보를 포함하는 클래스 정보를 생성할 수 있다.Also preferably, the class information generator may generate class information including defined classes and location information of grids including the classes.
한편, 본 발명의 다른 실시 예에 따른 건설현장의 지표면 정보 제공 방법은, 무인비행체로부터 건설현장의 항공에서 촬영한 현장영상을 입력받는 단계, 입력받은 현장영상을 기설정된 크기의 그리드로 구획하는 단계, 구획된 그리드를 지표면 및 비지표면 중 하나로 분류하는 단계, 비지표면으로 분류된 그리드 내에서 객체를 추출하는 단계, 분류 및 추출 결과에 따라, 상기 그리드의 클래스를 정의하는 단계, 정의된 클래스에 따라 클래스 정보를 생성하는 단계, 및 생성된 클래스 정보를 사용자에게 제공하는 단계를 포함한다.Meanwhile, a method for providing ground surface information of a construction site according to another embodiment of the present invention includes the steps of receiving an input image of a construction site taken from the air from an unmanned aerial vehicle, and dividing the received image of the site into a grid having a preset size. , classifying the partitioned grid into one of ground surface and non-terrestrial surface, extracting objects from the grid classified as non-terrestrial surface, defining the class of the grid according to the classification and extraction result, according to the defined class Generating class information, and providing the generated class information to a user.
바람직하게, 구획하는 단계는, 현장영상을 5m×5m의 그리드로 구획할 수 있다.Preferably, in the partitioning step, the field image may be partitioned into a 5m×5m grid.
또한 바람직하게, 분류하는 단계는, 기구축된 제1 데이터셋에 의해 동작하는 레스넷(ResNet)-101 네트워크에 의해 동작하고, 추출하는 단계는, 기구축된 제2 데이터셋에 의해 동작하는 레스넷-101 네트워크로 구성될 수 있다.Also preferably, the classifying step is performed by a ResNet-101 network operated by the first previously contracted dataset, and the extracting step is performed by the ResNet-101 network operated by the second previously built-up dataset. It can be configured as a Net-101 network.
또한 바람직하게, 생성하는 단계는, 정의된 클래스, 클래스가 포함된 그리드의 위치정보를 포함하는 클래스 정보를 생성할 수 있다.Also preferably, the generating step may generate class information including defined classes and location information of grids including the classes.
본 발명에 따르면, 매우 광범위한 건설현장에서 무인비행체가 촬영한 현장영상을 이용하여 지표면 상에 공사에 영향을 끼치는 요인을 자동으로 파악함으로써, 공사진행의 효율성을 향상시키고, 수작업으로 인한 시간 및 노력을 절감할 수 있는 건설현장의 지표면 정보 제공 시스템 및 방법을 제공하는 효과가 있다.According to the present invention, the efficiency of construction progress is improved and the time and effort due to manual work is improved by automatically identifying the factors affecting the construction on the ground surface using field images taken by unmanned aerial vehicles in a very wide construction site. There is an effect of providing a system and method for providing ground surface information at a construction site that can be reduced.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
첨부된 도면은 해당 기술 분야의 통상의 기술자에게 본 발명의 내용을 보다 상세하게 설명하기 위한 것으로 본 발명의 기술적 사상이 이에 한정되는 것은 아니다.
도 1은 본 발명의 바람직한 실시예에 따른 건설현장의 지표면 정보 제공 시스템의 네트워크 구성도,
도 2는 본 발명의 바람직한 실시예에 따른 지표면 분류 장치의 블록도,
도 3은 본 발명의 바람직한 실시예에 따른 지표면 분류 장치의 분류부의 동작을 설명하기 위한 도면,
도 4는 본 발명의 바람직한 실시예에 따른 지표면 분류 장치의 동작 중 발생하는 그리드 및 클래스를 설명하기 위한 도면, 그리고,
도 5는 본 발명의 바람직한 실시예에 따른 건설현장의 지표면 정보 제공 방법을 설명하기 위한 흐름도이다. The accompanying drawings are intended to explain the contents of the present invention in more detail to those skilled in the art, but the technical spirit of the present invention is not limited thereto.
1 is a network configuration diagram of a system for providing ground surface information at a construction site according to a preferred embodiment of the present invention;
2 is a block diagram of a land surface classifier according to a preferred embodiment of the present invention;
3 is a view for explaining the operation of the classification unit of the ground surface classification device according to a preferred embodiment of the present invention;
4 is a diagram for explaining grids and classes generated during the operation of the ground surface classifier according to a preferred embodiment of the present invention; and
5 is a flowchart illustrating a method of providing ground surface information of a construction site according to a preferred embodiment of the present invention.
이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be easily understood through the following preferred embodiments in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content will be thorough and complete and the spirit of the present invention will be sufficiently conveyed to those skilled in the art.
본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한, 도면들에 있어서, 구성요소들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다.In this specification, when an element is referred to as being on another element, it means that it may be directly formed on the other element or a third element may be interposed therebetween. Also, in the drawings, the thickness of components is exaggerated for effective description of technical content.
본 명세서에서 제1, 제2 등의 용어가 구성요소들을 기술하기 위해서 사용된 경우, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시 예들은 그것의 상보적인 실시 예들도 포함한다.In this specification, when terms such as first and second are used to describe components, these components should not be limited by these terms. These terms are only used to distinguish one component from another. Embodiments described and illustrated herein also include complementary embodiments thereof.
또한, 제1 엘리먼트 (또는 구성요소)가 제2 엘리먼트(또는 구성요소) 상(ON)에서 동작 또는 실행된다고 언급될 때, 제1 엘리먼트(또는 구성요소)는 제2 엘리먼트(또는 구성요소)가 동작 또는 실행되는 환경에서 동작 또는 실행되거나 또는 제2 엘리먼트(또는 구성요소)와 직접 또는 간접적으로 상호 작용을 통해서 동작 또는 실행되는 것으로 이해되어야 할 것이다.Also, when it is said that a first element (or component) operates or is executed on (ON) a second element (or component), the first element (or component) means that the second element (or component) It should be understood that it is operated or executed in an environment in which it is operated or executed, or operated or executed through direct or indirect interaction with the second element (or component).
어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.Where an element, component, device, or system is referred to as including a component consisting of a program or software, even if not explicitly stated otherwise, that element, component, device, or system means that the program or software executes or operates. It should be understood that it includes hardware (eg, memory, CPU, etc.) or other programs or software (eg, operating system or driver required to drive hardware) required to do so.
또한, 어떤 엘리먼트(또는 구성요소)가 구현됨에 있어서 특별한 언급이 없다면, 그 엘리먼트(또는 구성요소)는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.In addition, it should be understood that, unless otherwise specified, the element (or component) may be implemented in any form of software, hardware, or both software and hardware.
또한, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.In addition, terms used in this specification are for describing embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. The terms 'comprises' and/or 'comprising' used in the specification do not exclude the presence or addition of one or more other elements.
도 1은 본 발명의 바람직한 실시예에 따른 건설현장의 지표면 정보 제공 시스템의 네트워크 구성도이다.1 is a network configuration diagram of a system for providing ground surface information at a construction site according to a preferred embodiment of the present invention.
도 1을 참조하면, 본 발명의 바람직한 실시예에 따른 건설현장의 지표면 정보 제공 시스템은, 서로 통신이 가능한 무인비행체(100), 및 지표면 분류 장치(200)로 이루어진다.Referring to FIG. 1 , a system for providing ground surface information at a construction site according to a preferred embodiment of the present invention includes an unmanned
무인비행체(Unmanned Aerial Vehicle, uncrewed aerial, UAV)(100)는 조종사가 탑승하지 않고, 지상에서 무선으로 조정하여 사전 프로그램된 경로에 따라 자동 또는 반자동으로 날아가는 비행체를 통칭하는 것으로, 통상 드론(Drone)이라 칭한다.An unmanned aerial vehicle (UAV) (100) is a collective term for an air vehicle that flies automatically or semi-automatically according to a pre-programmed route by radio control from the ground without a pilot on board. It is called.
본 건설현장의 지표면 정보 제공 시스템에서, 무인비행체(100)는 건설현장의 항공에서 현장영상을 촬영하고, 촬영된 현장영상을 지표면 분류 장치(200)로 전송한다. 무인비행체(100)는 높은 기동성으로 특히 넓은 지역에 분포하는 도로 공사 현장의 현장영상을 촬영하기에 매우 적합하다.In the ground surface information providing system of the present construction site, the unmanned
지표면 분류 장치(200)는 무인비행체(100)에 의해 촬영된 현장영상을 이용하여 지표면 정보를 분류하고, 분류된 결과를 사용자 편의를 고려한 정보의 형태로 생성하여 사용자(혹은 현장 관리자)에게 제공한다. 지표면 분류 장치(200)에 관하여는 후술하는 도 2에서 보다 상세히 설명한다.The ground
도 2는 본 발명의 바람직한 실시예에 따른 지표면 분류 장치의 블록도이다.2 is a block diagram of a land surface classifier according to a preferred embodiment of the present invention.
도 2를 참조하면, 본 발명의 바람직한 실시예에 따른 지표면 분류 장치(200)는 영상 입력부(210), 그리드 구획부(220), 분류부(230), 클래스 정의부(240), 클래스 정보 생성부(250), 사용자 인터페이스부(260), 저장부(270), 및 제어부(280)를 포함한다.Referring to FIG. 2 , the land
영상 입력부(210)는 무인비행체(100)와의 네트워크 통신을 통해, 무인비행체(100)에서 촬영된 현장영상을 입력받는다. 이를 위해, 영상 입력부(210)는 지표면 분류 장치(200) 및 무인비행체(100)간의 네트워크 인터페이스를 지원하는데, 지표면 분류 장치(200) 및 무인비행체(100)는 무선 네트워크 통신 혹은 블루투스와 같은 근거리 무선 통신을 통해 통신할 수 있다.The
그리드 구획부(220)는 영상 입력부(210)를 통해 입력된 현장영상을 기설정된 크기의 복수의 그리드(Grid)로 구획한다. 다양한 객체가 혼재되어 있는 영상에서 그리드를 구획함으로써, 후술하는 분류부(230)의 동작 단위인 하나의 그리드 내에 등작하는 물체 유형(객체)의 수를 축소시킬 수 있다. 이는, 분류 모델의 성능을 향상시키는데 매우 효과적이다. 그리드 구획부(220)에 구획되는 그리드는 후술하는 도 4에서 보다 상세히 설명한다.The
분류부(230)는 1차적으로 그리드 구획부(220)에 의해 구획된 그리드를 지표면 및 비지표면 중 하나로 분류하고, 2차적으로 비지표면으로 분류된 그리드에 한해 해당 그리드 내에서 객체를 추출한다. 여기서, 객체는, 웅덩이, 암석, 식생, 및 보호망을 포함할 수 있다.The
분류부(230)는 지표면 분류부(232), 및 객체 분류부(234)를 포함한다. 지표면 분류부(232)는 그리드 각각의 영상을 통해 각 그리드를 지표면 및 비지표면 중 하나로 분류한다. 또한, 객체 분류부(234)는 지표면 분류부(232)에 의해 비지표면으로 분류된 그리드에 한해 그리드 내의 영상으로부터 객체를 추출한다. 분류부(230)의 동작에 관하여는 후술하는 도 3d에서 보다 상세히 설명한다.The
클래스 정의부(240)는 분류부(230)의 동작 결과에 따라, 각 그리드에 클래스를 정의한다. 클래스는, 지표면으로 분류된 그리드에 대하여는 지표면 클래스로 정의하고, 비지표면으로 분류된 그리드에 대하여는 각각으로부터 추출된 객체명으로 클래스를 정의한다.The
클래스 정보 생성부(250)는 사용자에게 제공하기 위한 목적의 클래스 정보를 생성한다. 여기서, 클래스 정보는, 각 그리드별로 정의된 클래스, 클래스가 포함된 그리드의 위치정보를 포함할 수 있다.The class
사용자 인터페이스부(260)는 사용자와 지표면 분류 장치(200)와의 인터페이스를 지원하는 것으로, 클래스 정보 생성부(250)에 의해 생성된 클래스 정보를 사용자에게 제공할 수 있고, 사용자의 조작에 의한 소정 정보를 입력받을 수 있다.The
저장부(270)는 본 지표면 분류 장치(200)의 동작에 필요한 모든 정보를 저장한다. 예를 들면, 저장부(270)는 무인비행체(100)로부터 전송받은 현장영상을 저장할 수 있고, 클래스 정보 생성부(250)에 의해 생성되는 클래스 정보를 저장할 수도 있다. 또한, 저장부(270)는 분류부(230)의 동작에 필요한 데이터셋 즉, 제1 데이터셋 및 제2 데이터셋을 저장할 수 있다.The
제어부(280)는 본 지표면 분류 장치(200)의 전반적인 동작을 제어한다. 즉, 제어부(280)는 영상 입력부(210), 그리드 구획부(220), 분류부(230), 클래스 정의부(240), 클래스 정보 생성부(250), 사용자 인터페이스부(260), 및 저장부(270)들 간의 신호 입출력을 제어한다.The
도 3은 본 발명의 바람직한 실시예에 따른 지표면 분류 장치의 분류부의 동작을 설명하기 위한 도면이다.3 is a diagram for explaining the operation of the classification unit of the land surface classification apparatus according to a preferred embodiment of the present invention.
분류부(230)는 복수의 그리드로 구획된 영상(Cropped Image)에 대하여 그 각각의 영상을 분석하여 지표면과 비지표면으로 분류한다. 분류부(230)는 1차적으로 그리드를 지표면 및 비지표면으로 분류하고, 2차적으로 비지표면으로 분류된 그리드에 한해 객체를 추출한다. 이를 위해, 분류부(230)는 지표면 분류부(232) 및 객체 분류부(234)를 포함한다.The
지표면 분류부(232)는 기구축된 제1 데이터셋(DataSet)에 의해 동작하는 레스넷(ResNet)-101 네트워크를 통해 그리드를 지표면 및 비지표면으로 분류할 수 있다. 지표면 분류부(232)에서 지표면과 비지표면을 분류하는 기준은, 그리드의 영상을 분석한 결과가 흙 및 60cm 이하의 돌만으로 이루어지는 경우에 해당 그리드를 지표면으로 분류하고, 그 외에는 비지표면으로 분류한다.The ground
객체 분류부(234)는 기구축된 제2 데이터넷에 의해 동작하는 레스넷-101 네트워크를 통해 지표면 분류부(232)에 의해 비지표면으로 분류된 그리드 내의 영상으로부터 객체를 추출한다. 여기서, 객체는, 식생, 암석, 웅덩이, 및 보호망을 포함할 수 있다. 객체 분류부(234)에서 객체를 정의한 기준을 하기의 표 1에 나타내었다.The
결과적으로, 그리드로 분할된 영상들은 1차적으로는 지표면 분류부(232)에 의해 지표면 혹은 비지표면으로 구분되고, 2차적으로는 객체 분류부(234)에 의해 지표면, 식생, 암석, 웅덩이, 및 보호망으로 구분된다.As a result, the grid-divided images are firstly divided into land surfaces or non-terrestrial surfaces by the ground
전술한 바와 같이, 지표면 분류부(232) 및 객체 분류부(234)는 각각 제1 데이터셋 및 제2 데이터셋에 의해 동작하는 레스넷-101 네트워크로 구성된다. 레스넷-101 네트워크는 101개 계층으로 구성된 컨벌루션 신경망으로, 이미지넷 데이터베이스의 1백만개가 넘는 영상에 대해 훈련된 신경망의 사전 훈련된 버전을 불러올 수 있다.As described above, the ground
본 실시예에서는, 이러한 레스넷-101 네트워크를 활용하여 딥러닝 모델 아키텍쳐를 설계함으로써, 기구축된 학습 데이터셋을 바탕으로 분류 모델을 지속적으로 학습시킴으로써, 분류부(230)가 동작할 때마다 분류부(230)의 기능은 지속적으로 향상될 수 있다.In this embodiment, by designing the deep learning model architecture using the LesNet-101 network, the classification model is continuously trained based on the previously built-up training dataset, so that classification is performed whenever the
그러므로, 분류부(230)에서 그리드 단위의 영상들을 효율적으로 분류하기 위해서는, 레스넷-101 네트워크 학습을 위한 제1 데이터셋 및 제2 데이터셋의 구축이 필요하다.Therefore, in order to efficiently classify grid-based images in the
이를 위해, 실제 건설현장을 대상으로 현장영상을 촬영하여 제1 데이터셋 및 제2 데이터셋을 구축하였다. 이에 따른 분류 모델 성능 평가를 확인한 결과를 표 2에 나타내었다.To this end, the first and second datasets were constructed by taking field images of actual construction sites. The result of confirming the performance evaluation of the classification model according to this is shown in Table 2.
(Precision)accuracy
(Precision)
(Recall)recall
(Recall)
표 2를 참조하면, 실제 현장영상을 기반으로 데이터셋을 구축하여 분류 모델의 성능 평가를 수행한 결과, 대부분의 클래스에서 준수한 수준의 성능을 보임을 알 수 있다. 다만, 웅덩이 클래스의 경우에는, 모양, 형태, 색상이 매우 다양하고, 물의 빛 반사와 같은 특성으로 인해 분류 모델의 성능이 다소 떨어지나, 이러한 웅덩이 클래스에 대한 성능 절감은 분류 모델의 지속적인 업데이트로 해소될 수 있다.Referring to Table 2, as a result of evaluating the performance of the classification model by constructing a dataset based on actual field images, it can be seen that most classes show compliant performance. However, in the case of the puddle class, the shape, form, and color are very diverse, and the performance of the classification model is somewhat degraded due to characteristics such as light reflection of water. can
도 4는 본 발명의 바람직한 실시예에 따른 지표면 분류 장치의 동작 중 발생하는 그리드 및 클래스를 설명하기 위한 도면이다.4 is a diagram for explaining grids and classes generated during the operation of the ground surface classifier according to a preferred embodiment of the present invention.
무인비행체(100)로부터 현장영상이 입력되면, 그리드 구획부(220)에 의해 입력된 현장영상을 기설정된 크기의 그리드로 구획한다. 그리드 구획부(220)는 n×n 크기로 그리드를 구획할 수 있으며, 여기서 n은 5m일 수 있다. 즉, 그리드 구획부(220)는 정사각형 형태로 그리드를 구획할 수 있다. 또한, 그리드 구획부(220)에 의해 구획되는 그리드의 크기는 현장의 종류, 현장의 면적 등을 고려하여 변경될 수 있다.When a field image is input from the unmanned
그리드 구획부(220)에 의해 현장영상에 대한 그리드 구획이 완료되면, 영상은 그리드 단위로 분류부(230)에 입력된다. 분류부(230)는 지표면 분류부(232) 및 객체 분류부(234)를 포함하는데, 지표면 분류부(232)가 먼저 동작하고, 지표면 분류부(232)의 동작 결과를 이용하여 객체 분류부(234)가 동작한다.When the grid division of field images is completed by the
지표면 분류부(232)는 A와 같이 그리드 단위로 구획된 영상 각각을 제1 데이터셋에 의해 동작하는 레스넷-101 네트워크 동작에 의해 지표면 혹은 비지표면으로 분류한다.The ground
이후, 객체 분류부(234)는 A에서 비지표면으로 분류된 그리드에 한해 각각을 제2 데이터셋에 의해 동작하는 레스넷-101 네트워크 동작에 의해 객체로 분류하여, B와 같이 웅덩이, 식생, 암석, 및 보호망 중 하나로 분류한다.Thereafter, the
이후, 클래스 정의부(240)에서는 지표면 분류부(232) 및 객체 분류부(234)의 동작 결과를 이용하여, 각 그리드에 클래스를 정의한다. 여기서, 클래스 정의는 데이터 라벨링을 수행하는 동작에 해당한다. 클래스 정의부(240)에 의해, 각 그리드는 지표면, 웅덩이, 식생, 암석, 및 보호망 중 하나로 정의된다. 분류부(230)에서 최종적으로 출력되는 결과물은 B에 해당한다.Thereafter, the
도 5는 본 발명의 바람직한 실시예에 따른 건설현장의 지표면 정보 제공 방법을 설명하기 위한 흐름도이다. 5 is a flowchart illustrating a method of providing ground surface information of a construction site according to a preferred embodiment of the present invention.
여기에서는 도 1 내지 도 5를 참조하여, 본 발명의 바람직한 실시예에 따른 건설현장의 지표면 정보 제공 방법을 설명한다.Here, with reference to FIGS. 1 to 5, a method for providing ground surface information of a construction site according to a preferred embodiment of the present invention will be described.
무인비행체(100)는 기설정된 비행 범위 내를 비행하면서 현장영상을 촬영한다. 무인비행체(100)에 의해 촬영되는 현장영상은 소정 네트워크를 통해 지표면 분류 장치(200)로 전송되고, 지표면 분류 장치(200)에서는 영상 입력부(210)를 통해 무인비행체(100)가 촬영한 현장영상을 입력받는다(S300).The unmanned
영상 입력부(210)를 통해 입력받은 현장영상은 그리드 구획부(220)에 의해 기설정된 크기의 그리드로 구획된다(S310). 그리드는 현장 상황 및 현장 종류에 따라 그 크기 및 개수가 다를 수 있다.The field image received through the
그리드 구획부(220)에 의해 그리드가 구획되면, 그리드 단위의 영상은 분류부(230)로 입력된다. 지표면 분류부(232)에서는 각 그리드에 대하여 지표면 혹은 비지표면으로 분류하고(S320), 객체 분류부(234)에서는 그리드 중 비지표면으로 분류된 그리드에 대하여 객체를 추출한다(S330).When the grid is partitioned by the
모든 그리드에 대하여 객체 추출이 완료되면, 클래스 정의부(240)에서는 각 그리드에 대한 클래스를 정의하고(S340), 클래스 정보 생성부(250)는 클래스 정의부(240)에 의해 생성된 클래스에 따라 클래스 정보를 생성한다(S350). 클래스 정보는 사용자에게 제공하기 위한 목적으로 생성되는 정보로, 각 그리드에 정의된 클래스, 및 클래스가 포함된 그리드의 위치정보를 포함할 수 있다.When object extraction is completed for all grids, the
클래스 정보 생성부(250)에 의해 생성된 클래스 정보는 사용자 인터페이스부(260)를 통해 사용자에게 제공된다(S360).The class information generated by the class
이러한 동작에 의해, 넓은 건설현장 특히, 광범위하게 분포하게 되는 도로공사 현장에서 드론과 같은 무인비행체(100)를 통해 촬영한 현장영상을 촬영하면, 지표면 분류 장치(200)에서 그리드를 구획하고, 그리드별로 객체를 추출하여 클래스 정보를 사용자에게 제공한다. 이에 의해, 사용자는 공사에 유해한 영향을 끼치는 객체들의 종류 및 위치를 쉽게 파악할 수 있다.By this operation, when a field image taken through an unmanned
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art to which the present invention pertains will understand that the present invention may be embodied in other specific forms without changing its technical spirit or essential features. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.
100 : 무인비행체
200 : 지표면 분류 장치
210 : 영상 입력부
220 : 그리드 구획부
230 : 분류부
232 : 지표면 분류부
234 : 객체 분류부
240 : 클래스 정의부
250 : 클래스 정보 생성부
260 : 사용자 인터페이스부
270 : 저장부
270 : 제어부100: unmanned aerial vehicle 200: ground classification device
210: video input unit 220: grid division unit
230: classification unit 232: ground surface classification unit
234: object classification unit 240: class definition unit
250: class information generation unit 260: user interface unit
270: storage unit 270: control unit
Claims (9)
상기 무인비행체에 의해 촬영된 상기 현장영상을 이용하여 지표면 정보를 분류하는 지표면 분류 장치;를 포함하며,
상기 지표면 분류 장치는,
상기 무인비행체로부터 상기 현장영상을 입력받는 영상 입력부;
상기 입력받은 현장영상을 기설정된 크기의 그리드로 구획하는 그리드 구획부;
상기 구획된 그리드를 지표면 및 비지표면 중 하나로 분류하고, 상기 비지표면으로 분류된 그리드 내에서 객체를 추출하는 분류부;
상기 분류부의 동작 결과에 따라, 상기 그리드의 클래스를 정의하는 클래스 정의부;
상기 정의된 클래스에 따라 클래스 정보를 생성하는 클래스 정보 생성부; 및
상기 생성된 클래스 정보를 사용자에게 제공하는 사용자 인터페이스부;를 포함하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 시스템.
An unmanned aerial vehicle that takes on-site images from the air at a construction site;
A ground surface classification device for classifying ground surface information using the field image captured by the unmanned aerial vehicle; includes,
The ground surface classification device,
an image input unit receiving the field image from the unmanned aerial vehicle;
a grid division unit dividing the received field image into a grid having a preset size;
a classification unit that classifies the partitioned grid into one of a ground surface and a non-terrestrial surface, and extracts an object from the grid classified as a non-terrestrial surface;
a class definition unit defining a class of the grid according to an operation result of the classification unit;
a class information generating unit generating class information according to the defined class; and
A system for providing ground surface information at a construction site, comprising: a user interface unit for providing the generated class information to a user.
상기 그리드 구획부는, 상기 현장영상을 5m×5m의 그리드로 구획하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 시스템.
According to claim 1,
The grid partitioning unit divides the field image into a 5m×5m grid.
상기 분류부는,
상기 그리드를 상기 지표면 및 상기 비지표면으로 분류하는 지표면 분류부; 및
상기 비지표면으로 분류된 그리드 내에서 객체를 분류하는 객체 분류부;를 포함하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 시스템.
According to claim 1,
The classification unit,
a ground surface classification unit that classifies the grid into the land surface and the non-terrestrial surface; and
A ground surface information providing system for a construction site comprising: an object classification unit for classifying objects within the grid classified as the non-surface.
상기 지표면 분류부는, 기구축된 제1 데이터셋에 의해 동작하는 레스넷(ResNet)-101 네트워크로 구성되고,
상기 객체 분류부는, 기구축된 제2 데이터셋에 의해 동작하는 레스넷-101 네트워크로 구성되는 것을 특징으로 하는 건설현장의 지표면 정보 제공 시스템.
According to claim 1,
The ground surface classification unit is composed of a ResNet-101 network operated by a first data set that has been scaled,
The object classification unit is composed of a Resnet-101 network operated by the second data set that has been built-up.
상기 클래스 정보 생성부는, 상기 정의된 클래스, 상기 클래스가 포함된 그리드의 위치정보를 포함하는 클래스 정보를 생성하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 시스템.
According to claim 1,
The system for providing ground surface information at a construction site, characterized in that the class information generating unit generates class information including the defined class and location information of a grid including the class.
상기 입력받은 현장영상을 기설정된 크기의 그리드로 구획하는 단계;
상기 구획된 그리드를 지표면 및 비지표면 중 하나로 분류하는 단계:
상기 비지표면으로 분류된 그리드 내에서 객체를 추출하는 단계;
상기 분류 및 추출 결과에 따라, 상기 그리드의 클래스를 정의하는 단계;
상기 정의된 클래스에 따라 클래스 정보를 생성하는 단계; 및
상기 생성된 클래스 정보를 사용자에게 제공하는 단계;를 포함하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 방법.
Receiving an input field image taken from an aerial view of a construction site from an unmanned aerial vehicle;
Dividing the input field image into a grid having a preset size;
Classifying the partitioned grid into one of a ground surface and a non-terrestrial surface:
extracting an object from the grid classified as the non-surface;
defining a class of the grid according to a result of the classification and extraction;
generating class information according to the defined class; and
A method for providing ground surface information at a construction site, comprising: providing the generated class information to a user.
상기 구획하는 단계는, 상기 현장영상을 5m×5m의 그리드로 구획하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 방법.
According to claim 6,
In the step of partitioning, the ground surface information providing method of the construction site, characterized in that for partitioning the site image into a grid of 5m × 5m.
상기 분류하는 단계는, 기구축된 제1 데이터셋에 의해 동작하는 레스넷(ResNet)-101 네트워크에 의해 동작하고,
상기 추출하는 단계는, 기구축된 제2 데이터셋에 의해 동작하는 레스넷-101 네트워크로 구성되는 것을 특징으로 하는 건설현장의 지표면 정보 제공 방법.
According to claim 6,
The classification step is operated by the ResNet-101 network operated by the first data set that has been built up,
The method of providing ground surface information at a construction site, characterized in that the extracting step is composed of a ResNet-101 network operated by the second data set that has been built-up.
상기 생성하는 단계는, 상기 정의된 클래스, 상기 클래스가 포함된 그리드의 위치정보를 포함하는 클래스 정보를 생성하는 것을 특징으로 하는 건설현장의 지표면 정보 제공 방법.According to claim 6,
The generating step comprises generating class information including the defined class and location information of a grid including the class.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210097120 | 2021-07-23 | ||
KR20210097120 | 2021-07-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230015834A true KR20230015834A (en) | 2023-01-31 |
Family
ID=85109355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220051979A KR20230015834A (en) | 2021-07-23 | 2022-04-27 | System and method for ground surface information in construction sites |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230015834A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101884920B1 (en) | 2017-12-13 | 2018-08-03 | (주)한성개발공사 | Method for underground facilities positional information by uav |
-
2022
- 2022-04-27 KR KR1020220051979A patent/KR20230015834A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101884920B1 (en) | 2017-12-13 | 2018-08-03 | (주)한성개발공사 | Method for underground facilities positional information by uav |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Khan et al. | Unmanned aerial vehicle in the machine learning environment | |
US10846843B2 (en) | Utilizing artificial intelligence with captured images to detect agricultural failure | |
CN115546672B (en) | Forest picture processing method and system based on image processing | |
CN108197584A (en) | A kind of recognition methods again of the pedestrian based on triple deep neural network | |
DE112021001971T5 (en) | AUTOMATED TERRAIN-BASED DETECTION OF DRILLING PLATFORMS AND THEIR SURROUNDINGS | |
Young et al. | Optimizing aerial imagery collection and processing parameters for drone‐based individual tree mapping in structurally complex conifer forests | |
Fortin et al. | Instance segmentation for autonomous log grasping in forestry operations | |
Garforth et al. | Visual appearance analysis of forest scenes for monocular SLAM | |
Williams et al. | Three-dimensional segmentation of trees through a flexible multi-class graph cut algorithm (MCGC) | |
Cao et al. | Benchmarking airborne laser scanning tree segmentation algorithms in broadleaf forests shows high accuracy only for canopy trees | |
CN112906648A (en) | Method and device for classifying objects in land parcel and electronic equipment | |
KR20230015834A (en) | System and method for ground surface information in construction sites | |
Linchant et al. | WIMUAS: Developing a tool to review wildlife data from various UAS flight plans | |
CN115649501A (en) | Night driving illumination system and method for unmanned aerial vehicle | |
Voloshyn | Conceptual model of information system for drone monitoring of trees’ condition | |
Chen et al. | Ground material classification for UAV-based photogrammetric 3D data A 2D-3D Hybrid Approach | |
Popescu et al. | Dual networks based system for detecting and classifying harmful insects in orchards | |
DE202018100752U1 (en) | Bayesian methodology for geospatial object / feature recognition | |
KR101991027B1 (en) | Method and apparatus of 3d path flight for forest disaster preventing | |
CN114694048A (en) | Sparse shrub species identification method and system based on unmanned aerial vehicle remote sensing technology | |
KR102254768B1 (en) | Scene Graph Generation apparatus | |
JP7042690B2 (en) | Data generator for learning | |
MacIntosh | Surveying practices in the drone age: An accuracy and slope assessment of UAV-derived elevation products | |
Goh et al. | Integration precision and unmanned aerial vehicles technology in oil palm management system development | |
Anderson | Examining Aspen Expansion from before and after Prescribed Burning in a Native Fescue Grassland through Geospatial Techniques |