KR102208008B1 - Method for constructing using drone - Google Patents
Method for constructing using drone Download PDFInfo
- Publication number
- KR102208008B1 KR102208008B1 KR1020200089133A KR20200089133A KR102208008B1 KR 102208008 B1 KR102208008 B1 KR 102208008B1 KR 1020200089133 A KR1020200089133 A KR 1020200089133A KR 20200089133 A KR20200089133 A KR 20200089133A KR 102208008 B1 KR102208008 B1 KR 102208008B1
- Authority
- KR
- South Korea
- Prior art keywords
- drone
- target structure
- construction target
- photographing position
- neural network
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/006—Apparatus mounted on flying objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B64C2201/127—
-
- B64C2201/146—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Abstract
Description
아래 실시예들은 드론을 이용하여 시공을 수행하는 기술에 관한 것이다.The following embodiments relate to a technology for performing construction using a drone.
특정 공간 내에서 구조물을 건축하는데 있어, 시공 공정의 진행 상황 점검은 일발적으로 시공을 수행하는 사람이 직접 현장을 방문하여, 설계도와 실제 공간에 있는 구조물을 비교함으로써 이뤄질 수 있다.In building a structure within a specific space, the progress of the construction process can be checked by a person who performs the construction directly visiting the site and comparing the design and the structure in the actual space.
시공 공정의 진행 상황은 사람의 눈으로 확인해야만 하기 때문에, 작업의 정확도나 효율성이 떨어지는 경우가 많으며, 계산과 예측의 오류도 다수 발생할 수 있다.Since the progress of the construction process must be checked with the human eye, the accuracy and efficiency of the work are often poor, and many errors in calculation and prediction can occur.
따라서, 시공 공정의 진행 상황을 점검하는데 있어, 구조물의 안전성 검사에 자동화 과정을 도입하고, 학습을 통해 최적화된 솔루션을 제시할 수 있는 딥러닝 기술에 대한 연구가 요구된다.Therefore, in checking the progress of the construction process, research on deep learning technology that can provide an optimized solution through learning and introducing an automated process to the safety inspection of the structure is required.
본 발명의 일실시예에 따르면, 제1 드론, 제2 드론, 제3 드론, 제4 드론 및 제5 드론 각각에서 촬영 위치로 이동하여 촬영으로 생성된 이미지 정보를 통해, 시공 대상 구조물의 기울기를 분석하여, 시공 대상 구조물에 대한 안전성을 검사하는 방법을 제공하기 위한 것을 그 목적으로 한다.According to an embodiment of the present invention, the inclination of the structure to be constructed is determined through image information generated by moving to the shooting location in each of the first drone, the second drone, the third drone, the fourth drone, and the fifth drone. Its purpose is to provide a method of analyzing and inspecting the safety of structures to be constructed.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the above-mentioned object, and other objects that are not mentioned will be clearly understood from the following description.
본 발명의 일실시예에 따르면, 장치에 의해 수행되는, 드론을 이용하여 시공을 수행하는 방법에 있어서, 복수의 드론 각각에 장착된 카메라에서 촬영된 이미지 정보를 획득하는 단계; 상기 복수의 드론 중 제1 드론에서 촬영된 이미지 정보에서 시공 대상 구조물이 확인되면, 상기 시공 대상 구조물의 전면 촬영 위치로 이동하는 위치 이동 제어 신호를 상기 제1 드론으로 전송하여, 상기 제1 드론이 이동하도록 제어하는 단계; 상기 시공 대상 구조물의 전면 촬영 위치로 이동한 상기 제1 드론에서 촬영된 이미지 정보에서 상기 복수의 드론 중 적어도 하나가 확인되면, 상기 시공 대상 구조물의 좌측면 촬영 위치와 거리가 가장 가까운 제2 드론을 선정하고, 상기 시공 대상 구조물의 좌측면 촬영 위치로 이동하는 위치 이동 제어 신호를 상기 제2 드론으로 전송하여, 상기 제2 드론이 이동하도록 제어하는 단계; 상기 시공 대상 구조물의 좌측면 촬영 위치로 이동한 상기 제2 드론에서 촬영된 이미지 정보에서 상기 복수의 드론 중 적어도 하나가 확인되면, 상기 시공 대상 구조물의 후면 촬영 위치와 거리가 가장 가까운 제3 드론을 선정하고, 상기 시공 대상 구조물의 후면 촬영 위치로 이동하는 위치 이동 제어 신호를 상기 제3 드론으로 전송하여, 상기 제3 드론이 이동하도록 제어하는 단계; 상기 시공 대상 구조물의 후면 촬영 위치로 이동한 상기 제3 드론에서 촬영된 이미지 정보에서 상기 복수의 드론 중 적어도 하나가 확인되면, 상기 시공 대상 구조물의 우측면 촬영 위치와 거리가 가장 가까운 제4 드론을 선정하고, 상기 시공 대상 구조물의 우측면 촬영 위치로 이동하는 위치 이동 제어 신호를 상기 제4 드론으로 전송하여, 상기 제4 드론이 이동하도록 제어하는 단계; 상기 시공 대상 구조물의 우측면 촬영 위치로 이동한 상기 제4 드론에서 촬영된 이미지 정보에서 상기 복수의 드론 중 적어도 하나가 확인되면, 상기 시공 대상 구조물의 평면 촬영 위치와 거리가 가장 가까운 제5 드론을 선정하고, 상기 시공 대상 구조물의 평면 촬영 위치로 이동하는 위치 이동 제어 신호를 상기 제5 드론으로 전송하여, 상기 제5 드론이 이동하도록 제어하는 단계; 및 상기 제1 드론, 상기 제2 드론, 상기 제3 드론, 상기 제4 드론 및 상기 제5 드론 각각에서 촬영 위치로 이동하여 촬영으로 생성된 이미지 정보를 통해, 상기 시공 대상 구조물의 기울기를 분석하여, 상기 시공 대상 구조물에 대한 안전성을 검사하는 단계를 포함하는, 드론을 이용한 시공 방법이 제공된다.According to an embodiment of the present invention, there is provided a method of performing construction using a drone, performed by an apparatus, comprising: acquiring image information photographed by a camera mounted on each of a plurality of drones; When the construction target structure is identified from the image information captured by the first drone among the plurality of drones, a position movement control signal moving to the front shooting position of the construction target structure is transmitted to the first drone, and the first drone Controlling to move; When at least one of the plurality of drones is identified in the image information taken by the first drone that has moved to the front shooting position of the construction target structure, a second drone having the closest distance to the left side of the construction target structure is selected. Selecting and transmitting a position movement control signal moving to a photographing position on the left side of the construction target structure to the second drone, and controlling the second drone to move; When at least one of the plurality of drones is identified in the image information captured by the second drone that has moved to the left side of the construction target structure, the third drone having the closest distance to the rear shooting position of the construction target structure is selected. Selecting and transmitting a position movement control signal moving to the rear photographing position of the construction target structure to the third drone, and controlling the third drone to move; When at least one of the plurality of drones is identified in the image information captured by the third drone moved to the rear photographing position of the construction target structure, a fourth drone having the closest distance to the right side of the construction target structure is selected. And transmitting a position movement control signal moving to a right-side photographing position of the construction target structure to the fourth drone to control the fourth drone to move; When at least one of the plurality of drones is identified in the image information taken by the fourth drone moved to the right side of the construction target structure, a fifth drone having the closest distance to the planar shooting position of the construction target structure is selected. And transmitting a position movement control signal moving to a plane photographing position of the construction target structure to the fifth drone, and controlling the fifth drone to move; And the first drone, the second drone, the third drone, the fourth drone, and the fifth drone, respectively, by moving to a shooting location and analyzing the slope of the construction target structure through image information generated by shooting. , A construction method using a drone is provided, comprising the step of inspecting the safety of the construction target structure.
상기 드론을 이용한 시공 방법은, 상기 제1 드론 및 상기 제3 드론 중 어느 하나에서 촬영된 이미지 정보를 통해, 상기 시공 대상 구조물이 기울어진 것으로 확인되면, 경고음을 발생하는 위험 경보 신호를 상기 제1 드론, 상기 제3 드론 및 상기 제5 드론으로 전송하여, 상기 제1 드론, 상기 제3 드론 및 상기 제5 드론에서 경보음이 발생하도록 제어하는 단계; 및 상기 제2 드론 및 상기 제4 드론 중 어느 하나에서 촬영된 이미지 정보를 통해, 상기 시공 대상 구조물이 기울어진 것으로 확인되면, 경고음을 발생하는 위험 경보 신호를 상기 제2 드론, 상기 제4 드론 및 상기 제5 드론으로 전송하여, 상기 제2 드론, 상기 제4 드론 및 상기 제5 드론에서 경보음이 발생하도록 제어하는 단계를 더 포함할 수 있다.In the construction method using the drone, when it is determined that the construction target structure is inclined through image information photographed by one of the first drone and the third drone, a danger warning signal that generates a warning sound is transmitted to the first Controlling the first drone, the third drone, and the fifth drone to generate an alarm sound by transmitting to a drone, the third drone, and the fifth drone; And when it is confirmed that the structure to be constructed is tilted through image information captured by any one of the second drone and the fourth drone, a danger warning signal for generating a warning sound is transmitted to the second drone, the fourth drone, and The method may further include controlling to generate an alarm sound from the second drone, the fourth drone, and the fifth drone by transmitting to the fifth drone.
상기 제1 드론, 상기 제2 드론, 상기 제3 드론, 상기 제4 드론 및 상기 제5 드론이 이동하도록 제어하는 단계는, 상기 제1 드론에서 촬영된 이미지 정보, 상기 제1 드론과 상기 시공 대상 구조물 간의 거리 값에 기초하여, 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 제1 컨볼루션 신경망에 입력하여 상기 시공 대상 구조물의 전면 촬영 위치, 좌측면 촬영 위치, 후면 촬영 위치, 우측면 촬영 위치, 평면 촬영 위치 및 촬영 위치별 안전 거리 데이터를 포함하는 제1 출력 신호를 획득하는 단계; 및 상기 제1 출력 신호에 기초하여, 상기 제1 드론이 상기 시공 대상 구조물의 전면 촬영 위치로 이동하도록 제어하고, 상기 제2 드론이 상기 시공 대상 구조물의 좌측면 촬영 위치로 이동하도록 제어하고, 상기 제3 드론이 상기 시공 대상 구조물의 후면 촬영 위치로 이동하도록 제어하고, 상기 제4 드론이 상기 시공 대상 구조물의 우측면 촬영 위치로 이동하도록 제어하고, 상기 제5 드론이 상기 시공 대상 구조물의 평면 촬영 위치로 이동하도록 제어하는 단계를 포함하며, 상기 시공 대상 구조물에 대한 안전성 검사 단계는, 상기 제1 드론, 상기 제2 드론, 상기 제3 드론, 상기 제4 드론 및 상기 제5 드론 각각에 촬영 신호를 전송하여, 상기 시공 대상 구조물을 중심으로 180도 회전 촬영하도록 제어하는 단계; 상기 180도 회전 촬영으로 생성된 이미지 정보, 상기 시공 대상 구조물의 전면 촬영 위치, 좌측면 촬영 위치, 후면 촬영 위치, 우측면 촬영 위치 및 평면 촬영 위치에 기초하여, 제2 입력 신호를 생성하는 단계; 상기 제2 입력 신호를 제2 컨볼루션 신경망에 입력하여 제2 출력 신호를 획득하는 단계; 상기 제2 출력 신호에 기초하여, 상기 시공 대상 구조물의 주변 공간 및 주변 사물의 3D 모델을 생성하고, 상기 시공 대상 구조물을 3D 모델 상에 위치시키는 단계; 상기 3D 모델에 기초하여, 제3 입력 신호를 생성하는 단계; 상기 제3 입력 신호를 뉴럴 네트워크에 입력하는 단계; 상기 뉴럴 네트워크의 제어 결과에 기초하여, 제3 출력 신호를 획득하는 단계; 및 상기 제3 출력 신호에 기초하여, 상기 시공 대상 구조물에 대한 안전성을 검사하는 단계를 포함할 수 있다.The controlling of the first drone, the second drone, the third drone, the fourth drone, and the fifth drone to move may include image information photographed by the first drone, the first drone and the construction target Generating a first input signal based on a distance value between structures; The first input signal is input to the first convolutional neural network to include a front photographing position, a left photographing position, a rear photographing position, a right photographing position, a plane photographing position, and safety distance data for each photographing position. 1 obtaining an output signal; And based on the first output signal, controlling the first drone to move to the front photographing position of the construction target structure, and controlling the second drone to move to the left photographing position of the construction target structure, and the The third drone is controlled to move to the rear photographing position of the construction target structure, the fourth drone is controlled to move to the right side photographing position of the construction target structure, and the fifth drone is the planar photographing position of the construction target structure. And controlling to move to, and the safety inspection step for the structure to be constructed includes a photographing signal to each of the first drone, the second drone, the third drone, the fourth drone, and the fifth drone. Transmitting and controlling to rotate 180 degrees around the structure to be constructed; Generating a second input signal based on the image information generated by the 180 degree rotational photographing, a front photographing position, a left photographing position, a rear photographing position, a right photographing position, and a plane photographing position of the construction target structure; Inputting the second input signal to a second convolutional neural network to obtain a second output signal; Generating a 3D model of the surrounding space and surrounding objects of the construction target structure based on the second output signal, and positioning the construction target structure on the 3D model; Generating a third input signal based on the 3D model; Inputting the third input signal to a neural network; Obtaining a third output signal based on a control result of the neural network; And checking the safety of the construction target structure based on the third output signal.
상기 제1 컨볼루션 신경망은, 상기 제1 드론을 통해 촬영된 이미지 정보, 상기 제1 드론과 상기 시공 대상 구조물 간의 거리 값을 인코딩하여 생성된 제1 입력 신호를 입력으로 하고, 상기 제1 입력 신호에 기초하여, 설계도 상에서 상기 시공 대상 구조물의 위치, 크기 및 모양에 기초하여 상기 시공 대상 구조물의 중심을 나타내는 중심 위치; 상기 제1 드론, 상기 제2 드론, 상기 제3 드론, 상기 제4 드론 및 상기 제5 드론 각각이 촬영 위치로 이동하는데 있어 안전하게 비행하기 위한 상기 시공 대상 구조물 및 상기 주변 사물로부터의 최소 이격 거리를 나타내는 상기 촬영 위치별 안전 거리; 상기 전면 촬영 위치의 이동을 위해 안전 거리를 통해 설정된 상기 제1 드론의 이동 경로; 상기 우측면 촬영 위치의 이동을 위해 안전 거리를 통해 설정된 상기 제2 드론의 이동 경로; 상기 후면 촬영 위치의 이동을 위해 안전 거리를 통해 설정된 상기 제3 드론의 이동 경로; 상기 좌측면 촬영 위치의 이동을 위해 안전 거리를 통해 설정된 상기 제4 드론의 이동 경로; 및 상기 평면 촬영 위치의 이동을 위해 안전 거리를 통해 설정된 상기 제5 드론의 이동 경로를 특징 추출 신경망 및 분류 신경망을 통해 분류하고, 상기 분류에 기초한 제1 출력 신호를 출력으로 하고, 상기 제2 컨볼루션 신경망은, 상기 제1 드론, 상기 제2 드론, 상기 제3 드론, 상기 제4 드론 및 상기 제5 드론 각각이 180도 회전 촬영한 이미지 정보, 상기 시공 대상 구조물의 전면 촬영 위치, 좌측면 촬영 위치, 후면 촬영 위치, 우측면 촬영 위치 및 평면 촬영 위치에 기초하여 생성된 제2 입력 신호를 입력으로 하고, 상기 제2 입력 신호에 기초하여, 상기 시공 대상 구조물의 주변 공간 및 주변 사물의 특이사항들을 특징 추출 신경망 및 분류 신경망을 통해 분류하고, 상기 분류에 기초하여, 상기 시공 대상 구조물의 주변 공간 및 주변 사물에 대한 상기 3D 모델을 생성하기 위한 제2 출력 신호를 출력으로 할 수 있다.The first convolutional neural network receives image information captured by the first drone, a first input signal generated by encoding a distance value between the first drone and the structure to be constructed, as an input, and the first input signal Based on, a center position indicating the center of the construction target structure based on the location, size, and shape of the construction target structure on the design drawing; When the first drone, the second drone, the third drone, the fourth drone, and the fifth drone each move to the shooting location, the minimum distance from the construction target structure and the surrounding objects for safe flight A safety distance for each of the shooting locations; A movement path of the first drone set through a safety distance for movement of the front photographing position; A movement path of the second drone set through a safety distance for movement of the right-side photographing position; A movement path of the third drone set through a safety distance for movement of the rear photographing position; A movement path of the fourth drone set through a safety distance for movement of the left-side photographing position; And classifying a movement path of the fifth drone set through a safety distance for movement of the plane photographing position through a feature extraction neural network and a classification neural network, and outputting a first output signal based on the classification, and the second conball The lusion neural network includes image information taken by rotating each of the first drone, the second drone, the third drone, the fourth drone, and the fifth drone by 180 degrees, the front location of the construction target structure, and the left side shot A second input signal generated based on a location, a rear photographing position, a right-side photographing position, and a plane photographing position is input, and based on the second input signal, special matters of the surrounding space of the structure to be constructed and surrounding objects are A second output signal for generating the 3D model of the surrounding space of the construction target structure and surrounding objects may be output based on the classification through the feature extraction neural network and the classification neural network.
상기 뉴럴 네트워크는, 상기 3D 모델을 뉴럴 네트워크의 입력에 적합하도록 인코딩한 제3 입력 신호를 입력으로 하고, 상기 제3 입력 신호를 통해 상기 시공 대상 구조물의 기울기, 붕괴 가능성 및 최적화도를 판단하고, 상기 판단의 결과에 기초하여, 상기 시공 대상 구조물에 대한 안전성 검사 결과를 포함하는 제3 출력 신호를 출력으로 할 수 있다.The neural network receives as an input a third input signal, which is encoded to be suitable for the input of the neural network, the 3D model, and determines a slope, a collapse probability, and an optimization degree of the structure to be constructed through the third input signal, Based on the result of the determination, a third output signal including a safety test result for the structure to be constructed may be output.
본 발명의 일실시예에 따르면, 제1 드론, 제2 드론, 제3 드론, 제4 드론 및 제5 드론 각각에서 촬영 위치로 이동하여 촬영으로 생성된 이미지 정보를 통해, 시공 대상 구조물의 기울기를 분석하여, 시공 대상 구조물에 대한 안전성을 검사함으로써, 시공 대상 구조물에 대한 안전성을 용이하게 평가할 수 있다.According to an embodiment of the present invention, the inclination of the structure to be constructed is determined through image information generated by moving to the shooting location in each of the first drone, the second drone, the third drone, the fourth drone, and the fifth drone. By analyzing and inspecting the safety of the construction target structure, it is possible to easily evaluate the safety of the construction target structure.
한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.On the other hand, the effects according to the embodiments are not limited to those mentioned above, and other effects that are not mentioned will be clearly understood by those of ordinary skill in the art from the following description.
도 1은 본 발명의 일실시예에 따른 장치의 구성을 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 드론을 이용하여 시공 대상 구조물에 대한 안전성을 검사하는 과정을 순서도로 나타낸 도면이다.
도 3은 본 발명의 일실시예에 따른 드론 및 인공지능을 이용하여 시공 대상 구조물에 대한 안전성을 검사하는 과정을 순서도로 나타낸 도면이다.
도 4는 일실시예에 따른 블록체인 네트워크를 설명하기 위한 도면이다.
도 5는 본 발명의 일실시예에 따른 드론의 이동을 제어하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일실시예에 따른 3D 모델을 생성하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 제1 컨볼루션 신경망, 제2 컨볼루션 신경망 및 뉴럴 네트워크를 설명하기 위한 도면이다.1 is a diagram showing the configuration of an apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a process of inspecting the safety of a structure to be constructed using a drone according to an embodiment of the present invention.
3 is a flowchart illustrating a process of inspecting the safety of a structure to be constructed using a drone and artificial intelligence according to an embodiment of the present invention.
4 is a diagram illustrating a block chain network according to an embodiment.
5 is a diagram for explaining a method of controlling the movement of a drone according to an embodiment of the present invention.
6 is a diagram illustrating a method of generating a 3D model according to an embodiment of the present invention.
7 is a diagram illustrating a first convolutional neural network, a second convolutional neural network, and a neural network according to an embodiment of the present invention.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the rights of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents, or substitutes to the embodiments are included in the scope of the rights.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be changed in various forms and implemented. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, these terms should be interpreted only for the purpose of distinguishing one component from other components. For example, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being "connected" to another component, it is to be understood that it may be directly connected or connected to the other component, but other components may exist in the middle.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for illustrative purposes only and should not be interpreted as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the embodiments, the detailed description thereof will be omitted.
도 1은 본 발명의 일실시예에 따른 장치의 구성을 나타내는 도면이다.1 is a diagram showing the configuration of an apparatus according to an embodiment of the present invention.
일실시예에 따른 장치(101)는 프로세서(102) 및 메모리(103)를 포함한다. 일실시예에 따른 장치(101)는 서버 또는 단말로 구현될 수 있으며, 프로세서(102)는 도 2 내지 도 7을 통하여 후술되는 적어도 하나의 방법을 수행할 수 있다. 메모리(103)는 후술되는 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(103)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The
일실시예에 따르면, 프로세서(102)는 프로그램을 실행하고, 장치(101)를 제어할 수 있다. 프로세서(102)에 의하여 실행되는 프로그램의 코드는 메모리(103)에 저장될 수 있다. 장치(101)는 입출력 장치(도면 미표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다. According to an embodiment, the
도 2는 본 발명의 일실시예에 따른 드론을 이용하여 시공 대상 구조물에 대한 안전성을 검사하는 과정을 순서도로 나타낸 도면이다.2 is a flowchart illustrating a process of inspecting the safety of a structure to be constructed using a drone according to an embodiment of the present invention.
먼저, S201 단계에서, 장치(101)는 복수의 드론 각각에 장착된 카메라에서 촬영된 이미지 정보를 획득할 수 있다.First, in step S201, the
일실시예에 따르면, 복수의 드론 각각에는 깊이 카메라가 장착될 수 있으며, 장치(101)는 깊이 카메라에서 촬영된 이미지 정보를 통해, 깊이 카메라가 장착된 드론과 이미지 정보에서 확인된 대상 물체 간의 거리를 산출할 수 있다.According to an embodiment, a depth camera may be mounted on each of the plurality of drones, and the
S202 단계에서, 장치(101)는 복수의 드론 중 제1 드론에서 촬영된 이미지 정보에서 시공 대상 구조물이 확인되면, 시공 대상 구조물의 전면 촬영 위치로 이동하는 위치 이동 제어 신호를 제1 드론으로 전송하여, 제1 드론이 전면 촬영 위치로 이동하도록 제어할 수 있다.In step S202, when the construction target structure is identified from the image information captured by the first drone among the plurality of drones, the
즉, 장치(101)는 제1 드론에서 촬영된 이미지 정보에서 시공 대상 구조물이 확인되면, 시공 대상 구조물의 전면 부위를 촬영할 수 있는 위치로 제1 드론이 이동하도록 제어할 수 있다.That is, when the construction target structure is identified from the image information captured by the first drone, the
S203 단계에서, 장치(101)는 시공 대상 구조물의 전면 촬영 위치로 이동한 제1 드론에서 촬영된 이미지 정보에서 복수의 드론 중 적어도 하나가 확인되면, 시공 대상 구조물의 좌측면 촬영 위치와 거리가 가장 가까운 제2 드론을 선정하고, 시공 대상 구조물의 좌측면 촬영 위치로 이동하는 위치 이동 제어 신호를 제2 드론으로 전송하여, 제2 드론이 좌측면 촬영 위치로 이동하도록 제어할 수 있다.In step S203, when at least one of the plurality of drones is identified in the image information captured by the first drone moved to the front shooting position of the construction target structure, the
즉, 장치(101)는 제2 드론의 현재 위치가 시공 대상 구조물의 좌측면 부위를 촬영할 수 있는 위치와 가장 가까운 것으로 확인되면, 시공 대상 구조물의 좌측면 부위를 촬영할 수 있는 위치로 제2 드론이 이동하도록 제어할 수 있다.In other words, when the
S204 단계에서, 장치(101)는 시공 대상 구조물의 좌측면 촬영 위치로 이동한 제2 드론에서 촬영된 이미지 정보에서 복수의 드론 중 적어도 하나가 확인되면, 시공 대상 구조물의 후면 촬영 위치와 거리가 가장 가까운 제3 드론을 선정하고, 시공 대상 구조물의 후면 촬영 위치로 이동하는 위치 이동 제어 신호를 제3 드론으로 전송하여, 제3 드론이 우측면 촬영 위치로 이동하도록 제어할 수 있다.In step S204, when at least one of the plurality of drones is identified in the image information captured by the second drone that has moved to the left side shooting position of the construction target structure, the rear shooting position and the distance of the construction target structure are the most. By selecting a nearby third drone and transmitting a position movement control signal moving to the rear shooting position of the construction target structure to the third drone, it is possible to control the third drone to move to the right side shooting position.
즉, 장치(101)는 제3 드론의 현재 위치가 시공 대상 구조물의 우측면 부위를 촬영할 수 있는 위치와 가장 가까운 것으로 확인되면, 시공 대상 구조물의 우측면 부위를 촬영할 수 있는 위치로 제3 드론이 이동하도록 제어할 수 있다.That is, when it is confirmed that the current location of the third drone is closest to the location where the right side of the structure to be constructed can be photographed, the third drone moves to a location where the right side of the structure to be constructed can be photographed. Can be controlled.
S205 단계에서, 장치(101)는 시공 대상 구조물의 후면 촬영 위치로 이동한 제3 드론에서 촬영된 이미지 정보에서 복수의 드론 중 적어도 하나가 확인되면, 시공 대상 구조물의 우측면 촬영 위치와 거리가 가장 가까운 제4 드론을 선정하고, 시공 대상 구조물의 우측면 촬영 위치로 이동하는 위치 이동 제어 신호를 제4 드론으로 전송하여, 제4 드론이 후면 촬영 위치로 이동하도록 제어할 수 있다.In step S205, when at least one of the plurality of drones is identified in the image information captured by the third drone that has moved to the rear shooting position of the construction target structure, the
즉, 장치(101)는 제4 드론의 현재 위치가 시공 대상 구조물의 후면 부위를 촬영할 수 있는 위치와 가장 가까운 것으로 확인되면, 시공 대상 구조물의 후면 부위를 촬영할 수 있는 위치로 제4 드론이 이동하도록 제어할 수 있다.That is, when it is confirmed that the current location of the fourth drone is closest to the location where the rear portion of the structure to be constructed can be photographed, the fourth drone moves to a location where the rear portion of the structure to be constructed can be photographed. Can be controlled.
S206 단계에서, 장치(101)는 시공 대상 구조물의 우측면 촬영 위치로 이동한 제4 드론에서 촬영된 이미지 정보에서 복수의 드론 중 적어도 하나가 확인되면, 시공 대상 구조물의 평면 촬영 위치와 거리가 가장 가까운 제5 드론을 선정하고, 시공 대상 구조물의 평면 촬영 위치로 이동하는 위치 이동 제어 신호를 제5 드론으로 전송하여, 제5 드론이 평면 촬영 위치로 이동하도록 제어할 수 있다.In step S206, when at least one of the plurality of drones is identified from the image information captured by the fourth drone that has moved to the right-side shooting position of the construction target structure, the
즉, 장치(101)는 제5 드론의 현재 위치가 시공 대상 구조물의 평면 부위를 촬영할 수 있는 위치와 가장 가까운 것으로 확인되면, 시공 대상 구조물의 평면 부위를 촬영할 수 있는 위치로 제5 드론이 이동하도록 제어할 수 있다.That is, when the
S207 단계에서, 장치(101)는 제1 드론, 제2 드론, 제3 드론, 제4 드론 및 제5 드론 각각에서 촬영 위치로 이동하여 촬영으로 생성된 이미지 정보를 통해, 시공 대상 구조물의 기울기를 분석하여, 시공 대상 구조물에 대한 안전성을 검사할 수 있다.In step S207, the
즉, 장치(101)는 시공 대상 구조물의 전면 부위, 좌측면 부위, 우측면 부위, 후면 부위, 평면 부위를 각각 촬영한 이미지 정보를 분석하여, 다양한 각도에서 촬영한 이미지 정보를 통해 시공 대상 구조물의 기울기를 정확하게 분석할 수 있으며, 이를 통해, 시공 대상 구조물에 대한 안전성을 검사할 수 있다.That is, the
S208 단계에서, 장치(101)는 안전성 검사 결과를 통해, 시공 대상 구조물에 이상이 있는 것으로 확인되면, 제1 드론, 제2 드론, 제3 드론, 제4 드론 및 제5 드론에서 경보음이 발생하도록 제어할 수 있다.In step S208, the
일실시예에 따르면, 장치(101)는 제1 드론 및 제3 드론 중 어느 하나에서 촬영된 이미지 정보를 통해, 시공 대상 구조물이 기울어진 것으로 확인되면, 경고음을 발생하는 위험 경보 신호를 제1 드론, 제3 드론 및 제5 드론으로 전송하여, 제1 드론, 제3 드론 및 제5 드론에서 경보음이 발생하도록 제어할 수 있다.According to an embodiment, the
즉, 장치(101)는 전면 또는 후면 부위에서 촬영된 이미지 정보를 통해, 시공 대상 구조물이 기울어진 것이 확인되면, 시공 대상 구조물이 기울어진 것이 전면, 후면 및 평면 부위를 통해 확인될 수 있으므로, 전면, 후면 및 평면 부위을 촬영하는 제1 드론, 제3 드론 및 제5 드론에서만 경보음이 발생하도록 제어할 수 있다.That is, when the
일실시예에 따르면, 장치(101)는 제2 드론 및 제4 드론 중 어느 하나에서 촬영된 이미지 정보를 통해, 시공 대상 구조물이 기울어진 것으로 확인되면, 경고음을 발생하는 위험 경보 신호를 제2 드론, 제4 드론 및 제5 드론으로 전송하여, 제2 드론, 제4 드론 및 제5 드론에서 경보음이 발생하도록 제어할 수 있다.According to an embodiment, the
즉, 장치(101)는 좌측면 또는 우측면 부위에서 촬영된 이미지 정보를 통해, 시공 대상 구조물이 기울어진 것이 확인되면, 시공 대상 구조물이 기울어진 것이 좌측면, 우측면 및 평면 부위를 통해 확인될 수 있으므로, 좌측면, 우측면 및 평면 부위을 촬영하는 제2 드론, 제4 드론 및 제5 드론에서만 경보음이 발생하도록 제어할 수 있다.That is, when the
도 3은 본 발명의 일실시예에 따른 드론 및 인공지능을 이용하여 시공 대상 구조물에 대한 안전성을 검사하는 과정을 순서도로 나타낸 도면이다.3 is a flowchart illustrating a process of inspecting the safety of a structure to be constructed using a drone and artificial intelligence according to an embodiment of the present invention.
먼저, S301 단계에서, 장치(101)는 제1 드론에서 촬영된 이미지 정보, 제1 드론과 시공 대상 구조물 간의 거리 값에 기초하여, 제1 입력 신호를 생성할 수 있다.First, in step S301, the
일실시예에 따르면, 제1 드론에는 깊이 카메라가 장착될 수 있으며, 장치(101)는 깊이 카메라에서 촬영된 이미지 정보를 통해, 제1 드론과 시공 대상 구조물 간의 거리 값을 산출할 수 있다.According to an embodiment, a depth camera may be mounted on the first drone, and the
일실시예에 따르면, 장치(101)는 제1 드론에 의해 촬영된 이미지 정보 및 제1 드론과 시공 대상 구조물 간의 거리 값을 제1 컨볼루션 신경망의 입력에 적절한 형태로 인코딩할 수 있다. 장치(101)는 촬영된 이미지 정보로부터 픽셀들의 색 정보를 수치화된 값으로 변환한 데이터 시트로 인코딩할 수 있으나, 이에 국한하지 않는다. 색 정보는 픽셀이 보유한 RGB 색상, 명도, 채도 등의 정보를 포함할 수 있다. 거리 값은 cm, m 등의 단위를 사용할 수 있으며, 경우에 따라 주변 사물과의 상대적인 이격 거리를 의미할 수 있다.According to an embodiment, the
S302 단계에서, 장치(101)는 제1 입력 신호를 제1 컨볼루션 신경망에 입력하여 시공 대상 구조물의 전면 촬영 위치, 좌측면 촬영 위치, 후면 촬영 위치, 우측면 촬영 위치, 평면 촬영 위치 및 촬영 위치별 안전 거리 데이터를 포함하는 제1 출력 신호를 획득할 수 있다.In step S302, the
일실시예에 따르면, 제1 컨볼루션 신경망은 특징 추출 신경망과 분류 신경망을 통해 제1 입력 신호를 분석 및 분류할 수 있으며, 이 분류에 따라 중심 위치, 촬영 위치별 안전 거리 및 드론별 이동 경로를 결정할 수 있다. 중심 위치는 시공 대상 구조물의 중심을 나타내는 위치를 의미하고, 촬영 위치별 안전 거리는 드론들이 촬영 위치로 이동하는 동안 주변 사물로부터 안전하게 이동하기 위한 공간을 의미할 수 있으며, 드론별 이동 경로는 드론별로 정해진 촬영 위치로 이동하기 위한 경로를 의미할 수 있다. 제1 컨볼루션 신경망에 대한 자세한 설명은 도 7을 참조하여 후술한다.According to an embodiment, the first convolutional neural network may analyze and classify the first input signal through a feature extraction neural network and a classification neural network, and according to this classification, a center position, a safe distance for each shooting location, and a movement path for each drone are determined. You can decide. The central location means a location that represents the center of the structure to be constructed, and the safety distance for each shooting location can mean a space for safely moving from surrounding objects while the drones move to the shooting location, and the movement path for each drone is determined for each drone. It may mean a path for moving to the photographing location. A detailed description of the first convolutional neural network will be described later with reference to FIG. 7.
S303 단계에서, 장치(101)는 제1 출력 신호에 기초하여, 제1 드론이 시공 대상 구조물의 전면 촬영 위치로 이동하도록 제어하고, 제2 드론이 시공 대상 구조물의 좌측면 촬영 위치로 이동하도록 제어하고, 제3 드론이 시공 대상 구조물의 후면 촬영 위치로 이동하도록 제어하고, 제4 드론이 시공 대상 구조물의 우측면 촬영 위치로 이동하도록 제어하고, 제5 드론이 시공 대상 구조물의 평면 촬영 위치로 이동하도록 제어할 수 있다.In step S303, the
일실시예에 따르면, 장치(101)는 제1 출력 신호가 포함하는 정보들을 이용하여, 제1 드론, 제2 드론, 제3 드론, 제4 드론 및 제5 드론을 각각의 촬영 위치로 이동시킬 수 있으며, 촬영 위치로 이동하는 동안 안전 거리를 유지하며 이동하도록 제어하고, 중심 위치를 기준으로 전면, 좌측면, 후면, 우측면 및 평면 각각을 촬영하기 위해 드론의 이동을 제어할 수 있다.According to an embodiment, the
S304 단계에서, 장치(101)는 제1 드론, 제2 드론, 제3 드론, 제4 드론 및 제5 드론 각각에 촬영 신호를 전송하여, 시공 대상 구조물을 중심으로 180도 회전 촬영하도록 제어할 수 있다.In step S304, the
일실시예에 따르면, 제1 내지 제5 드론이 포함하는 카메라는 X축을 기준으로 180도 회전이 가능한 장비일 수 있다. 제1 내지 제5 드론이 포함하는 카메라는 X축을 따라 180도 회전하며 총 4회에 걸쳐 촬영을 진행할 수 있다. 촬영은 총 카메라가 180도를 회전하는 1.2초 동안 진행되며 0.1초 당 한 번씩 촬영이 진행될 수 있고, 최초 및 최종 0.1초 동안은 촬영이 진행되지 않을 수 있다. 최초 및 최종 0.1초 동안 촬영이 진행되지 않는 이유는 이 시간 동안 촬영되는 이미지는 시공 대상 구조물의 일부만 포함될 가능성이 크기 때문이다.According to an embodiment, a camera included in the first to fifth drones may be a device capable of rotating 180 degrees based on the X axis. The cameras included in the first to fifth drones rotate 180 degrees along the X axis and can shoot a total of four times. Shooting is performed for 1.2 seconds in which the total camera rotates 180 degrees, and shooting may be performed once per 0.1 seconds, and shooting may not be performed for the first and final 0.1 seconds. The reason why shooting is not performed for the first and last 0.1 seconds is that the image taken during this time is likely to contain only part of the structure to be constructed.
S305 단계에서, 장치(101)는 180도 회전 촬영으로 생성된 이미지 정보, 시공 대상 구조물의 전면 촬영 위치, 좌측면 촬영 위치, 후면 촬영 위치, 우측면 촬영 위치 및 평면 촬영 위치에 기초하여, 제2 입력 신호를 생성할 수 있다.In step S305, the
일실시예에 따르면, 장치(101)는 180도 회전 촬영으로 생성된 이미지 정보 및 드론의 촬영 위치 값을 제2 컨볼루션 신경망에 적합한 형태로 인코딩하여 제2 입력 신호를 생성할 수 있다. 장치(101)는 촬영된 이미지 정보로부터 픽셀들의 색 정보를 수치화된 값으로 변환한 데이터 시트로 인코딩할 수 있으나, 이에 국한하지 않는다. 색 정보는 픽셀이 보유한 RGB 색상, 명도, 채도 등의 정보를 포함할 수 있다. 촬영 위치 값은 시공 대상 공간 내의 X축, Y축 및 Z축 값을 포함할 수 있다.According to an embodiment, the
S306 단계에서, 장치(101)는 제2 입력 신호를 제2 컨볼루션 신경망에 입력하여 제2 출력 신호를 획득할 수 있다.In step S306, the
일실시예에 따르면, 제2 컨볼루션 신경망은 특징 추출 신경망 및 분류 신경망을 통해 시공 대상 구조물의 주변 공간 및 주변 사물에 대한 특이사항들을 분류할 수 있다. 제2 컨볼루션 신경망은 해당 분류에 기초하여, 시공 대상 구조물의 주변 공간 및 주변 사물에 대한 3D 모델을 생성할 수 있는 정보들을 포함한 제2 출력 신호를 출력할 수 있다. 제2 컨볼루션 신경망에 대한 자세한 설명은 도 7을 참조하여 후술한다.According to an embodiment, the second convolutional neural network may classify special items of a surrounding space of a structure to be constructed and surrounding objects through a feature extraction neural network and a classification neural network. The second convolutional neural network may output a second output signal including information capable of generating a 3D model for the surrounding space of the structure to be constructed and surrounding objects based on the classification. A detailed description of the second convolutional neural network will be described later with reference to FIG. 7.
S307 단계에서, 장치(101)는 제2 출력 신호에 기초하여, 시공 대상 구조물의 주변 공간 및 주변 사물의 3D 모델을 생성하고, 시공 대상 구조물을 3D 모델 상에 위치시킬 수 있다.In step S307, the
S308 단계에서, 장치(101)는 3D 모델에 기초하여, 제3 입력 신호를 생성할 수 있다.In step S308, the
일실시예에 따르면, 3D 모델은 시공 대상 구조물의 주변 공간 및 주변 사물로부터 점들을 이어 형성될 수 있으며, 각 점들은 시공 대상 구조물의 주변 공간 및 주변 사물에 있어 2~5m 범위마다 하나씩 지정될 수 있다. 시공 대상 구조물의 주변 공간 및 주변 사물에 대한 3D 모델은 모든 사면 및 전리 사면 균열 등의 정보를 포함할 수 있다.According to an embodiment, the 3D model may be formed by connecting points from the surrounding space and surrounding objects of the construction target structure, and each point may be designated one by one in the range of 2 to 5 m in the surrounding space and surrounding objects of the construction target structure. have. The 3D model of the surrounding space and surrounding objects of the construction target structure may include information such as all slopes and ionizing slope cracks.
일실시예에 따르면, 설계도는 설계도 프로그램에 의해 생성된 자료일 수 있으며, 3D로 형성된 설계도에서 시공 대상 구조물의 크기, 형태, 위치를 확인하여, 제2 출력 신호에 의해 생성된 시공 대상 구조물의 주변 공간 및 주변 사물에 적합한 형태로 인코딩 되어, 시공 대상 구조물이 3D 모델 상에 위치할 수 있다.According to an embodiment, the design drawing may be data generated by a design drawing program, and by checking the size, shape, and location of the structure to be constructed in the design drawing formed in 3D, the surroundings of the structure to be constructed generated by the second output signal It is encoded in a form suitable for space and surrounding objects, so that the structure to be constructed can be located on the 3D model.
장치(101)는 시공 대상 구조물이 3D 모델 상에 적합한 위치로 위치하면, 이로부터 3D 모델을 뉴럴 네트워크에 적절한 형태로 인코딩한 제3 입력 신호를 생성할 수 있다. 제3 입력 신호는 뉴럴 네트워크의 입력층 노드의 수와 동일한 120개의 값으로 이뤄진 매트릭스일 수 있다.When the structure to be constructed is located at an appropriate position on the 3D model, the
S309 단계에서, 장치(101)는 제3 입력 신호를 뉴럴 네트워크에 입력할 수 있다.In step S309, the
S310 단계에서, 장치(101)는 뉴럴 네트워크의 제어 결과에 기초하여, 제3 출력 신호를 획득할 수 있다.In step S310, the
일실시예에 따르면, 장치(101)는 제3 입력 신호를 장치(101)와 연결된 뉴럴 네트워크에 입력할 수 있는데, 뉴럴 네트워크는 120개의 입력층 노드를 가질 수 있다. 뉴럴 네트워크의 120개의 입력층 노드는 시공 대상 구조물의 주변 공간 및 주변 사물에 대한 3D 모델을 지시하는 95개의 입력층 노드와 시공 대상 구조물의 3D 모델을 지시하는 25개의 입력층 노드로 이뤄질 수 있다. 120개의 입력층 노드는 각각 속도 지연을 최소화하면서, 뉴럴 네트워크의 작동을 최적화 하고, 시공 대상 구조물의 이상 여부에 대한 판단을 위한 최대의 정보를 포함하기 위한 수일 수 있다. 뉴럴 네트워크의 출력층 노드는 총 30개일 수 있는데, 이는 속도 지연을 최소화하면서 시공 대상 구조물의 안전성 검사 결과를 최대로 포함하기 위한 최적화된 수일 수 있다. 뉴럴 네트워크에 대한 자세한 설명은 도 7을 참조하여 후술한다.According to an embodiment, the
S311 단계에서, 장치(101)는 제3 출력 신호에 기초하여, 시공 대상 구조물에 대한 안전성을 검사할 수 있다.In step S311, the
일실시예에 따르면, 장치(101)는 제3 출력 신호가 포함하는 정보를 장치(101)와 연결된 데이터 베이스 및 블록체인 네트워크에 저장할 수 있다. 장치(101)가 이처럼 제3 출력 신호를 저장하는 이유는 시공 대상 구조물에 대한 안전성 검사 결과를 저장함으로써 향후 시공 진행 여부를 확인하고, 제1 내지 제2 컨볼루션 신경망 및 뉴럴 네트워크의 재학습을 위한 자료를 획득하기 위함일 수 있다. 특히 블록체인 네트워크에의 저장은 높은 보안성을 확보하고, 각각의 네트워크 저장장치들이 해당 내용을 공유함으로써 자동으로 이를 검토하기 위함일 수 있다. 장치(101)는 제3 출력 신호를 제1 네트워크 저장장치에 전송할 수 있는데, 이는 제1 네트워크 저장장치의 사용자가 시공 대상 구조물의 시공 공정을 설계한 설계자를 포함하기 때문일 수 있다. 설계자는 제1 네트워크 저장장치로 전송된 제3 출력 신호에 기초하여 시공 대상 구조물에 대한 보수 시공을 설계할 수 있다. 블록체인 네트워크에 대한 자세한 설명은 도 4를 참조하여 후술한다.According to an embodiment, the
도 4는 일실시예에 따른 블록체인 네트워크를 설명하기 위한 도면이다.4 is a diagram illustrating a block chain network according to an embodiment.
도 4를 참조하면, 제3 출력 신호를 포함하는 블록(401)들; 각 블록(401)을 시간 순으로 연결하는 체인(402)들; 및 각 블록체인을 저장하는 제1 네트워크 저장장치(410), 제2 네트워크 저장장치(420), 제3 네트워크 저장장치(430)를 포함하는 프라이빗 블록체인 네트워크일 수 있다.4, blocks 401 including a third output signal;
일실시예에 따르면, 블록체인 네트워크의 블록(401)은 제3 출력 신호를 포함하는 데이터 베이스를 포함할 수 있다. 각 블록(401)들은 일반적으로 시간 순으로 연결이 되며, 이에 따라 10분 간격으로 새로운 블록(401)들이 생산될 수 있다. 이미 생성된 블록(401)의 내용들은 모든 네트워크 저장장치들에 저장되며, 시간 내에 과반수의 내용이 변경되지 않는 한 변경될 수 없는 구조로 되어있다. 예를 들어, 총 3개의 네트워크 저장장치를 가진 블록체인 네트워크에서 각 네트워크 저장장치 당 1개씩의 블록(401)을 가지고 있다고 했을 때, 제한된 시간 내에 2개 이상의 블록(401)의 내용을 바꾸지 못하면, 각 블록(401)은 검증을 통해 과반수와 다른 내용의 블록(401)을 과반수와 같도록 값을 재변경 시킬 수 있다. 이에 따라 높은 보안을 유지할 수 있는데, 실제로 블록체인 네트워크에 참여하는 네트워크 저장장치의 수는 수십에서 수십만에 달할 수 있기 때문에 더욱 높은 보안성을 나타낼 수 있다.According to an embodiment, the
일실시예에 따른 체인(402)들은 해시값으로 구성될 수 있다. 체인(402)들은 블록(401)을 시간 순으로 연속되도록 하는데, 이 때 해시값을 이용해 각 블록(401)들이 연결되게 할 수 있다. 블록(401)에는 제3 출력 신호 및 제3 출력 신호의 해시값, 이전 헤더 및 현 블록의 헤더를 보관할 수 있다. 여기서 현 블록의 헤더는 다음 블록에서 이전 헤더의 기능을 하게 되어 각 블록(401)들은 유기적으로 연결될 수 있다. 더불어 해시값은 블록의 내용이 조금이라도 바뀌면 완전히 다른 형태로 변형이 되는데, 이 때문에 블록(401)의 내용을 변경하려는 시도를 효과적으로 막을 수 있다. 현 블록의 헤더는 제3 출력 신호 및 제3 출력 신호의 해시값 및 이전 헤더를 포함한 총 합의 해시값이 되기 때문에, 블록(401)의 내용과 해시값을 효과적으로 수정해 보안을 해치려는 시도도 성공하기 어렵게 된다. 왜냐하면 블록(401)의 내용와 해시값을 수정하는 순간, 헤더의 내용도 바뀌게 되고 이에 따라 다음 블록에 들어가는 이전 헤더도 바뀌게 되며, 이에 따라 그 블록의 헤더도 바뀌어 다음 블록의 이전 헤더를 다시 바꾸게 될 수 있다. 즉, 이후의 모든 블록(401)을 해킹해야만 하게 된다. 따라서, 해시값을 통한 체인(402)으로 블록체인의 보안을 높일 수 있다.
일실시예에 따르면, 네트워크 저장장치들은 시공 공정을 위한 설계도를 설계한 설계자를 포함하는 제1 네트워크 저장장치(410); 시공 공정을 위한 설계도 점검 방법을 사용하는 시공업체를 포함하는 제2 네트워크 저장장치(420); 시공 공정을 의뢰한 의뢰자를 포함하는 제3 네트워크 저장장치(430); 및 각 네트워크 저장장치들을 연결하는 초고속 인터넷 연결망(403)을 포함할 수 있다. 제1, 제2 및 제3으로 분류된 네트워크 저장장치들은 포함된 실무자의 수, 사용자의 수 및 그 저장 장치의 수에 따라 그 수가 결정될 수 있다.According to an embodiment, the network storage devices include a first
일실시예에 따르면, 제1 네트워크 저장장치(410)는 시공 공정을 위한 설계도를 설계한 설계자를 포함할 수 있으며, 시공 공정을 위한 설계도 점검 방법의 설계자들은 1개 업체 혹은 그 이상일 수 있다. 제1 네트워크 저장장치(410)의 수는 각 업체가 사용하는 저장 장치의 수에 따라 그 수가 결정 될 수 있다. 제1 네트워크 저장장치(410)는 시공 공정을 위한 설계도의 점검 방법을 통해 보수 시공이 필요한 시공 대상 구조물에 대한 설계도를 수정 반영할 수 있으며, 제1 내지 제2 컨볼루션 신경망 및 뉴럴 네트워크를 위한 학습용 데이터를 제시할 수 있다.According to an embodiment, the first
일실시예에 따르면, 제2 네트워크 저장장치(420)는 시공 공정을 위한 설계도 점검 방법을 사용하는 시공업체를 포함할 수 있다. 제2 네트워크 저장장치(420)는 시공 공정을 위한 설계도 점검 방법을 사용하는 업체 및 그 사용자의 수에 따라 그 수가 결정될 수 있다. 제2 네트워크 저장장치(420)는 시공 공정을 위한 설계도 점검 방법을 사용하는 실 사용자로서, 실 사용 중에 발생하는 오류들에 대한 정보를 사용자가 수동으로 입력함으로써 제1 내지 제2 컨볼루션 신경망 및 뉴럴 네트워크의 학습을 용이하게 할 수 있다.According to an embodiment, the second
일실시예에 따르면, 제3 네트워크 저장장치(430)는 시공 공정을 의뢰한 의뢰자를 포함할 수 있다. 제3 네트워크 저장장치(430)는 시공 공정을 의뢰하는 시점에 제1 네트워크 저장장치(410)의 설계자의 허가에 따라 블록체인 네트워크의 열람 및 저장을 수행할 수 있으며, 의뢰한 시공이 완료되는 시점에 블록체인 네트워크의 제3 네트워크 저장장치(430)로서의 역할을 상실할 수 있다.According to an embodiment, the third
일실시예에 따른 초고속 인터넷 연결망(403)은 통상적으로 10Mb/s 이상의 속도를 보이는 인터넷 연결망을 의미하는데, 유선, 무선, 광케이블 기술 등을 포함하는 연결망으로 LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network) 등을 포함하나 이에 한정되지 않는다.The high-speed Internet connection network 403 according to an embodiment generally refers to an Internet connection network exhibiting a speed of 10 Mb/s or more, and is a connection network including wired, wireless, optical cable technology, etc., and is a local area network (LAN) or wireless Local Area Network), Wide Area Network (WAN), Personal Area Network (PAN), and the like, but are not limited thereto.
일실시예에 따른 시공 공정을 위한 설계도 점검 방법은 블록체인 네트워크를 통해 정보를 빅데이터화 하고, 강화된 보안을 사용할 수 있다The blueprint check method for the construction process according to an embodiment can convert information into big data through a blockchain network and use enhanced security.
도 5는 본 발명의 일실시예에 따른 드론의 이동을 제어하는 방법을 설명하기 위한 도면이다.5 is a diagram for explaining a method of controlling the movement of a drone according to an embodiment of the present invention.
도 5를 참조하면, 시공 대상 구조물(501)이 제1 드론(502)에 의해 촬영되면, 장치(101)는 제1 드론(502)에서 촬영된 이미지 정보에서 시공 대상 구조물(501)을 확인하고, 시공 대상 구조물(501)의 전면 부위를 촬영하기 위한 위치로 제1 드론(502)이 이동하도록 제어할 수 있다.5, when the
장치(101)는 제1 드론(502)과 시공 대상 구조물(501) 간의 거리 값, 시공 대상 구조물(501)의 중심 위치, 제1 드론(502)의 현재 위치, 시공 대상 구조물(501)의 전면 촬영 위치에 기초하여, 전면 촬영 위치의 이동을 위한 안전 거리를 통해 제1 드론(502)의 이동 경로를 설정하고, 제1 드론(502)은 시공 대상 구조물(501)의 전면 촬영 위치로 이동할 수 있다.The
장치(101)는 시공 대상 구조물(501)의 전면 촬영 위치로 이동한 제1 드론(502)에서 촬영된 이미지 정보에서 시공 대상 구조물(501)의 좌측면 촬영 위치와 거리가 가장 가까운 제2 드론(503)을 확인하고, 시공 대상 구조물(501)의 좌측면 부위를 촬영하기 위한 위치로 제2 드론(503)이 이동하도록 제어할 수 있다.The
장치(101)는 제2 드론(503)과 시공 대상 구조물(501) 간의 거리 값, 시공 대상 구조물(501)의 중심 위치, 제2 드론(503)의 현재 위치, 시공 대상 구조물(501)의 좌측면 촬영 위치에 기초하여, 좌측면 촬영 위치의 이동을 위한 안전 거리를 통해 제2 드론(503)의 이동 경로를 설정하고, 제2 드론(503)은 시공 대상 구조물(501)의 좌측면 촬영 위치로 이동할 수 있다.The
장치(101)는 시공 대상 구조물(501)의 좌측면 촬영 위치로 이동한 제2 드론(503)에서 촬영된 이미지 정보에서 시공 대상 구조물(501)의 후면 촬영 위치와 거리가 가장 가까운 제3 드론(504)을 확인하고, 시공 대상 구조물(501)의 후면 부위를 촬영하기 위한 위치로 제3 드론(504)이 이동하도록 제어할 수 있다.The
장치(101)는 제3 드론(504)과 시공 대상 구조물(501) 간의 거리 값, 시공 대상 구조물(501)의 중심 위치, 제3 드론(504)의 현재 위치, 시공 대상 구조물(501)의 후면 촬영 위치에 기초하여, 후면 촬영 위치의 이동을 위한 안전 거리를 통해 제3 드론(504)의 이동 경로를 설정하고, 제3 드론(504)은 시공 대상 구조물(501)의 후면 촬영 위치로 이동할 수 있다.The
장치(101)는 시공 대상 구조물(501)의 후면 촬영 위치로 이동한 제3 드론(504)에서 촬영된 이미지 정보에서 시공 대상 구조물(501)의 우측면 촬영 위치와 거리가 가장 가까운 제4 드론(505)을 확인하고, 시공 대상 구조물(501)의 우측면 부위를 촬영하기 위한 위치로 제4 드론(505)이 이동하도록 제어할 수 있다.The
장치(101)는 제4 드론(505)과 시공 대상 구조물(501) 간의 거리 값, 시공 대상 구조물(501)의 중심 위치, 제4 드론(505)의 현재 위치, 시공 대상 구조물(501)의 우측면 촬영 위치에 기초하여, 우측면 촬영 위치의 이동을 위한 안전 거리를 통해 제4 드론(505)의 이동 경로를 설정하고, 제4 드론(505)은 시공 대상 구조물(501)의 우측면 촬영 위치로 이동할 수 있다.The
장치(101)는 시공 대상 구조물(501)의 우측면 촬영 위치로 이동한 제4 드론(505)에서 촬영된 이미지 정보에서 시공 대상 구조물(501)의 평면 촬영 위치와 거리가 가장 가까운 제5 드론(506)을 확인하고, 시공 대상 구조물(501)의 평면 부위를 촬영하기 위한 위치로 제5 드론(506)이 이동하도록 제어할 수 있다.The
장치(101)는 제5 드론(506)과 시공 대상 구조물(501) 간의 거리 값, 시공 대상 구조물(501)의 중심 위치, 제5 드론(506)의 현재 위치, 시공 대상 구조물(501)의 평면 촬영 위치에 기초하여, 평면 촬영 위치의 이동을 위한 안전 거리를 통해 제5 드론(506)의 이동 경로를 설정하고, 제5 드론(506)은 시공 대상 구조물(501)의 평면 촬영 위치로 이동할 수 있다.The
도 6은 본 발명의 일실시예에 따른 3D 모델을 생성하는 방법을 설명하기 위한 도면이다.6 is a diagram illustrating a method of generating a 3D model according to an embodiment of the present invention.
도 6을 참조하면, 장치(101)는 제1 드론(502), 제2 드론(503), 제3 드론(504), 제4 드론(505) 및 제5 드론(506) 각각에서 180도 회전 촬영한 이미지 정보를 통해, 시공 대상 구조물(501)의 전면, 좌측면, 후면, 우측면 및 평면 부위에 대한 이미지를 획득할 수 있으며, 이를 통해, 시공 대상 구조물(501)의 주변 공간 및 주변 사물에 대한 3D 모델(601)을 생성할 수 있다.6, the
도 7은 본 발명의 일 실시예에 따른 제1 컨볼루션 신경망, 제2 컨볼루션 신경망 및 뉴럴 네트워크를 설명하기 위한 도면이다.7 is a diagram illustrating a first convolutional neural network, a second convolutional neural network, and a neural network according to an embodiment of the present invention.
도 7을 참조하면, 제1 컨볼루션 신경망(710)은 제1 드론(502)을 통해 촬영된 이미지 정보, 제1 드론(502)과 시공 대상 구조물(501) 간의 거리 값을 인코딩하여 생성된 제1 입력 신호(701)를 입력으로 할 수 있다.Referring to FIG. 7, the first convolutional neural network 710 is generated by encoding image information photographed through the
장치(101)는 제1 드론(502)이 시공 대상 구조물(501) 및 주변 사물이 충분히 포함될 수 있는 고도에서 촬영한 이미지 정보 및 제1 드론(502)과 시공 대상 구조물(501) 간의 거리 값을 수치화된 데이터 시트로 인코딩하는 방식으로 제1 입력 신호(701)를 생성할 수 있다. 장치(101)는 이미지 정보를 인코딩하는 과정에서 이미지 속 각 픽셀의 색 정보를 수치화할 수 있다. 이미지의 색 정보는 RGB 색상, 명도, 채도를 포함할 수 있으나, 이에 국한하지 않는다.The
일실시예에 따르면, 제1 컨볼루션 신경망(710)은 사람에 의해 수동으로 조정된 제1 드론(502), 제2 드론(503), 제3 드론(504), 제4 드론(505) 및 제5 드론(506) 각각의 최초 위치에 대해, 10000개를 통해 테스트 데이터 및 정답을 지정해 미리 학습될 수 있다. 제1 컨볼루션 신경망(710)의 학습은 정답과 출력값의 오차를 바탕으로 이뤄지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 제1 컨볼루션 신경망(710)은 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다.According to an embodiment, the first convolutional neural network 710 is a
제1 컨볼루션 신경망(710)은 제1 입력 신호(701)에 기초하여, 특징 추출 신경망과 분류 신경망을 통해 중심 위치, 촬영 위치별 안전 거리, 드론별 이동 경로를 분류할 수 있다.The first convolutional neural network 710 may classify a center location, a safe distance for each photographing location, and a moving path for each drone through a feature extraction neural network and a classification neural network based on the first input signal 701.
일실시예에 따르면, 중심 위치는 설계도 상에서 시공 대상 구조물(501)의 위치, 크기 및 모양에 기초하여 시공 대상 구조물(501)의 중심을 나타내는 위치 값일 수 있다.According to an embodiment, the center position may be a position value indicating the center of the
일실시예에 따르면, 촬영 위치별 안전 거리는 제1 드론(502), 제2 드론(503), 제3 드론(504), 제4 드론(505) 및 제5 드론(506) 각각이 촬영 위치로 이동하는데 있어 안전하게 비행하기 위한 시공 대상 구조물 및 주변 사물로부터의 최소 이격 거리를 나타내는 거리 값일 수 있다.According to an embodiment, the safety distance for each shooting location is the
즉, 전면 촬영 위치의 안전 거리는 제1 드론(502)이 전면 촬영 위치로 이동하는데 있어 안전한 거리를 나타낼 수 있으며, 좌측면 촬영 위치의 안전 거리는 제2 드론(503)이 좌측면 촬영 위치로 이동하는데 있어 안전한 거리를 나타낼 수 있으며, 후면 촬영 위치의 안전 거리는 제3 드론(504)이 후면 촬영 위치로 이동하는데 있어 안전한 거리를 나타낼 수 있으며, 우측면 촬영 위치의 안전 거리는 제4 드론(505)이 우측면 촬영 위치로 이동하는데 있어 안전한 거리를 나타낼 수 있으며, 평면 촬영 위치의 안전 거리는 제5 드론(506)이 평면 촬영 위치로 이동하는데 있어 안전한 거리를 나타낼 수 있다.That is, the safety distance of the front shooting position may represent a safe distance for the
일실시예에 따르면, 드론별 이동 경로는 제1 드론(502), 제2 드론(503), 제3 드론(504), 제4 드론(505) 및 제5 드론(506) 각각이 촬영 위치로 이동하기 위해 설정된 이동 경로를 나타낼 수 있다.According to an embodiment, the movement path for each drone is the
즉, 제1 드론(502)의 이동 경로는 전면 촬영 위치의 이동을 위해 안전 거리를 통해 설정될 수 있으며, 제2 드론(503)의 이동 경로는 좌측면 촬영 위치의 이동을 위해 안전 거리를 통해 설정될 수 있으며, 제3 드론(504)의 이동 경로는 후면 촬영 위치의 이동을 위해 안전 거리를 통해 설정될 수 있으며, 제4 드론(505)의 이동 경로는 우측면 촬영 위치의 이동을 위해 안전 거리를 통해 설정될 수 있으며, 제5 드론(506)의 이동 경로는 평면 촬영 위치의 이동을 위해 안전 거리를 통해 설정될 수 있다.In other words, The movement path of the
일실시예에 따른 제1 컨볼루션 신경망(710)의 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조정되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행될 수 있다. 분류 신경망은 은닉층과 출력층을 가지고 있다. 드론을 이용한 시공 방법을 위한 제1 컨볼루션 신경망(710)에서는 일반적으로 은닉층이 3개 이상 존재하며, 각 은닉층의 노드는 100개로 지정하나 경우에 따라 그 이상 또는 이하로 정할 수 있다. 은닉층 노드의 수는 학습을 최적화하고, 연산 오류를 최소화할 수 있는 수일 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 제1 컨볼루션 신경망(710)의 출력층 노드는 총 9개로 이뤄질 수 있으며, 1번째 노드는 중심 위치를 포함하고, 2번째 내지 4번째 노드는 촬영 위치별 안전 거리를 포함하고, 5번째 내지 9번째 노드는 드론별 이동 경로를 포함할 수 있다. 9개의 출력층 노드는 시간 지연을 최소화하면서, 필수 정보를 최대로 포함하기 위한 최적화된 출력층 노드의 수일 수 있다. 제1 컨볼루션 신경망(710)의 출력은 위 9개의 출력 노드의 값을 포함하는 제1 출력 신호(702)일 수 있다.The feature extraction neural network of the first convolutional neural network 710 according to an embodiment proceeds by sequentially stacking an input signal with a convolutional layer and a pooling layer. The convolutional layer contains convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but generally a 9X9 matrix is used. The activation function generally uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting a representative value by grouping pixels in a specific area. In general, an average value or a maximum value is often used for the operation of the pooling layer, but the present invention is not limited thereto. This operation is performed using a square matrix, typically a 9X9 matrix. The convolutional layer and the pooling layer may alternately repeat until the corresponding input is sufficiently small while maintaining the difference. The classification neural network has a hidden layer and an output layer. In the first convolutional neural network 710 for a construction method using a drone, there are generally three or more hidden layers, and 100 nodes of each hidden layer are designated, but in some cases, more or less may be determined. The number of hidden layer nodes may be a number capable of optimizing learning and minimizing operation errors. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The output layer node of the first convolutional neural network 710 may be composed of a total of 9 nodes, the first node includes the center position, the 2nd to 4th nodes include the safety distance for each shooting position, and the 5th to 9th nodes The node may include a movement path for each drone. The nine output layer nodes may be the number of optimized output layer nodes for maximizing essential information while minimizing time delay. The output of the first convolutional neural network 710 may be a first output signal 702 including values of the nine output nodes.
제1 컨볼루션 신경망(710)은 제1 입력 신호(701)를 입력으로 하여, 특징 추출 신경망 및 분류 신경망의 분류에 기초한 제1 출력 신호(702)를 출력으로 할 수 있다.The first convolutional neural network 710 may receive the first input signal 701 as an input and output a first output signal 702 based on classification of the feature extraction neural network and the classification neural network.
제2 컨볼루션 신경망(720)은 제1 드론(502), 제2 드론(503), 제3 드론(504), 제4 드론(505) 및 제5 드론(506) 각각이 180도 회전 촬영한 이미지 정보, 시공 대상 구조물(501)의 전면 촬영 위치, 좌측면 촬영 위치, 후면 촬영 위치, 우측면 촬영 위치 및 평면 촬영 위치 값을 인코딩하여 생성된 제2 입력 신호(703)를 입력으로 할 수 있다.The second convolutional neural network 720 is the
장치(101)는 제1 드론(502), 제2 드론(503), 제3 드론(504), 제4 드론(505) 및 제5 드론(506) 각각이 지정된 위치에서 촬영한 이미지 정보 및 시공 대상 구조물(501)의 전면 촬영 위치, 좌측면 촬영 위치, 후면 촬영 위치, 우측면 촬영 위치 및 평면 촬영 위치 값을 수치화된 데이터 시트로 인코딩하는 방식으로 제2 입력 신호(703)를 생성할 수 있다. 장치(101)는 이미지 정보를 인코딩하는 과정에서 이미지 속 각 픽셀의 색 정보를 수치화할 수 있다. 이미지의 색 정보는 RGB 색상, 명도, 채도를 포함할 수 있으나, 이에 국한하지 않는다.The
일실시예에 따르면, 제2 컨볼루션 신경망(720)은 시공 대상 구조물(501)의 주변 공간 및 주변 사물에 대한 촬영 이미지 분석 결과에 따라 생성된 3D 모델 5000개와 실제 주변 공간 및 주변 사물을 사람이 측정해 만들어 낸 3D 모델, 주변 공간 및 주변 사물에 대한 촬영 이미지 분석 결과에 따라 생성된 3D 모델 5000개를 통해 테스트 데이터 및 정답을 지정해 미리 학습될 수 있다. 제2 컨볼루션 신경망(720)의 학습은 정답과 출력값의 오차를 바탕으로 이뤄지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 제2 컨볼루션 신경망(720)은 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다.According to an embodiment, the second convolutional neural network 720 allows a person to analyze 5000 3D models generated according to the result of analyzing photographed images of the surrounding space and surrounding objects of the
제2 컨볼루션 신경망(720)은 제2 입력 신호(703)에 기초하여, 특징 추출 신경망 및 분류 신경망을 통해 시공 대상 구조물(501)의 주변 공간 및 주변 사물의 특이사항들을 분류할 수 있다. 분류된 주변 공간 및 주변 사물의 특이사항은 각 점을 연결하여 3D 모델을 생성하기 위한 정보들을 포함할 수 있으며, 사면 및 전리 사면의 균열 등을 포함할 수 있다.Based on the second input signal 703, the second convolutional neural network 720 may classify a space around the
일실시예에 따른 제2 컨볼루션 신경망(720)의 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조정되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행될 수 있다. 분류 신경망은 은닉층과 출력층을 가지고 있다. 드론을 이용한 시공 방법을 위한 제2 컨볼루션 신경망(720)에서는 일반적으로 은닉층이 5개 이상 존재하며, 각 은닉층의 노드는 70개로 지정하나 경우에 따라 그 이상 또는 이하로 정할 수 있다. 은닉층 노드의 수는 학습을 최적화하고, 연산 오류를 최소화할 수 있는 수일 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 제2 컨볼루션 신경망(720)의 출력층 노드는 총 100개일 수 있는데, 먼저 앞의 95개는 주변 공간 및 주변 사물에 대한 특이사항들을 분류한 값일 수 있고, 최종 5개의 출력층 노드는 주변 사물의 위치 데이터일 수 있다. 주변 사물의 위치 데이터 값이 없는 경우 최종 5개의 출력층 노드는 0을 출력 값으로 가질 수 있으나, 이에 국한하지 않는다. 출력층 노드를 100개로 한 이유는 시간 지연을 최소화하는 범위에서 3D 모델을 생성하기 위한 최대한의 필수 정보를 포함해 작업을 최적화하기 위함일 수 있다.The feature extraction neural network of the second convolutional neural network 720 according to an embodiment proceeds by sequentially stacking an input signal with a convolutional layer and a pooling layer. The convolutional layer contains convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but generally a 9X9 matrix is used. The activation function generally uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting a representative value by grouping pixels in a specific area. In general, an average value or a maximum value is often used for the operation of the pooling layer, but the present invention is not limited thereto. This operation is performed using a square matrix, typically a 9X9 matrix. The convolutional layer and the pooling layer may alternately repeat until the corresponding input is sufficiently small while maintaining the difference. The classification neural network has a hidden layer and an output layer. In the second convolutional neural network 720 for a construction method using a drone, there are generally five or more hidden layers, and 70 nodes of each hidden layer are designated, but more or less may be determined in some cases. The number of hidden layer nodes may be a number capable of optimizing learning and minimizing operation errors. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The number of output layer nodes of the second convolutional neural network 720 may be a total of 100. First, the first 95 nodes may be a value obtained by classifying specifics of the surrounding space and surrounding objects, and the final 5 output layer nodes are the locations of surrounding objects. It can be data. When there is no location data value of nearby objects, the last five output layer nodes may have 0 as an output value, but the present invention is not limited thereto. The reason for using 100 nodes in the output layer may be to optimize the work by including as much essential information as possible to create a 3D model in a range that minimizes time delay.
제2 컨볼루션 신경망(720)은 제2 입력 신호(703)를 입력으로 하여, 특징 추출 신경망 및 분류 신경망의 분류에 기초하여, 시공 대상 구조물(501)의 주변 공간 및 주변 사물에 대한 3D 모델(601)을 생성하기 위한 제2 출력 신호(704)를 출력으로 할 수 있다.The second convolutional neural network 720 receives the second input signal 703 as an input, and based on the classification of the feature extraction neural network and the classification neural network, a 3D model of the surrounding space of the structure to be constructed 501 and surrounding objects ( A second output signal 704 for generating 601 may be output.
뉴럴 네트워크(730)는 제2 컨볼루션 신경망(720)의 학습을 위해 사용된 5000개의 인공적인 3D 모델에 각각 2종류의 설계도를 위치시킴으로써, 2종류 중 하나만 올바른 설계도가 되도록 사용자가 지정한 값들을 바탕으로 테스트 데이터 및 정답을 수집해 학습을 수행할 수 있다. 뉴럴 네트워크(730)의 학습은 정답과 출력값의 오차를 바탕으로 이뤄지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 뉴럴 네트워크(730)는 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다.The neural network 730 places two types of blueprints in each of 5000 artificial 3D models used for learning of the second convolutional neural network 720, based on values specified by the user so that only one of the two types is correct. You can perform learning by collecting test data and correct answers. The learning of the neural network 730 is performed based on the error between the correct answer and the output value, and in some cases, an SGD using delta, a batch method, or a method following a backpropagation algorithm may be used. The neural network 730 performs training by modifying an existing weight, and in some cases, may use momentum. The cost function can be used to calculate the error, and the cross entropy function can be used as the cost function.
일실시예에 따르면, 드론을 이용한 시공 방법을 위한 뉴럴 네트워크(730)에서는 일반적으로 은닉층이 3개 이상 존재하며, 각 은닉층의 노드는 80개로 지정하나 경우에 따라 그 이상 또는 이하로 정할 수 있다. 은닉층 노드의 수는 학습을 최적화하고, 연산 오류를 최소화할 수 있는 수일 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 뉴럴 네트워크(730)는 은닉층을 통해 해당 3D 모델(601)에서 시공 대상 구조물(501)의 적합성, 안전성을 평가할 수 있으며, 시공 대상 구조물(501)의 기울기, 붕괴 가능성 및 및 최적화도를 판단할 수 있다. 뉴럴 네트워크(730)의 출력층 노드는 총 30개일 수 있는데, 각각의 노드는 시공 대상 구조물(501)에 대한 안전성 검사 결과를 포함할 수 있다. 출력층 노드가 30개인 이유는 뉴럴 네트워크(730)의 속도 지연을 최소화하면서 안전성 검사 결과를 최대로 포함하기 위한 최적화된 수일 수 있다. 뉴럴 네트워크(730)는 출력층 노드를 모두 포함하는 제3 출력 신호(706)를 출력으로 할 수 있다.According to an embodiment, in the neural network 730 for a construction method using a drone, there are generally three or more hidden layers, and 80 nodes of each hidden layer are designated, but more or less may be determined in some cases. The number of hidden layer nodes may be a number capable of optimizing learning and minimizing operation errors. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The neural network 730 can evaluate the suitability and safety of the
뉴럴 네트워크(730)는 3D 모델(601)을 뉴럴 네트워크(730)의 입력에 적합하도록 인코딩한 제3 입력 신호(705)를 입력으로 하고, 제3 입력 신호(705)를 통해 시공 대상 구조물(501)의 기울기, 붕괴 가능성 및 최적화도를 판단하고, 판단의 결과에 기초하여, 시공 대상 구조물(501)에 대한 안전성 검사 결과를 포함하는 제3 출력 신호(706)를 출력으로 할 수 있다.The neural network 730 receives a third input signal 705, which is encoded to be suitable for the input of the neural network 730, the
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices, methods, and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, such as one or more general purpose computers or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, various technical modifications and variations can be applied based on those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments and claims and equivalents fall within the scope of the following claims.
101 : 장치 102 : 프로세서
103 : 메모리 401 : 블록
402 : 체인 403 : 초고속 인터넷 연결망
410 : 제1 네트워크 저장장치 420 : 제2 네트워크 저장장치
430 : 제3 네트워크 저장장치 501 : 시공 대상 구조물
502 : 제1 드론 503: 제2 드론
504 : 제3 드론 505 : 제4 드론
506 : 제5 드론 601 : 3D 모델
701 : 제1 입력 신호 702 : 제1 출력 신호
703 : 제2 입력 신호 704 : 제2 출력 신호
705 : 제3 입력 신호 706 : 제3 출력 신호
710 : 제1 컨볼루션 신경망 720 : 제2 컨볼루션 신경망
730 : 뉴럴 네트워크101: device 102: processor
103: memory 401: block
402: Chain 403: High-speed Internet connection network
410: first network storage device 420: second network storage device
430: third network storage device 501: structure to be constructed
502: first drone 503: second drone
504: 3rd drone 505: 4th drone
506: 5th drone 601: 3D model
701: first input signal 702: first output signal
703: second input signal 704: second output signal
705: third input signal 706: third output signal
710: first convolutional neural network 720: second convolutional neural network
730: neural network
Claims (3)
복수의 드론 각각에 장착된 카메라에서 촬영된 이미지 정보를 획득하는 단계;
상기 복수의 드론 중 제1 드론에서 촬영된 이미지 정보에서 시공 대상 구조물이 확인되면, 상기 시공 대상 구조물의 전면 촬영 위치로 이동하는 위치 이동 제어 신호를 상기 제1 드론으로 전송하여, 상기 제1 드론이 이동하도록 제어하는 단계;
상기 시공 대상 구조물의 전면 촬영 위치로 이동한 상기 제1 드론에서 촬영된 이미지 정보에서 상기 복수의 드론 중 적어도 하나가 확인되면, 상기 시공 대상 구조물의 좌측면 촬영 위치와 거리가 가장 가까운 제2 드론을 선정하고, 상기 시공 대상 구조물의 좌측면 촬영 위치로 이동하는 위치 이동 제어 신호를 상기 제2 드론으로 전송하여, 상기 제2 드론이 이동하도록 제어하는 단계;
상기 시공 대상 구조물의 좌측면 촬영 위치로 이동한 상기 제2 드론에서 촬영된 이미지 정보에서 상기 복수의 드론 중 적어도 하나가 확인되면, 상기 시공 대상 구조물의 후면 촬영 위치와 거리가 가장 가까운 제3 드론을 선정하고, 상기 시공 대상 구조물의 후면 촬영 위치로 이동하는 위치 이동 제어 신호를 상기 제3 드론으로 전송하여, 상기 제3 드론이 이동하도록 제어하는 단계;
상기 시공 대상 구조물의 후면 촬영 위치로 이동한 상기 제3 드론에서 촬영된 이미지 정보에서 상기 복수의 드론 중 적어도 하나가 확인되면, 상기 시공 대상 구조물의 우측면 촬영 위치와 거리가 가장 가까운 제4 드론을 선정하고, 상기 시공 대상 구조물의 우측면 촬영 위치로 이동하는 위치 이동 제어 신호를 상기 제4 드론으로 전송하여, 상기 제4 드론이 이동하도록 제어하는 단계;
상기 시공 대상 구조물의 우측면 촬영 위치로 이동한 상기 제4 드론에서 촬영된 이미지 정보에서 상기 복수의 드론 중 적어도 하나가 확인되면, 상기 시공 대상 구조물의 평면 촬영 위치와 거리가 가장 가까운 제5 드론을 선정하고, 상기 시공 대상 구조물의 평면 촬영 위치로 이동하는 위치 이동 제어 신호를 상기 제5 드론으로 전송하여, 상기 제5 드론이 이동하도록 제어하는 단계; 및
상기 제1 드론, 상기 제2 드론, 상기 제3 드론, 상기 제4 드론 및 상기 제5 드론 각각에서 촬영 위치로 이동하여 촬영으로 생성된 이미지 정보를 통해, 상기 시공 대상 구조물의 기울기를 분석하여, 상기 시공 대상 구조물에 대한 안전성을 검사하는 단계를 포함하며,
상기 제1 드론, 상기 제2 드론, 상기 제3 드론, 상기 제4 드론 및 상기 제5 드론이 이동하도록 제어하는 단계는,
상기 제1 드론에서 촬영된 이미지 정보, 상기 제1 드론과 상기 시공 대상 구조물 간의 거리 값에 기초하여, 제1 입력 신호를 생성하는 단계;
상기 제1 입력 신호를 제1 컨볼루션 신경망에 입력하여 상기 시공 대상 구조물의 전면 촬영 위치, 좌측면 촬영 위치, 후면 촬영 위치, 우측면 촬영 위치, 평면 촬영 위치 및 촬영 위치별 안전 거리 데이터를 포함하는 제1 출력 신호를 획득하는 단계; 및
상기 제1 출력 신호에 기초하여, 상기 제1 드론이 상기 시공 대상 구조물의 전면 촬영 위치로 이동하도록 제어하고, 상기 제2 드론이 상기 시공 대상 구조물의 좌측면 촬영 위치로 이동하도록 제어하고, 상기 제3 드론이 상기 시공 대상 구조물의 후면 촬영 위치로 이동하도록 제어하고, 상기 제4 드론이 상기 시공 대상 구조물의 우측면 촬영 위치로 이동하도록 제어하고, 상기 제5 드론이 상기 시공 대상 구조물의 평면 촬영 위치로 이동하도록 제어하는 단계를 포함하며,
상기 시공 대상 구조물에 대한 안전성 검사 단계는,
상기 제1 드론, 상기 제2 드론, 상기 제3 드론, 상기 제4 드론 및 상기 제5 드론 각각에 촬영 신호를 전송하여, 상기 시공 대상 구조물을 중심으로 180도 회전 촬영하도록 제어하는 단계;
상기 180도 회전 촬영으로 생성된 이미지 정보, 상기 시공 대상 구조물의 전면 촬영 위치, 좌측면 촬영 위치, 후면 촬영 위치, 우측면 촬영 위치 및 평면 촬영 위치에 기초하여, 제2 입력 신호를 생성하는 단계;
상기 제2 입력 신호를 제2 컨볼루션 신경망에 입력하여 제2 출력 신호를 획득하는 단계;
상기 제2 출력 신호에 기초하여, 상기 시공 대상 구조물의 주변 공간 및 주변 사물의 3D 모델을 생성하고, 상기 시공 대상 구조물을 3D 모델 상에 위치시키는 단계;
상기 3D 모델에 기초하여, 제3 입력 신호를 생성하는 단계;
상기 제3 입력 신호를 뉴럴 네트워크에 입력하는 단계;
상기 뉴럴 네트워크의 제어 결과에 기초하여, 제3 출력 신호를 획득하는 단계; 및
상기 제3 출력 신호에 기초하여, 상기 시공 대상 구조물에 대한 안전성을 검사하는 단계를 포함하며,
상기 제1 컨볼루션 신경망은,
상기 제1 드론을 통해 촬영된 이미지 정보, 상기 제1 드론과 상기 시공 대상 구조물 간의 거리 값을 인코딩하여 생성된 제1 입력 신호를 입력으로 하고,
상기 제1 입력 신호에 기초하여,
설계도 상에서 상기 시공 대상 구조물의 위치, 크기 및 모양에 기초하여 상기 시공 대상 구조물의 중심을 나타내는 중심 위치;
상기 제1 드론, 상기 제2 드론, 상기 제3 드론, 상기 제4 드론 및 상기 제5 드론 각각이 촬영 위치로 이동하는데 있어 안전하게 비행하기 위한 상기 시공 대상 구조물 및 상기 주변 사물로부터의 최소 이격 거리를 나타내는 상기 촬영 위치별 안전 거리;
상기 전면 촬영 위치의 이동을 위해 안전 거리를 통해 설정된 상기 제1 드론의 이동 경로;
상기 우측면 촬영 위치의 이동을 위해 안전 거리를 통해 설정된 상기 제2 드론의 이동 경로;
상기 후면 촬영 위치의 이동을 위해 안전 거리를 통해 설정된 상기 제3 드론의 이동 경로;
상기 좌측면 촬영 위치의 이동을 위해 안전 거리를 통해 설정된 상기 제4 드론의 이동 경로; 및
상기 평면 촬영 위치의 이동을 위해 안전 거리를 통해 설정된 상기 제5 드론의 이동 경로를 특징 추출 신경망 및 분류 신경망을 통해 분류하고,
상기 분류에 기초한 제1 출력 신호를 출력으로 하고,
상기 제2 컨볼루션 신경망은,
상기 제1 드론, 상기 제2 드론, 상기 제3 드론, 상기 제4 드론 및 상기 제5 드론 각각이 180도 회전 촬영한 이미지 정보, 상기 시공 대상 구조물의 전면 촬영 위치, 좌측면 촬영 위치, 후면 촬영 위치, 우측면 촬영 위치 및 평면 촬영 위치에 기초하여 생성된 제2 입력 신호를 입력으로 하고,
상기 제2 입력 신호에 기초하여, 상기 시공 대상 구조물의 주변 공간 및 주변 사물의 특이사항들을 특징 추출 신경망 및 분류 신경망을 통해 분류하고,
상기 분류에 기초하여, 상기 시공 대상 구조물의 주변 공간 및 주변 사물에 대한 상기 3D 모델을 생성하기 위한 제2 출력 신호를 출력으로 하는,
드론을 이용한 시공 방법.In the method of performing construction using a drone, performed by a device,
Obtaining image information captured by a camera mounted on each of the plurality of drones;
When the construction target structure is identified from the image information captured by the first drone among the plurality of drones, a position movement control signal moving to the front shooting position of the construction target structure is transmitted to the first drone, and the first drone Controlling to move;
When at least one of the plurality of drones is identified in the image information taken by the first drone that has moved to the front shooting position of the construction target structure, a second drone having the closest distance to the left side of the construction target structure is selected. Selecting and transmitting a position movement control signal moving to a photographing position on the left side of the construction target structure to the second drone, and controlling the second drone to move;
When at least one of the plurality of drones is identified in the image information captured by the second drone that has moved to the left side of the construction target structure, the third drone having the closest distance to the rear shooting position of the construction target structure is selected. Selecting and transmitting a position movement control signal moving to the rear photographing position of the construction target structure to the third drone, and controlling the third drone to move;
When at least one of the plurality of drones is identified in the image information captured by the third drone moved to the rear photographing position of the construction target structure, a fourth drone having the closest distance to the right side of the construction target structure is selected. And transmitting a position movement control signal moving to a right-side photographing position of the construction target structure to the fourth drone to control the fourth drone to move;
When at least one of the plurality of drones is identified in the image information taken by the fourth drone moved to the right side of the construction target structure, a fifth drone having the closest distance to the planar shooting position of the construction target structure is selected. And transmitting a position movement control signal moving to a plane photographing position of the construction target structure to the fifth drone, and controlling the fifth drone to move; And
The first drone, the second drone, the third drone, the fourth drone, and the fifth drone respectively move to a shooting location and analyze the slope of the construction target structure through image information generated by shooting, Including the step of inspecting the safety of the construction target structure,
Controlling the movement of the first drone, the second drone, the third drone, the fourth drone, and the fifth drone,
Generating a first input signal based on image information captured by the first drone and a distance value between the first drone and the construction target structure;
The first input signal is input to the first convolutional neural network to include a front photographing position, a left photographing position, a rear photographing position, a right photographing position, a plane photographing position, and safety distance data for each photographing position. 1 obtaining an output signal; And
Based on the first output signal, the first drone is controlled to move to the front photographing position of the construction target structure, and the second drone is controlled to move to the left photographing position of the construction target structure, and the second drone 3 Control the drone to move to the rear shooting position of the construction target structure, control the fourth drone to move to the right side shooting position of the construction target structure, and the fifth drone to the plane shooting position of the construction target structure. Including the step of controlling to move,
The safety inspection step for the construction target structure,
Transmitting a photographing signal to each of the first drone, the second drone, the third drone, the fourth drone, and the fifth drone, and controlling to rotate 180 degrees around the structure to be constructed;
Generating a second input signal based on the image information generated by the 180 degree rotational photographing, a front photographing position, a left photographing position, a rear photographing position, a right photographing position, and a plane photographing position of the construction target structure;
Inputting the second input signal to a second convolutional neural network to obtain a second output signal;
Generating a 3D model of the surrounding space and surrounding objects of the construction target structure based on the second output signal, and positioning the construction target structure on the 3D model;
Generating a third input signal based on the 3D model;
Inputting the third input signal to a neural network;
Obtaining a third output signal based on a control result of the neural network; And
Including the step of checking the safety of the construction target structure, based on the third output signal,
The first convolutional neural network,
Image information captured by the first drone, and a first input signal generated by encoding a distance value between the first drone and the construction target structure as inputs,
Based on the first input signal,
A center position indicating the center of the construction target structure based on the location, size, and shape of the construction target structure on the design drawing;
When the first drone, the second drone, the third drone, the fourth drone, and the fifth drone respectively move to the shooting location, the minimum distance from the construction target structure and the surrounding objects for safe flight A safety distance for each of the shooting locations;
A movement path of the first drone set through a safety distance for movement of the front photographing position;
A movement path of the second drone set through a safety distance for movement of the right-side photographing position;
A movement path of the third drone set through a safety distance for movement of the rear photographing position;
A movement path of the fourth drone set through a safety distance for movement of the left-side photographing position; And
Classify the movement path of the fifth drone set through a safety distance for movement of the plane photographing position through a feature extraction neural network and a classification neural network,
Outputting the first output signal based on the classification,
The second convolutional neural network,
Image information taken by rotating each of the first drone, the second drone, the third drone, the fourth drone, and the fifth drone by 180 degrees, the front location of the construction target structure, the left side shot location, and the rear shot A second input signal generated based on the position, the right-side photographing position, and the plane photographing position as input,
Based on the second input signal, the special matters of the surrounding space and surrounding objects of the construction target structure are classified through a feature extraction neural network and a classification neural network,
Based on the classification, outputting a second output signal for generating the 3D model of the surrounding space and surrounding objects of the construction target structure,
Construction method using a drone.
상기 제1 드론 및 상기 제3 드론 중 어느 하나에서 촬영된 이미지 정보를 통해, 상기 시공 대상 구조물이 기울어진 것으로 확인되면, 경고음을 발생하는 위험 경보 신호를 상기 제1 드론, 상기 제3 드론 및 상기 제5 드론으로 전송하여, 상기 제1 드론, 상기 제3 드론 및 상기 제5 드론에서 경보음이 발생하도록 제어하는 단계; 및
상기 제2 드론 및 상기 제4 드론 중 어느 하나에서 촬영된 이미지 정보를 통해, 상기 시공 대상 구조물이 기울어진 것으로 확인되면, 경고음을 발생하는 위험 경보 신호를 상기 제2 드론, 상기 제4 드론 및 상기 제5 드론으로 전송하여, 상기 제2 드론, 상기 제4 드론 및 상기 제5 드론에서 경보음이 발생하도록 제어하는 단계를 더 포함하는,
드론을 이용한 시공 방법.The method of claim 1,
When it is confirmed that the construction target structure is inclined through image information captured by one of the first and third drones, a danger warning signal that generates a warning sound is transmitted to the first drone, the third drone, and the Transmitting to a fifth drone and controlling to generate an alarm sound from the first drone, the third drone, and the fifth drone; And
When it is confirmed that the construction target structure is inclined through image information captured by any one of the second drone and the fourth drone, a danger warning signal that generates a warning sound is transmitted to the second drone, the fourth drone, and the fourth drone. Transmitting to a fifth drone, further comprising controlling to generate an alarm sound in the second drone, the fourth drone, and the fifth drone,
Construction method using a drone.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200089133A KR102208008B1 (en) | 2020-07-17 | 2020-07-17 | Method for constructing using drone |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200089133A KR102208008B1 (en) | 2020-07-17 | 2020-07-17 | Method for constructing using drone |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102208008B1 true KR102208008B1 (en) | 2021-01-28 |
Family
ID=74239118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200089133A KR102208008B1 (en) | 2020-07-17 | 2020-07-17 | Method for constructing using drone |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102208008B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102299295B1 (en) * | 2021-04-19 | 2021-09-07 | (주)레인보우테크 | Method, device and system for calculating maintenance estimate for building based on artificial intelligence using big data of video taken with drone |
KR102299586B1 (en) * | 2021-04-19 | 2021-09-08 | (주)레인보우테크 | Method, device and system for deriving building construction method based on artificial intelligence using big data of video taken with drone |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101628750B1 (en) * | 2015-07-29 | 2016-06-09 | 주식회사 에이베스트 | Method for safety prediction of terrain using a 3D aerial shooting |
KR101844726B1 (en) * | 2017-12-11 | 2018-04-02 | 이태영 | Drone for construction suprvision and the method of supervision using the same |
KR20180074325A (en) * | 2016-12-23 | 2018-07-03 | 삼성전자주식회사 | Electronic apparatus for controlling a plurality of drones and method for controlling thereof |
KR101922831B1 (en) * | 2018-01-31 | 2018-11-27 | 서울시립대학교 산학협력단 | Image analysis apparatus and method for discriminating concrete status |
KR20200013148A (en) * | 2018-07-18 | 2020-02-06 | 주식회사 케이엠티엘 | Method, system and computer program for providing defect analysis service of concrete structure |
-
2020
- 2020-07-17 KR KR1020200089133A patent/KR102208008B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101628750B1 (en) * | 2015-07-29 | 2016-06-09 | 주식회사 에이베스트 | Method for safety prediction of terrain using a 3D aerial shooting |
KR20180074325A (en) * | 2016-12-23 | 2018-07-03 | 삼성전자주식회사 | Electronic apparatus for controlling a plurality of drones and method for controlling thereof |
KR101844726B1 (en) * | 2017-12-11 | 2018-04-02 | 이태영 | Drone for construction suprvision and the method of supervision using the same |
KR101922831B1 (en) * | 2018-01-31 | 2018-11-27 | 서울시립대학교 산학협력단 | Image analysis apparatus and method for discriminating concrete status |
KR20200013148A (en) * | 2018-07-18 | 2020-02-06 | 주식회사 케이엠티엘 | Method, system and computer program for providing defect analysis service of concrete structure |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102299295B1 (en) * | 2021-04-19 | 2021-09-07 | (주)레인보우테크 | Method, device and system for calculating maintenance estimate for building based on artificial intelligence using big data of video taken with drone |
KR102299586B1 (en) * | 2021-04-19 | 2021-09-08 | (주)레인보우테크 | Method, device and system for deriving building construction method based on artificial intelligence using big data of video taken with drone |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102318772B1 (en) | Domain Separation Neural Networks | |
CN109784293B (en) | Multi-class target object detection method and device, electronic equipment and storage medium | |
KR102208008B1 (en) | Method for constructing using drone | |
CN109076148A (en) | Everyday scenes reconstruction engine | |
US20190347388A1 (en) | User image verification | |
CN110062934A (en) | The structure and movement in image are determined using neural network | |
CN108205797A (en) | A kind of panoramic video fusion method and device | |
Sadewa et al. | Fire detection using image processing techniques with convolutional neural networks | |
Lan et al. | Evolutionary predator-prey robot systems: From simulation to real world | |
KR102167187B1 (en) | Method for checking design of civil construction process | |
Dilshad et al. | Efficient Deep Learning Framework for Fire Detection in Complex Surveillance Environment. | |
US10877634B1 (en) | Computer architecture for resource allocation for course of action activities | |
Amanatiadis et al. | Real‐time surveillance detection system for medium‐altitude long‐endurance unmanned aerial vehicles | |
CN115346125B (en) | Target detection method based on deep learning | |
Togootogtokh et al. | An efficient artificial intelligence framework for UAV systems | |
CN115775055A (en) | Method, device, equipment and medium for predicting personnel evacuation time of multi-story building | |
CN115758337A (en) | Back door real-time monitoring method based on timing diagram convolutional network, electronic equipment and medium | |
KR102563346B1 (en) | System for monitoring of structural and method ithereof | |
KR102111043B1 (en) | Method for controlling electronic and mechanical equipment manufacturing | |
KR102109451B1 (en) | Method and apparatus for controlling crack repair and painting work | |
Vdovjak et al. | Modern CNNs Comparison for Fire Detection in RGB Images | |
Navardi et al. | Metae2rl: Toward metareasoning for energy-efficient multi-goal reinforcement learning with squeezed edge yolo | |
Sarwar Murshed et al. | Efficient deployment of deep learning models on autonomous robots in the ROS environment | |
Kristiani et al. | Flame and smoke recognition on smart edge using deep learning | |
Zhuang et al. | Military target detection method based on EfficientDet and Generative Adversarial Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |