KR102299586B1 - 드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법, 장치 및 시스템 - Google Patents

드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법, 장치 및 시스템 Download PDF

Info

Publication number
KR102299586B1
KR102299586B1 KR1020210050734A KR20210050734A KR102299586B1 KR 102299586 B1 KR102299586 B1 KR 102299586B1 KR 1020210050734 A KR1020210050734 A KR 1020210050734A KR 20210050734 A KR20210050734 A KR 20210050734A KR 102299586 B1 KR102299586 B1 KR 102299586B1
Authority
KR
South Korea
Prior art keywords
area
construction
construction method
building
neural network
Prior art date
Application number
KR1020210050734A
Other languages
English (en)
Inventor
정한규
Original Assignee
(주)레인보우테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)레인보우테크 filed Critical (주)레인보우테크
Priority to KR1020210050734A priority Critical patent/KR102299586B1/ko
Application granted granted Critical
Publication of KR102299586B1 publication Critical patent/KR102299586B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • B64C2201/127
    • B64C2201/143
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

일실시에에 따르면, 장치에 의해 수행되는, 드론 촬영 영상의 빅데이터를 활용하여 인공지능 기반의 건물 시공법을 도출하는 방법에 있어서, 사용자 단말로부터 제1 건물에 대한 유지 보수 확인 요청이 수신되면, 제1 건물의 외관 정보를 획득하는 단계; 상기 외관 정보를 제1 인공 신경망에 적용하여, 상기 제1 인공 신경망의 출력을 기초로, 복수의 드론에 대한 비행경로를 생성하는 단계; 상기 비행경로를 따라 상기 복수의 드론이 이동하도록 제어하는 단계; 상기 복수의 드론이 이동하는 동안, 상기 복수의 드론 각각에 장착된 카메라에서 촬영된 촬영 영상을 획득하는 단계; 상기 촬영 영상을 합성하여 상기 제1 건물의 외관 영상을 생성하는 단계; 상기 외관 영상을 분석하여 상기 제1 건물의 외관에 유지 보수가 필요한 영역이 있는지 여부를 판단하는 단계; 상기 제1 건물의 외관 중 제1 영역의 유지 보수가 필요한 것으로 판단되면, 상기 제1 건물의 외관 영상에서 상기 제1 영역의 영상을 추출하는 단계; 상기 제1 영역의 영상 정보를 제2 인공 신경망에 적용하여, 상기 제2 인공 신경망의 출력을 기초로, 상기 제1 영역에 대한 시공법 추천 결과를 생성하는 단계; 상기 시공법 추천 결과를 통해, 상기 제1 영역에 사용될 마감재를 확인하여, 상기 제1 영역에 대한 추천 시공법을 도출하는 단계; 및 상기 제1 영역의 추천 시공법에 대한 알림 메시지를 상기 사용자 단말로 전송하는 단계를 포함하는, 드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법이 제공된다.

Description

드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR DERIVING BUILDING CONSTRUCTION METHOD BASED ON ARTIFICIAL INTELLIGENCE USING BIG DATA OF VIDEO TAKEN WITH DRONE}
아래 실시예들은 드론 촬영 영상의 빅데이터를 활용하여 인공지능 기반의 건물 시공법을 도출하는 기술에 관한 것이다.
건축물의 시공법을 결정하기 위해, 종래에는 시공을 수행하는 사람이 직접 현장을 방문하여, 설계도와 실제 공간에 있는 건축물을 비교함으로써, 건축물에 대한 시공의 필요 여부를 판단하여, 건축물에 대한 시공법이 도출될 수 있다.
하지만, 건축물의 시공법을 도출하기 위해, 사람의 눈으로 직접 확인해야만 하기 때문에, 작업의 정확도나 효율성이 떨어지는 경우가 많으며, 계산과 예측의 오류도 다수 발생할 수 있다.
따라서, 건축물에 대한 시공법을 도출하는데 있어, 건축물의 안전성 검사를 통해 건축물에 대한 시공의 필요 여부와 적합한 시공법까지 도출하는 과정을 도입하고, 학습을 통해 최적화된 솔루션을 제시할 수 있는 딥러닝 기술에 대한 연구가 요구된다.
한국공개특허 제10-2020-0091717호(2020.07.31) 한국공개특허 제10-2016-0142461호(2016.12.13) 한국공개특허 제10-2020-0113395호(2020.10.07) 한국공개특허 제10-2020-0091817호(2020.07.31)
일실시예에 따르면, 복수의 드론 각각에 장착된 카메라에서 촬영된 촬영 영상을 합성하여 건물의 외관 영상을 생성하고, 외관 영상을 분석하여 건물의 외관에 유지 보수가 필요한 영역이 있는지 여부를 판단하고, 유지 보수가 필요한 영역에 대한 추천 시공법을 도출하는, 드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
일실시예에 따르면, 장치에 의해 수행되는, 드론 촬영 영상의 빅데이터를 활용하여 인공지능 기반의 건물 시공법을 도출하는 방법에 있어서, 사용자 단말로부터 제1 건물에 대한 유지 보수 확인 요청이 수신되면, 제1 건물의 외관 정보를 획득하는 단계; 상기 외관 정보를 제1 인공 신경망에 적용하여, 상기 제1 인공 신경망의 출력을 기초로, 복수의 드론에 대한 비행경로를 생성하는 단계; 상기 비행경로를 따라 상기 복수의 드론이 이동하도록 제어하는 단계; 상기 복수의 드론이 이동하는 동안, 상기 복수의 드론 각각에 장착된 카메라에서 촬영된 촬영 영상을 획득하는 단계; 상기 촬영 영상을 합성하여 상기 제1 건물의 외관 영상을 생성하는 단계; 상기 외관 영상을 분석하여 상기 제1 건물의 외관에 유지 보수가 필요한 영역이 있는지 여부를 판단하는 단계; 상기 제1 건물의 외관 중 제1 영역의 유지 보수가 필요한 것으로 판단되면, 상기 제1 건물의 외관 영상에서 상기 제1 영역의 영상을 추출하는 단계; 상기 제1 영역의 영상 정보를 제2 인공 신경망에 적용하여, 상기 제2 인공 신경망의 출력을 기초로, 상기 제1 영역에 대한 시공법 추천 결과를 생성하는 단계; 상기 시공법 추천 결과를 통해, 상기 제1 영역에 사용될 마감재를 확인하여, 상기 제1 영역에 대한 추천 시공법을 도출하는 단계; 및 상기 제1 영역의 추천 시공법에 대한 알림 메시지를 상기 사용자 단말로 전송하는 단계를 포함하는, 드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법이 제공된다.
상기 제1 영역에 대한 추천 시공법을 도출하는 단계는, 상기 제1 영역이 상기 제1 건물의 바닥으로부터 떨어진 거리를 확인하여, 상기 제1 영역의 높이를 산출하는 단계; 상기 제1 영역의 높이가 미리 설정된 제1 기준 높이 보다 낮은지 여부를 확인하는 단계; 상기 제1 영역의 높이가 상기 제1 기준 높이 보다 낮은 것으로 확인되면, 상기 제1 영역의 추천 시공법을 사다리차를 이용한 시공법인 제1 시공법으로 설정하는 단계; 상기 제1 영역의 높이가 상기 제1 기준 높이 보다 높은 것으로 확인되면, 상기 제1 영역의 높이가 미리 설정된 제2 기준 높이 보다 낮은지 여부를 확인하는 단계; 상기 제1 영역의 높이가 상기 제2 기준 높이 보다 낮은 것으로 확인되면, 상기 제1 영역의 추천 시공법을 드론을 이용한 제2 시공법으로 설정하는 단계; 및 상기 제1 영역의 높이가 상기 제2 기준 높이 보다 높은 것으로 확인되면, 상기 제1 영역의 추천 시공법을 건물 옥상에서 하부로 연결된 구조체를 이용한 시공법인 제3 시공법으로 설정하는 단계를 포함할 수 있다.
상기 드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법은, 상기 제1 시공법, 상기 제2 시공법 및 상기 제3 시공법 중 어느 하나가 상기 제1 영역의 추천 시공법으로 설정되면, 상기 제1 영역의 추천 시공법에 대한 알림 메시지를 상기 사용자 단말로 전송하는 단계; 상기 제1 영역의 추천 시공법을 진행하기 위한 시공일이 지정되면, 상기 시공일에 대한 시공 가능 확인 요청을 상기 사용자 단말로부터 수신하는 단계; 상기 제1 건물이 위치하는 지역에 대한 기상 예측 정보를 획득하여, 상기 시공일의 예측 강수량을 확인하는 단계; 상기 시공일의 예측 강수량이 미리 설정된 제1 기준 강수량 보다 적은지 여부를 확인하는 단계; 상기 시공일의 예측 강수량이 상기 제1 기준 강수량 보다 적은 것으로 확인되면, 상기 시공일에 상기 제1 시공법, 상기 제2 시공법 및 상기 제3 시공법을 통해 시공이 가능한 것으로 판단하는 단계; 상기 시공일의 예측 강수량이 상기 제1 기준 강수량 보다 많은 것으로 확인되면, 상기 시공일의 예측 강수량이 미리 설정된 제2 기준 강수량 보다 적은지 여부를 확인하는 단계; 상기 시공일의 예측 강수량이 상기 제2 기준 강수량 보다 적은 것으로 확인되면, 상기 시공일에 상기 제1 시공법 및 상기 제2 시공법을 통해 시공이 가능한 것으로 판단하는 단계; 상기 시공일의 예측 강수량이 상기 제2 기준 강수량 보다 많은 것으로 확인되면, 상기 시공일의 예측 강수량이 미리 설정된 제3 기준 강수량 보다 적은지 여부를 확인하는 단계; 상기 시공일의 예측 강수량이 상기 제3 기준 강수량 보다 적은 것으로 확인되면, 상기 시공일에 상기 제1 시공법을 통해 시공이 가능한 것으로 판단하는 단계; 및 상기 시공일의 예측 강수량이 상기 제3 기준 강수량 보다 많은 것으로 확인되면, 상기 시공일에 시공이 불가능한 것으로 판단하는 단계를 더 포함할 수 있다.
상기 드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법은, 상기 제1 영역의 추천 시공법에 대한 알림 메시지를 전송하는 단계 이후, 상기 제1 영역의 유지 보수를 시공하기 위해 지정된 시공일에 대한 시공 가능 확인 요청을 상기 사용자 단말로부터 수신하는 단계; 상기 제1 건물이 위치하는 지역에 대한 기상 예측 정보를 획득하여, 상기 시공일의 예측 풍속을 확인하는 단계; 상기 시공일의 예측 풍속이 미리 설정된 제1 기준 풍속 보다 약한지 여부를 확인하는 단계; 상기 시공일의 예측 풍속이 상기 제1 기준 풍속 보다 약한 것으로 확인되면, 상기 시공일에 상기 제1 시공법, 상기 제2 시공법 및 상기 제3 시공법을 통해 시공이 가능한 것으로 판단하는 단계; 상기 시공일의 예측 풍속이 상기 제1 기준 풍속 보다 강한 것으로 확인되면, 상기 시공일의 예측 풍속이 미리 설정된 제2 기준 풍속 보다 약한지 여부를 확인하는 단계; 상기 시공일의 예측 풍속이 상기 제2 기준 풍속 보다 약한 것으로 확인되면, 상기 시공일에 상기 제1 시공법 및 상기 제2 시공법을 통해 시공이 가능한 것으로 판단하는 단계; 상기 시공일의 예측 풍속이 상기 제2 기준 풍속 보다 강한 것으로 확인되면, 상기 시공일의 예측 풍속이 미리 설정된 제3 기준 풍속 보다 약한지 여부를 확인하는 단계; 상기 시공일의 예측 풍속이 상기 제3 기준 풍속 보다 약한 것으로 확인되면, 상기 시공일에 상기 제1 시공법을 통해 시공이 가능한 것으로 판단하는 단계; 및 상기 시공일의 예측 풍속이 상기 제3 기준 풍속 보다 강한 것으로 확인되면, 상기 시공일에 시공이 불가능한 것으로 판단하는 단계를 더 포함할 수 있다.
상기 드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법은, 상기 제1 영역이 상기 제1 건물의 제1 면에 위치하는 것으로 확인되면, 상기 복수의 드론 중 어느 하나인 제1 드론에 장착된 라이다를 통해 상기 제1 영역의 표면에 대한 3D 데이터를 획득하고, 상기 제1 드론에 장착된 카메라를 통해 상기 제1 영역의 표면에 대한 2D 데이터를 획득하는 단계; 상기 2D 데이터와 상기 3D 데이터의 합집합 영역을 분리하여, 상기 2D 데이터 및 상기 3D 데이터를 병합한 제1 데이터를 추출하는 단계; 상기 제1 데이터를 인코딩 하여 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 제3 인공 신경망에 입력하고, 상기 제3 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득하는 단계; 상기 제1 출력 신호에 기초하여, 상기 제1 영역의 표면에 대한 제1 분류 결과를 생성하는 단계; 상기 제1 데이터를 분석하여 상기 제1 영역의 표면에 발생한 균열을 검출하는 단계; 상기 제1 영역의 표면에 발생한 균열을 영역별로 확인하여, 미리 설정된 제1 설정값 미만으로 균열이 검출된 정상 영역과 상기 제1 설정값 이상으로 균열이 검출된 손상 영역을 구분하는 단계; 상기 제1 데이터에서 상기 손상 영역을 삭제한 제2 데이터를 추출하는 단계; 상기 제2 데이터를 인코딩 하여 제2 입력 신호를 생성하는 단계; 상기 제2 입력 신호를 제4 인공 신경망에 입력하고, 상기 제4 인공 신경망의 입력의 결과에 기초하여, 제2 출력 신호를 획득하는 단계; 상기 제2 출력 신호에 기초하여, 상기 제1 영역의 표면에 대한 제2 분류 결과를 생성하는 단계; 및 상기 제1 분류 결과 및 상기 제2 분류 결과가 동일한 경우, 상기 제1 분류 결과 및 상기 제2 분류 결과 중 어느 하나를 상기 제1 영역의 표면에 대한 최종 분류 결과로 설정하는 단계를 더 포함할 수 있다.
일실시예에 따르면, 복수의 드론 각각에 장착된 카메라에서 촬영된 촬영 영상을 합성하여 건물의 외관 영상을 생성하고, 외관 영상을 분석하여 건물의 외관에 유지 보수가 필요한 영역이 있는지 여부를 판단하고, 유지 보수가 필요한 영역에 대한 추천 시공법을 도출함으로써, 드론으로 촬영된 영상의 빅데이터를 활용하여 인공지능 기반의 건물 시공법을 도출하는 서비스를 용이하게 제공할 수 있는 효과가 있다.
한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 건물의 외관 영상을 생성하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 추천 시공법을 도출하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 제1 인공 신경망의 학습을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 제2 인공 신경망의 학습을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 복수의 드론에 대한 이동을 제어하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 건물 각 면에 설정된 촬영 시작 위치를 나타낸 도면이다.
도 8은 일실시예에 따른 드론의 비행경로를 나타낸 도면이다.
도 9는 일실시예에 따른 제1 면을 담당하는 드론의 수를 조절하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 제1 면에 설정된 촬영 시작 위치를 나타낸 도면이다.
도 11은 일실시예에 따른 어느 방식으로 시공을 진행할 것인지에 대한 추천 시공법을 결정하는 과정을 설명하기 위한 순서도이다.
도 12는 일실시예에 따른 강수량을 통해 시공 가능 여부를 판단하는 과정을 설명하기 위한 순서도이다.
도 13은 일실시예에 따른 풍속을 통해 시공 가능 여부를 판단하는 과정을 설명하기 위한 순서도이다.
도 14는 제1 영역의 표면을 분류하는 과정을 설명하기 위한 순서도이다.
도 15는 일실시예에 따른 제3 인공 신경망 및 제4 인공 신경망을 설명하기 위한 도면이다.
도 16은 일실시예에 따른 제3 인공 신경망 및 제4 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도 17은 일실시예에 따른 장치의 구성의 예시도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 1을 참조하면, 일실시예에 따른 시스템은 복수의 드론(100), 사용자 단말(200) 및 장치(300)를 포함할 수 있다.
복수의 드론(100) 각각은 장치(300)와 무선 통신을 통해 연결될 수 있으며, 장치(300)로부터 수신된 제어 신호에 따라 동작할 수 있다.
복수의 드론(100) 각각은 카메라를 구비하고 있어, 카메라를 통해 촬영된 촬영 영상을 장치(300)로 전송할 수 있다.
복수의 드론(100) 각각은 3축 가속도 센서, 자이로스코프, 자력계, 초음파 센서, 압력계 등을 구비하여, 현재 위치, 고도, 이동 속도, 이동 방향 등의 이동 정보를 감지할 수 있으며, 감지된 이동 정보를 장치(300)로 전송할 수 있다.
사용자 단말(200)은 통신 기능을 갖춘 연산 장치로 구현될 수 있으며, 예를 들면, 휴대전화기, 데스크톱 PC, 랩탑 PC, 태블릿 PC, 스마트폰 등으로 구현될 수 있으나, 이에 제한되지는 않으며, 외부 서버와 연결될 수 있는 다양한 형태의 통신 장치로 구현될 수도 있다.
사용자 단말(200)은 장치(300)를 통해 복수의 드론(100)과 연결되어, 사용자에 의해 입력된 명령에 상응하는 제어 신호를 복수의 드론(100)으로 전송하여, 복수의 드론(100)에 대한 움직임을 제어할 수 있다.
사용자 단말(200)은 디스플레이를 구비하고 있어, 디스플레이를 통해 다양한 영상 정보를 표시하여 출력할 수 있다. 예를 들어, 사용자 단말(200)은 제1 드론(110)으로부터 수신된 촬영 영상을 디스플레이를 통해 출력할 수 있으며, 제2 드론(120)으로부터 수신된 촬영 영상을 디스플레이를 통해 출력할 수 있다.
장치(300)는 드론 촬영 영상의 빅데이터를 활용하여 인공지능 기반의 건물 유지 보수를 위한 견적을 산출하는 전반적인 흐름을 제어할 수 있다.
즉, 장치(300)는 복수의 드론(100)이 건물의 외관을 촬영하면, 촬영 영상을 스캐닝하여 분석하고, 빅데이터, 인공지능, 딥러닝 등을 통해 영상을 처리함으로써, 건물 유지 보수를 위한 견적을 산출할 수 있다.
도 2는 일실시예에 따른 건물의 외관 영상을 생성하는 과정을 설명하기 위한 순서도이다.
도 2를 참조하면, 먼저, S201 단계에서, 장치(300)는 사용자 단말(200)로부터 제1 건물에 대한 유지 보수 확인 요청을 수신할 수 있다.
구체적으로, 장치(300)는 데이터베이스에 저장된 건물 정보를 이용하여 건물 리스트를 생성할 수 있으며, 생성된 건물 리스트를 사용자 단말(200)로 제공할 수 있다. 이후, 건물 리스트 중 유지 보수의 필요 여부를 확인하기 위해 제1 건물이 선택되면, 장치(300)는 사용자 단말(200)로부터 제1 건물에 대한 유지 보수 확인 요청을 수신할 수 있다.
S202 단계에서, 장치(300)는 유지 보수 확인 요청에 따라, 데이터베이스에 저장된 건물 정보를 조회하여, 제1 건물의 외관 정보를 획득할 수 있다. 여기서, 제1 건물의 외관 정보는 제1 건물의 위치, 크기, 높이, 재질 등에 대한 정보를 포함하고, 제1 건물의 외관에 대한 3D 이미지를 포함할 수 있다.
S203 단계에서, 장치(300)는 제1 건물의 외관 정보를 제1 인공 신경망에 적용하여, 제1 인공 신경망의 출력을 기초로, 복수의 드론(100)에 대한 비행경로를 생성할 수 있다.
예를 들어, 복수의 드론(100)에 대한 비행경로는 제1 드론(110)의 비행 경로가 제1 건물의 전면을 이동하는 것으로 설정되고, 제2 드론(120)의 비행 경로가 제1 건물의 후면을 이동하는 것으로 설정되고, 제3 드론의 비행 경로가 제1 건물의 좌측면을 이동하는 것으로 설정되고, 제4 드론의 비행 경로가 제1 건물의 우측면을 이동하는 것으로 설정되고, 제5 드론의 비행 경로가 제1 건물의 상면을 이동하는 것으로 설정될 수 있다.
일실시예에 따르면, 제1 인공 신경망은 외관 정보를 입력 받은 후, 복수의 드론(100)에 대한 비행경로를 출력하는 알고리즘일 수 있다. 제1 인공 신경망은 외관 정보를 통해, 건물의 외관 전체를 촬영하기 위해 복수의 드론(100)에 대한 비행경로를 어떻게 설정할 것인지 분석하도록 학습될 수 있다. 제1 인공 신경망은 도 4를 참조하여 후술되는 방법을 통해 학습될 수 있다.
S204 단계에서, 장치(300)는 복수의 드론(100)에 대한 비행경로를 따라, 복수의 드론(100)이 이동하도록 제어할 수 있다.
예를 들어, 제1 드론(110)에는 제1 건물의 전면을 촬영하는 비행경로가 설정되고, 제2 드론(120)에는 제1 건물의 후면을 촬영하는 비행경로가 설정되면, 장치(300)는 제1 드론(110)을 제1 건물의 전면 방향으로 이동하도록 제어하고, 제2 드론(120)을 제1 건물의 후면 방향으로 이동하도록 제어할 수 있다.
장치(300)는 복수의 드론(100)이 비행경로를 통해 이동하도록 제어하여, 제1 건물의 외관 전체를 촬영하도록, 복수의 드론(100)의 동작을 제어할 수 있다. 이때, 복수의 드론(100)은 비행경로를 통해 이동하면서, 제1 건물의 외관을 촬영할 수 있다.
S205 단계에서, 장치(300)는 복수의 드론(100)이 이동하는 동안, 복수의 드론(100) 각각에 장착된 카메라에서 촬영된 촬영 영상을 획득할 수 있다.
예를 들어, 제1 드론(110)이 제1 건물의 전면을 이동하면서 제1 건물의 외관을 촬영하는 경우, 장치(300)는 제1 드론(110)으로부터 제1 건물의 전면에 대한 촬영 영상을 획득하고, 제2 드론(120)이 제1 건물의 후면을 이동하면서 제1 건물의 외관을 촬영하는 경우, 장치(300)는 제2 드론(120)으로부터 제1 건물의 후면에 대한 촬영 영상을 획득할 수 있다.
또한, 제3 드론이 제1 건물의 좌측면을 이동하면서 제1 건물의 외관을 촬영하는 경우, 장치(300)는 제3 드론으로부터 제1 건물의 좌측면에 대한 촬영 영상을 획득하고, 제4 드론이 제1 건물의 우측면을 이동하면서 제1 건물의 외관을 촬영하는 경우, 장치(300)는 제4 드론으로부터 제1 건물의 우측면에 대한 촬영 영상을 획득하고, 제5 드론이 제1 건물의 상면을 이동하면서 제1 건물의 외관을 촬영하는 경우, 장치(300)는 제5 드론으로부터 제1 건물의 상면에 대한 촬영 영상을 획득할 수 있다.
S206 단계에서, 장치(300)는 복수의 드론(100)으로부터 획득된 촬영 영상을 합성하여, 제1 건물의 외관 영상을 생성할 수 있다.
구체적으로, 장치(300)는 복수의 드론(100)으로부터 제1 건물의 전면, 후면, 좌측면, 우측면 및 상면에 대한 촬영 영상을 획득할 수 있으며, 제1 건물의 전면, 후면, 좌측면, 우측면 및 상면에 대한 촬영 영상을 합성하여, 제1 건물의 외관 영상을 생성할 수 있다. 여기서, 제1 건물의 외관 영상은 3D 영상으로 생성될 수 있다.
도 3은 일실시예에 추천 시공법을 도출하는 과정을 설명하기 위한 순서도이다.
도 3을 참조하면, 먼저, S301 단계에서, 장치(300)는 S206 단계에서 생성된 제1 건물의 외관 영상을 분석할 수 있다. 이때, 장치(300)는 S206 단계에서 생성된 현재 시점의 외관 영상과 데이터베이스에 저장된 과거 시점의 외관 영상을 비교하여, 현재 제1 건물의 외관에 문제가 있는 부분이 있는지 여부를 파악할 수 있다.
S302 단계에서, 장치(300)는 외관 영상의 분석 결과를 통해, 제1 건물의 외관에 유지 보수가 필요한 영역이 있는지 여부를 판단할 수 있다. 이때, 장치(300)는 현재 시점의 외관 영상과 과거 시점의 외관 영상을 비교한 결과, 현재와 과거가 차이가 있는 영역을 유지 보수가 필요한 영역으로 판단할 수 있다.
S302 단계에서 제1 건물의 외관 중 제1 영역이 유지 보수가 필요한 영역으로 판단되면, S303 단계에서, 장치(300)는 제1 건물의 외관 영상에서 제1 영역의 영상을 추출할 수 있다.
S304 단계에서, 장치(300)는 제1 영역의 영상 정보를 제2 인공 신경망에 적용하여, 제2 인공 신경망의 출력을 기초로, 제1 영역에 대한 시공법 추천 결과를 생성할 수 있다.
일실시예에 따르면, 제2 인공 신경망은 영역의 영상 정보를 입력 받은 후, 영역에 대해 적합한 맞춤형 시공법을 추천하는 시공법 추천 결과를 출력하는 알고리즘일 수 있다. 제2 인공 신경망은 영역의 영상 정보를 통해, 해당 영역에 대해 어느 시공법이 적합한지 분석하도록 학습될 수 있다. 제2 인공 신경망은 도 5를 참조하여 후술되는 방법을 통해 학습될 수 있다.
S305 단계에서, 장치(300)는 제1 영역의 시공법 추천 결과를 통해, 제1 영역에 사용될 마감재를 확인하여, 제1 영역에 대한 추천 시공법을 도출할 수 있다.
구체적으로, 제1 영역의 시공법 추천 결과에는 제1 영역에 대한 유지 보수를 수행할 때 어느 마감재를 사용하여 시공할 것인지에 대한 정보가 포함되어 있으며, 장치(300)는 제1 영역의 시공법 추천 결과를 통해, 제1 영역에 어느 마감재를 사용할 것인지를 확인할 수 있으며, 마감재의 종류에 따라 제1 영역을 어느 시공법으로 진행할 것인지 결정하여, 제1 영역에 대한 추천 시공법을 도출할 수 있다.
즉, 제2 인공 신경망은 제1 영역의 영상 정보를 통해, 제1 영역의 상태를 분석한 결과, 제1 마감재가 사용되는 것이 적합할 것으로 추천할 수 있으며, 제1 마감재를 이용한 시공법 추천 결과를 출력할 수 있다. 장치(300)는 제1 마감재를 이용한 시공법 추천 결과를 이용하여, 제1 영역에 대한 추천 시공법으로 제1 마감재를 이용한 시공법을 도출할 수 있다.
일실시예에 따르면, 장치(300)는 시공법 추천 결과를 통해, 어떠한 마감재를 이용하여 시공을 진행할 것인지에 대한 추천 시공법을 도출할 수 있으며, 마감재 뿐만 아니라 어느 방식(사다리차, 드론, 구조체 등)으로 시공을 진행할 것인지에 대한 추천 시공법을 추가로 결정할 수도 있다. 이와 관련하여, 자세한 설명은 도 11을 참조하여 후술하기로 한다.
S306 단계에서, 장치(300)는 제1 영역의 추천 시공법에 대한 알림 메시지를 사용자 단말(200)로 전송할 수 있다.
예를 들어, 제1 건물의 외관 중 유지 보수가 필요한 영역이 제1 영역으로 판단되고, 제1 영역의 추천 시공법으로 제1 마감재를 이용한 시공법이 도출된 경우, 장치(300)는 제1 영역에 대해 제1 마감재를 이용하여 시공할 것을 추천하는 알림 메시지를 사용자 단말(200)로 전송할 수 있다. 이때, 알림 메시지에는 제1 영역의 위치, 제1 영역의 상태, 제1 마감재의 정보 등이 포함될 수 있다.
도 4는 일실시예에 따른 제1 인공 신경망의 학습을 설명하기 위한 도면이다.
일실시예에 따르면, 제1 인공 신경망은 외관 정보를 입력 받은 후, 복수의 드론(100)에 대한 비행경로를 출력하는 알고리즘일 수 있다. 제1 인공 신경망의 학습이 이루어지는 장치(300)는 학습된 제1 인공 신경망을 이용하여 비행경로를 분석하는 장치(300)와 동일한 장치일 수 있고, 별개의 장치일 수도 있다. 이하에서는 제1 인공 신경망이 학습되는 과정을 설명한다.
먼저, S401 단계에서, 장치(300)는 외관 정보를 기초로 입력을 생성할 수 있다.
구체적으로, 장치(300)는 외관 정보에서 건물의 크기에 따라 외관 영상의 크기를 조절하는 등의 전처리를 수행할 수 있다. 전처리가 수행된 외관 정보를 제1 인공 신경망의 입력으로 그대로 사용하거나, 불필요한 정보를 제거하는 통상의 처리를 거쳐 입력을 생성할 수 있다.
S402 단계에서, 장치(300)는 제1 인공 신경망에 입력을 적용할 수 있다. 제1 인공 신경망은 강화 학습(reinforcement learning)에 따라 학습되는 인공 신경망일 수 있다. 제1 인공 신경망은 강화 학습을 통해 추상적 추론을 출력하는데 적합한 Q-Network, DQN(Depp Q-Network), 또는 관계형 네트워크(relation network, RL) 구조일 수 있다.
강화 학습에 따라 학습되는 제1 인공 신경망은 다양한 보상에 평가를 반영하여 갱신 및 최적화될 수 있다. 예를 들어, 제1 보상은 건물의 크기에 따라 외관을 촬영하기 위해 필요한 드론의 수가 증가할수록 보상값이 높아질 수 있으며, 제2 보상은 구역 별로 드론의 비행경로가 분산되어 지정될수록 보상값이 높아질 수 있다.
S403 단계에서, 장치(300)는 제1 인공 신경망으로부터 출력을 획득할 수 있다. 제1 인공 신경망의 출력은 외관 정보를 통해 최적화된 비행경로를 분석한 결과일 수 있다. 이때, 제1 인공 신경망은 외관 정보를 통해, 건물의 외관 전체를 촬영하기 위해 복수의 드론(100)에 대한 비행경로를 어떻게 설정할 것인지 분석하여, 비행경로에 대한 분석 결과를 출력할 수 있다.
S404 단계에서, 장치(300)는 제1 인공 신경망의 출력을 평가하여 보상을 지급할 수 있다. 이때, 출력의 평가는 제1 보상, 제2 보상 등으로 나뉠 수 있다.
구체적으로 장치(300)는 건물의 크기에 따라 외관을 촬영하기 위해 필요한 드론의 수가 증가할수록 제1 보상을 많이 수여하고, 구역 별로 드론의 비행경로가 분산되어 지정될수록 제2 보상을 많이 수여할 수 있다.
S405 단계에서, 장치(300)는 평가를 기초로 제1 인공 신경망을 갱신할 수 있다.
구체적으로, 장치(300)는 제1 인공 신경망이 외관 정보를 통해 비행경로를 분석하는 환경(environment)에서, 보상값(reward)들의 합의 기대값(expectation)이 최대화되도록, 특정한 상태(state)들에서 취할 행동(action)들을 결정하는 정책(policy)을 최적화하는 과정을 통해 제1 인공 신경망을 갱신할 수 있다.
한편, 정책을 최적화하는 과정은 보상들의 합의 기대값의 최대값 또는 Q-함수의 최대값을 추정하거나, Q-함수의 손실 함수(loss function)의 최소값을 추정하는 과정을 통해 이루어질 수 있다. 손실함수의 최소값의 추정은 확률적 경사하강법(stochastic gradient descent, SGD) 등을 통해 이루어질 수 있다. 정책을 최적화하는 과정은 이에 제한되는 것은 아니며, 강화 학습에서 사용하는 다양한 최적화 알고리즘들이 이용될 수 있다.
장치(300)는 상기와 같은 제1 인공 신경망의 학습 과정을 반복함으로써, 제1 인공 신경망을 점진적으로 갱신시킬 수 있다. 이를 통해, 장치(300)는 외관 정보를 통해 복수의 드론(100)에 대한 비행경로를 출력하는 제1 인공 신경망을 학습시킬 수 있다.
즉, 장치(300)는 외관 정보를 통해 비행경로를 분석할 때, 제1 보상, 제2 보상 등을 통한 강화 학습을 반영하여, 분석 기준을 조정함으로써, 제1 인공 신경망을 학습시킬 수 있다.
도 5는 일실시예에 따른 제2 인공 신경망의 학습을 설명하기 위한 도면이다.
일실시예에 따르면, 제2 인공 신경망은 영역의 영상 정보를 입력 받은 후, 영역에 대해 적합한 맞춤형 시공법을 추천하는 시공법 추천 결과를 출력하는 알고리즘일 수 있다. 제2 인공 신경망의 학습이 이루어지는 장치(300)는 학습된 제2 인공 신경망을 이용하여 견적 결과를 분석하는 장치(300)와 동일한 장치일 수 있고, 별개의 장치일 수도 있다. 이하에서는 제2 인공 신경망이 학습되는 과정을 설명한다.
먼저, S501 단계에서, 장치(300)는 영역의 영상 정보를 기초로 입력을 생성할 수 있다.
구체적으로, 장치(300)는 영역의 영상 정보에서 건물의 크기에 따라 영상 정보의 크기를 조절하는 등의 전처리를 수행할 수 있다. 전처리가 수행된 영역의 영상 정보를 제2 인공 신경망의 입력으로 그대로 사용하거나, 불필요한 정보를 제거하는 통상의 처리를 거쳐 입력을 생성할 수 있다.
S502 단계에서, 장치(300)는 제2 인공 신경망에 입력을 적용할 수 있다. 제2 인공 신경망은 강화 학습(reinforcement learning)에 따라 학습되는 인공 신경망일 수 있다. 제2 인공 신경망은 강화 학습을 통해 추상적 추론을 출력하는데 적합한 Q-Network, DQN(Depp Q-Network), 또는 관계형 네트워크(relation network, RL) 구조일 수 있다.
강화 학습에 따라 학습되는 제2 인공 신경망은 다양한 보상에 평가를 반영하여 갱신 및 최적화될 수 있다. 예를 들어, 제1 보상은 영역에서 문제가 있는 부분의 크기가 클수록 넓은 부위에서 사용되는 마감재를 추천하면 보상값이 높아질 수 있으며, 제2 보상은 영역에서 문제가 있는 부분의 상태가 심각할수록 보수 효과가 큰 마감재를 추천하면 보상값이 높아질 수 있다.
S503 단계에서, 장치(300)는 제2 인공 신경망으로부터 출력을 획득할 수 있다. 제2 인공 신경망의 출력은 영역의 영상 정보를 통해 해당 영역에서 문제가 있는 부분에 대한 유지 보수를 진행할 때 어느 마감재를 이용하여 시공할 것인지를 분석한 결과일 수 있다. 이때, 제2 인공 신경망은 영역의 영상 정보를 통해 해당 영역의 유지 보수를 진행할 때 어느 마감재가 적합한지 분석하여, 분석된 마감재를 이용한 시공법을 추천하는 시공법 추천 결과를 출력할 수 있다.
S504 단계에서, 장치(300)는 제2 인공 신경망의 출력을 평가하여 보상을 지급할 수 있다. 이때, 출력의 평가는 제1 보상, 제2 보상 등으로 나뉠 수 있다.
구체적으로 장치(300)는 영역에서 문제가 있는 부분의 크기가 클수록 넓은 부위에서 사용되는 마감재를 추천하면 제1 보상을 많이 수여하고, 영역에서 문제가 있는 부분의 상태가 심각할수록 보수 효과가 큰 마감재를 추천하면 제2 보상을 많이 수여할 수 있다.
S505 단계에서, 장치(300)는 평가를 기초로 제2 인공 신경망을 갱신할 수 있다.
구체적으로, 장치(300)는 제2 인공 신경망이 영역의 영상 정보를 통해 영역에 대한 견적을 분석하는 환경(environment)에서, 보상값(reward)들의 합의 기대값(expectation)이 최대화되도록, 특정한 상태(state)들에서 취할 행동(action)들을 결정하는 정책(policy)을 최적화하는 과정을 통해 제2 인공 신경망을 갱신할 수 있다.
한편, 정책을 최적화하는 과정은 보상들의 합의 기대값의 최대값 또는 Q-함수의 최대값을 추정하거나, Q-함수의 손실 함수(loss function)의 최소값을 추정하는 과정을 통해 이루어질 수 있다. 손실함수의 최소값의 추정은 확률적 경사하강법(stochastic gradient descent, SGD) 등을 통해 이루어질 수 있다. 정책을 최적화하는 과정은 이에 제한되는 것은 아니며, 강화 학습에서 사용하는 다양한 최적화 알고리즘들이 이용될 수 있다.
장치(300)는 상기와 같은 제2 인공 신경망의 학습 과정을 반복함으로써, 제2 인공 신경망을 점진적으로 갱신시킬 수 있다. 이를 통해, 장치(300)는 영역의 영상 정보를 통해 영역에 대한 시공법 추천 결과를 출력하는 제2 인공 신경망을 학습시킬 수 있다.
즉, 장치(300)는 영역의 영상 정보를 통해 영역에 대한 시공법을 추천할 때, 제1 보상, 제2 보상 등을 통한 강화 학습을 반영하여, 분석 기준을 조정함으로써, 제2 인공 신경망을 학습시킬 수 있다.
도 6은 일실시예에 따른 복수의 드론에 대한 이동을 제어하는 과정을 설명하기 위한 순서도이고, 도 7은 일실시예에 따른 건물 각 면에 설정된 촬영 시작 위치를 나타낸 도면이고, 도 8은 일실시예에 따른 드론의 비행경로를 나타낸 도면이다.
도 6을 참조하면, 먼저, S601 단계에서, 장치(300)는 복수의 드론(100) 중 제1 드론(110)에서 촬영된 촬영 영상에서 제1 건물(700)이 확인되면, 제1 드론(110)을 제1 건물(700)의 제1 면(710)을 촬영하기 위한 담당 드론으로 설정할 수 있다. 즉, 복수의 드론(100) 중 가장 먼저 제1 건물(700)을 촬영한 드론이 제1 면(710)의 담당 드론으로 설정될 수 있다.
S602 단계에서, 장치(300)는 제1 면(710)의 촬영 시작 위치인 제1 지점(711)으로 제1 드론(110)이 이동하도록 제어할 수 있다.
S603 단계에서, 장치(300)는 제1 드론(110)이 제1 지점(711)으로 이동하면, 제1 면(710)의 담당 드론에 설정된 비행경로를 데이터베이스의 조회를 통해 확인할 수 있으며, 제1 면(710)의 담당 드론에 설정된 비행경로를 따라, 제1 드론(110)이 이동하면서 촬영을 수행하도록 제어할 수 있다.
일실시예에 따르면, 제1 드론(110)은 제1 지점(711)에서부터 제1 면(710)의 담당 드론에 설정된 비행경로를 따라, 제1 면(710)의 전체 구역을 이동하면서 촬영을 수행할 수 있다. 도 8의 (a)에 도시된 바와 같이, 제1 드론(110)은 지그재그 형태로 이동하면서 촬영을 수행할 수 있으며, 도 8의 (b)에 도시된 바와 같이, 제1 드론(110)은 방사 형태로 이동하면서 촬영을 수행할 수 있다. 이외에도, 제1 드론(110)은 건물의 특징에 맞게 다양한 형태로 이동하면서 촬영을 수행할 수 있다.
S604 단계에서, 장치(300)는 제1 드론(110)이 제1 면(710)의 담당 드론에 설정된 비행경로를 따라 이동하는 동안, 제1 드론(110)에서 촬영된 촬영 영상에서 복수의 드론(100) 중 적어도 하나가 확인되면, 제1 면(710)과 인접한 제2 면(720)의 촬영 시작 위치인 제2 지점(721)과 거리가 가장 가까운 제2 드론(120)을 제2 면(720)을 촬영하기 위한 담당 드론으로 설정할 수 있다.
예를 들어, 장치(300)는 제1 드론(110)에서 촬영된 촬영 영상에서 제2 드론(120)만 확인된 경우, 제2 드론(120)을 제2 면(720)의 담당 드론으로 설정하고, 제1 드론(110)에서 촬영된 촬영 영상에서 제2 드론(120) 및 제3 드론이 확인된 경우, 제2 지점(721)과 가까운 위치에 있는 제2 드론(120)을 제2 면(720)의 담당 드론으로 설정할 수 있다.
S605 단계에서, 장치(300)는 제2 면(720)의 촬영 시작 위치인 제2 지점(721)으로 제2 드론(120)이 이동하도록 제어할 수 있다.
S606 단계에서, 장치(300)는 제2 드론(120)이 제2 지점(721)으로 이동하면, 제2 면(720)의 담당 드론에 설정된 비행경로를 데이터베이스의 조회를 통해 확인할 수 있으며, 제2 면(720)의 담당 드론에 설정된 비행경로를 따라, 제2 드론(120)이 이동하면서 촬영을 수행하도록 제어할 수 있다.
장치(300)는 제2 드론(120)을 제2 면(720)의 담당 드론으로 설정하여 제2 드론(120)이 이동하면서 촬영을 수행하도록 제어하는 방식과 동일하게, 제3 드론을 제3 면의 담당 드론으로 설정하여 제3 드론이 이동하면서 촬영을 수행하도록 제어하고, 제4 드론을 제4 면의 담당 드론으로 설정하여 제4 드론이 이동하면서 촬영을 수행하도록 제어하고, 제5 드론을 제5 면의 담당 드론으로 설정하여 제5 드론이 이동하면서 촬영을 수행하도록 제어할 수 있다. 이를 통해, 건물의 전면, 후면, 좌측면, 우측면 및 상면 각각에 대한 담당 드론을 설정하여, 건물의 각 면에 대한 촬영이 수행될 수 있다.
도 7에서는 제1 면(710)이 전면으로 도시되고, 제2 면(720)이 후면으로 도시되었으나, 이에 제한되지 않으며, 제1 면(710)은 후면, 좌측면, 우측면 및 상면 중 어느 하나로 변경될 수 있으며, 제2 면(720)도 제1 면(710)과 인접한 어느 면으로 변경될 수 있다.
또한, 도 7에서는 제1 지점(711) 및 제2 지점(721)이 좌측 최하단에 위치하는 것으로 도시되었으나, 이에 제한되지 않으며, 제1 지점(711) 및 제2 지점(721) 각각은 좌측 최상단, 우측 최하단, 우측 최상단 등으로 변경될 수 있다.
도 9는 일실시예에 따른 제1 면을 담당하는 드론의 수를 조절하는 과정을 설명하기 위한 순서도이고, 도 10은 일실시예에 따른 제1 면에 설정된 촬영 시작 위치를 나타낸 도면이다.
도 9를 참조하면, 먼저, S901 단계에서, 장치(300)는 제1 드론(110)을 제1 면(710)의 담당 드론으로 설정할 수 있다.
S902 단계에서, 장치(300)는 제1 건물(700)의 외관 정보를 기초로, 제1 면(710)의 면적을 확인할 수 있다. 여기서, 외관 정보는 건물 각 면의 면적에 대한 정보를 포함할 수 있다.
S903 단계에서, 장치(300)는 제1 면(710)의 면적이 기준 면적 보다 작은지 여부를 확인할 수 있다. 여기서, 기준 면적은 실시예에 따라 상이하게 설정될 수 있으며, 바람직하게는, 제1 드론(110)의 최대 활동 반경을 통해 설정될 수 있다.
S903 단계에서 제1 면(710)의 면적이 기준 면적 보다 작은 것으로 확인되면, S904 단계에서, 장치(300)는 제1 드론(110) 단독으로 제1 면(710)에 대한 촬영이 가능한 것으로 판단할 수 있다.
S905 단계에서, 장치(300)는 제1 드론(110) 단독으로 제1 면(710)에 대한 촬영이 가능한 것으로 판단되면, 제1 면(710)의 촬영 시작 위치인 제1 지점(711)을 확인할 수 있다.
S906 단계에서, 장치(300)는 제1 면(710)의 촬영 시작 위치인 제1 지점(711)으로 제1 드론(110)이 이동하도록 제어할 수 있다.
즉, 도 10의 (a)에 도시된 바와 같이, 제1 면(710)의 면적이 기준 면적 보다 작은 경우, 장치(300)는 제1 지점(711)으로 제1 드론(110)이 이동하도록 제어하여, 제1 드론(110) 단독으로 제1 면(710)에 대한 촬영을 수행하도록 제어할 수 있다.
S903 단계에서 제1 면(710)의 면적이 기준 면적 보다 큰 것으로 확인되면, S907 단계에서, 장치(300)는 제1 드론(110) 단독으로 제1 면(710)에 대한 촬영이 불가능한 것으로 판단할 수 있다.
S908 단계에서, 장치(300)는 제1 드론(110) 단독으로 제1 면(710)에 대한 촬영이 불가능한 것으로 판단되면, 복수의 드론(100) 중 제1 드론(110)의 위치와 거리가 가장 가까운 제3 드론을 확인하고, 제3 드론을 제1 면(710)의 담당 드론으로 추가로 설정할 수 있다.
즉, 장치(300)는 제1 드론(110)만 제1 면(710)의 담당 드론으로 설정되어 있는 상태에서, 제1 드론(110) 단독으로 제1 면(710)에 대한 촬영이 불가능한 것으로 판단되면, 제1 드론(110)과 위치가 가장 가까운 제3 드론을 제1 면(710)의 담당 드론으로 추가로 설정할 수 있다.
S909 단계에서, 장치(300)는 제1 면(710)의 일부부인 제1 구역(1010)과 제1 구역(1010)을 제외한 나머지 부분인 제2 구역(1020)을 구분하고, 제1 구역(1010)의 촬영 시작 위치인 제2 지점(1011)과 제2 구역(1020)의 촬영 시작 위치인 제3 지점(1021)을 확인할 수 있다.
S910 단계에서, 장치(300)는 제1 구역(1010)의 촬영 시작 위치인 제2 지점(1011)으로 제1 드론(110)이 이동하도록 제어하고, 제2 구역(1020)의 촬영 시작 위치인 제3 지점(1021)으로 제3 드론이 이동하도록 제어할 수 있다.
즉, 도 10의 (b)에 도시된 바와 같이, 제1 면(710)의 면적이 기준 면적 보다 큰 경우, 장치(300)는 제2 지점(1011)으로 제1 드론(110)이 이동하도록 제어하고 제3 지점(1021)으로 제3 드론이 이동하도록 제어하여, 제1 드론(110) 및 제3 드론을 통해 제1 면(710)에 대한 촬영을 수행하도록 제어할 수 있다.
도 11은 일실시예에 따른 어느 방식으로 시공을 진행할 것인지에 대한 추천 시공법을 결정하는 과정을 설명하기 위한 순서도이다.
도 11을 참조하면, 먼저, S1101 단계에서, 장치(300)는 제2 인공 신경망의 출력을 기초로, 제1 영역에 대한 시공법 추천 결과를 생성하고, 시공법 추천 결과를 통해, 제1 영역의 추천 시공법을 도출할 수 있다. 이때, 제1 영역의 추천 시공법은 어떠한 마감재를 사용하여 시공을 진행할 것인지를 추천하는 것으로, 어느 마감재를 사용할 것인지에 대해서는 결정되어 있으나, 어느 방식으로 시공을 진행할 것인지에 대해서는 결정되지 않은 상태일 수 있다.
S1102 단계에서, 장치(300)는 제1 영역이 제1 건물(700)의 바닥으로부터 떨어진 거리를 확인하여, 제1 영역의 높이를 산출할 수 있다.
S1103 단계에서, 장치(300)는 제1 영역의 높이가 제1 기준 높이 보다 낮은지 여부를 확인할 수 있다. 여기서, 제1 기준 높이는 실시예에 따라 상이하게 설정될 수 있으며, 바람직하게는, 제1 건물(700)의 높이에 따라 비례하여 설정될 수 있다. 예를 들어, 제1 건물(700)의 높이가 30m인 경우, 제1 기준 높이는 10m로 설정될 수 있다.
S1103 단계에서 제1 영역의 높이가 제1 기준 높이 보다 낮은 것으로 확인되면, S1104 단계에서, 장치(300)는 제1 영역의 추천 시공법을 제1 시공법으로 설정할 수 있다. 여기서, 제1 시공법은 사다리차를 이용한 시공법일 수 있다.
즉, 제1 영역이 제1 기준 높이 보다 낮은 위치인 건물 하단부에 위치하는 경우, 장치(300)는 사다리차를 이용하여 유지 보수가 가능한 것으로 판단하여, 제1 시공법을 제1 영역의 추천 시공법으로 설정할 수 있다.
S1103 단계에서 제1 영역의 높이가 제1 기준 높이 보다 높은 것으로 확인되면, S1105 단계에서, 장치(300)는 제1 영역의 높이가 제2 기준 높이 보다 낮은지 여부를 확인할 수 있다. 여기서, 제2 기준 높이는 제1 기준 높이 보다 높은 값으로 설정될 수 있다. 예를 들어, 제1 건물(700)의 높이가 30m이고, 제1 기준 높이가 10m로 설정되어 있는 경우, 제2 기준 높이는 20m로 설정될 수 있다.
S1105 단계에서 제1 영역의 높이가 제2 기준 높이 보다 낮은 것으로 확인되면, S1106 단계에서, 장치(300)는 제1 영역의 추천 시공법을 제2 시공법으로 설정할 수 있다. 여기서, 제2 시공법은 드론을 이용한 시공법일 수 있다.
즉, 제1 영역이 제1 기준 높이 보다 높고 제2 기준 높이 보다 낮은 건물 중앙부에 위치하는 경우, 장치(300)는 드론을 이용하여 유지 보수가 가능한 것으로 판단하여, 제2 시공법을 제1 영역의 추천 시공법으로 설정할 수 있다.
S1105 단계에서 제1 영역의 높이가 제2 기준 높이 보다 높은 것으로 확인되면, S1107 단계에서, 장치(300)는 제1 영역의 추천 시공법을 제3 시공법으로 설정할 수 있다. 여기서, 제3 시공법은 건물 옥상에서 하부로 연결된 구조체를 이용한 시공법일 수 있다.
즉, 제1 영역이 제2 기준 높이 보다 높은 건물 상단부에 위치하는 경우, 장치(300)는 옥상에서 하부로 연결된 구조체를 이용하여 유지 보수가 가능한 것으로 판단하여, 제3 시공법을 제1 영역의 추천 시공법으로 설정할 수 있다.
도 12는 일실시예에 따른 강수량을 통해 시공 가능 여부를 판단하는 과정을 설명하기 위한 순서도이다.
먼저, 장치(300)는 제1 시공법, 제2 시공법 및 제3 시공법 중 어느 하나가 제1 영역의 추천 시공법으로 설정되면, 제1 영역의 추천 시공법에 대한 알림 메시지를 사용자 단말(200)로 전송할 수 있다.
도 12를 참조하면, S1201 단계에서, 장치(300)는 제1 영역의 유지 보수를 위해 지정된 시공일에 대한 시공 가능 확인 요청을 사용자 단말(200)로부터 수신할 수 있다.
구체적으로, 사용자 단말(200)에서 제1 영역의 추천 시공법의 확인으로 제1 영역의 추천 시공법을 진행하기 위한 시공일이 지정되면, 장치(300)는 시공일에 대한 시공 가능 확인 요청을 사용자 단말(200)로부터 수신할 수 있다.
S1202 단계에서, 장치(300)는 제1 건물이 위치하는 지역에 대한 기상 예측 정보를 획득할 수 있다. 이를 위해, 장치(300)는 기상 정보를 제공하는 외부 서버와 연결될 수 있으며, 해당 서버로부터 제1 건물이 위치하는 지역에 대한 기상 예측 정보를 획득할 수 있다. 이때, 장치(300)는 제1 건물이 위치하는 지역의 시공일에 대한 기상 예측 정보를 획득할 수 있다.
S1203 단계에서, 장치(300)는 제1 건물이 위치하는 지역의 시공일에 대한 기상 예측 정보를 확인하여, 시공일의 예측 강수량을 확인할 수 있다. 예를 들어, 장치(300)는 10월1일이 시공일로 지정되면, 10월 1일의 예측 강수량을 확인할 수 있다.
S1204 단계에서, 장치(300)는 시공일의 예측 강수량이 제1 기준 강수량 보다 적은지 여부를 확인할 수 있다. 여기서, 제1 기준 강수량은 실시예에 따라 상이하게 설정될 수 있다.
S1204 단계에서 시공일의 예측 강수량이 제1 기준 강수량 보다 적은 것으로 확인되면, S1205 단계에서, 장치(300)는 시공일에 제1 시공법, 제2 시공법 및 제3 시공법을 통해 시공이 가능한 것으로 판단할 수 있다. 즉, 장치(300)는 제1 영역의 추천 시공법이 어느 시공법이든지 상관없이 시공일에 시공이 가능한 것으로 판단할 수 있다.
S1204 단계에서 시공일의 예측 강수량이 제1 기준 강수량 보다 많은 것으로 확인되면, S1206 단계에서, 장치(300)는 시공일의 예측 강수량이 제2 기준 강수량 보다 적은지 여부를 확인할 수 있다. 여기서, 제2 기준 강수량은 제1 기준 강수량 보다 큰 값으로 설정될 수 있다,
S1206 단계에서 시공일의 예측 강수량이 제2 기준 강수량 보다 적은 것으로 확인되면, S1207 단계에서, 장치(300)는 시공일에 제1 시공법 및 제2 시공법을 통해 시공이 가능한 것으로 판단할 수 있다. 즉, 장치(300)는 제1 영역의 추천 시공법이 제1 시공법 또는 제2 시공법으로 확인되는 경우 시공일에 시공이 가능한 것으로 판단하고, 제1 영역의 추천 시공법이 제3 시공법으로 확인되는 경우 시공일에 시공이 불가능한 것으로 판단할 수 있다.
S1206 단계에서 시공일의 예측 강수량이 제2 기준 강수량 보다 많은 것으로 확인되면, S1208 단계에서, 장치(300)는 시공일의 예측 강수량이 제3 기준 강수량 보다 적은지 여부를 확인할 수 있다. 여기서, 제3 기준 강수량은 제2 기준 강수량 보다 큰 값으로 설정될 수 있다,
S1208 단계에서 시공일의 예측 강수량이 제3 기준 강수량 보다 적은 것으로 확인되면, S1209 단계에서, 장치(300)는 시공일에 제1 시공법을 통해 시공이 가능한 것으로 판단할 수 있다. 즉, 장치(300)는 제1 영역의 추천 시공법이 제1 시공법으로 확인되는 경우 시공일에 시공이 가능한 것으로 판단하고, 제1 영역의 추천 시공법이 제2 시공법 또는 제3 시공법으로 확인되는 경우 시공일에 시공이 불가능한 것으로 판단할 수 있다.
S1208 단계에서 시공일의 예측 강수량이 제3 기준 강수량 보다 많은 것으로 확인되면, S1210 단계에서, 장치(300)는 시공일에 제1 시공법, 제2 시공법 및 제3 시공법을 통해 시공이 불가능한 것으로 판단할 수 있다. 즉, 장치(300)는 제1 영역의 추천 시공법이 어느 시공법이든지 상관없이 시공일에 시공이 불가능한 것으로 판단할 수 있다.
S1211 단계에서, 장치(300)는 S1205 단계, S1207 단계, S1209 단계 및 S1210 단계 중 어느 하나의 단계를 통해 판단된 시공 가능 판단 결과를 사용자 단말(200)로 전송할 수 있다.
도 13은 일실시예에 따른 풍속을 통해 시공 가능 여부를 판단하는 과정을 설명하기 위한 순서도이다.
먼저, 장치(300)는 제1 시공법, 제2 시공법 및 제3 시공법 중 어느 하나가 제1 영역의 추천 시공법으로 설정되면, 제1 영역의 추천 시공법에 대한 알림 메시지를 사용자 단말(200)로 전송할 수 있다.
도 13을 참조하면, S1301 단계에서, 장치(300)는 제1 영역의 유지 보수를 위해 지정된 시공일에 대한 시공 가능 확인 요청을 사용자 단말(200)로부터 수신할 수 있다.
구체적으로, 사용자 단말(200)에서 제1 영역의 추천 시공법의 확인으로 제1 영역의 추천 시공법을 진행하기 위한 시공일이 지정되면, 장치(300)는 시공일에 대한 시공 가능 확인 요청을 사용자 단말(200)로부터 수신할 수 있다.
S1302 단계에서, 장치(300)는 제1 건물이 위치하는 지역에 대한 기상 예측 정보를 획득할 수 있다. 이를 위해, 장치(300)는 기상 정보를 제공하는 외부 서버와 연결될 수 있으며, 해당 서버로부터 제1 건물이 위치하는 지역에 대한 기상 예측 정보를 획득할 수 있다. 이때, 장치(300)는 제1 건물이 위치하는 지역의 시공일에 대한 기상 예측 정보를 획득할 수 있다.
S1303 단계에서, 장치(300)는 제1 건물이 위치하는 지역의 시공일에 대한 기상 예측 정보를 확인하여, 시공일의 예측 풍속을 확인할 수 있다. 예를 들어, 장치(300)는 10월1일이 시공일로 지정되면, 10월 1일의 예측 풍속을 확인할 수 있다.
S1304 단계에서, 장치(300)는 시공일의 예측 풍속이 제1 기준 풍속 보다 약한지 여부를 확인할 수 있다. 여기서, 제1 기준 풍속은 실시예에 따라 상이하게 설정될 수 있다.
S1304 단계에서 시공일의 예측 풍속이 제1 기준 풍속 보다 약한 것으로 확인되면, S1305 단계에서, 장치(300)는 시공일에 제1 시공법, 제2 시공법 및 제3 시공법을 통해 시공이 가능한 것으로 판단할 수 있다. 즉, 장치(300)는 제1 영역의 추천 시공법이 어느 시공법이든지 상관없이 시공일에 시공이 가능한 것으로 판단할 수 있다.
S1304 단계에서 시공일의 예측 풍속이 제1 기준 풍속 보다 강한 것으로 확인되면, S1306 단계에서, 장치(300)는 시공일의 예측 풍속이 제2 기준 풍속 보다 약한지 여부를 확인할 수 있다. 여기서, 제2 기준 풍속은 제1 기준 풍속 보다 큰 값으로 설정될 수 있다,
S1306 단계에서 시공일의 예측 풍속이 제2 기준 풍속 보다 약한 것으로 확인되면, S1307 단계에서, 장치(300)는 시공일에 제1 시공법 및 제2 시공법을 통해 시공이 가능한 것으로 판단할 수 있다. 즉, 장치(300)는 제1 영역의 추천 시공법이 제1 시공법 또는 제2 시공법으로 확인되는 경우 시공일에 시공이 가능한 것으로 판단하고, 제1 영역의 추천 시공법이 제3 시공법으로 확인되는 경우 시공일에 시공이 불가능한 것으로 판단할 수 있다.
S1306 단계에서 시공일의 예측 풍속이 제2 기준 풍속 보다 강한 것으로 확인되면, S1308 단계에서, 장치(300)는 시공일의 예측 풍속이 제3 기준 풍속 보다 약한지 여부를 확인할 수 있다. 여기서, 제3 기준 풍속은 제2 기준 풍속 보다 큰 값으로 설정될 수 있다,
S1308 단계에서 시공일의 예측 풍속이 제3 기준 풍속 보다 약한 것으로 확인되면, S1309 단계에서, 장치(300)는 시공일에 제1 시공법을 통해 시공이 가능한 것으로 판단할 수 있다. 즉, 장치(300)는 제1 영역의 추천 시공법이 제1 시공법으로 확인되는 경우 시공일에 시공이 가능한 것으로 판단하고, 제1 영역의 추천 시공법이 제2 시공법 또는 제3 시공법으로 확인되는 경우 시공일에 시공이 불가능한 것으로 판단할 수 있다.
S1308 단계에서 시공일의 예측 풍속이 제3 기준 풍속 보다 강한 것으로 확인되면, S1510 단계에서, 장치(300)는 시공일에 제1 시공법, 제2 시공법 및 제3 시공법을 통해 시공이 불가능한 것으로 판단할 수 있다. 즉, 장치(300)는 제1 영역의 추천 시공법이 어느 시공법이든지 상관없이 시공일에 시공이 불가능한 것으로 판단할 수 있다.
S1311 단계에서, 장치(300)는 S1305 단계, S1307 단계, S1309 단계 및 S1510 단계 중 어느 하나의 단계를 통해 판단된 시공 가능 판단 결과를 사용자 단말(200)로 전송할 수 있다.
도 14는 제1 영역의 표면을 분류하는 과정을 설명하기 위한 순서도이다.
도 14를 참조하면, 먼저 S1601 단계에서, 장치(300)는 제1 영역이 제1 면(710)에 위치하는 것으로 확인되면, 제1 드론(110)에 장착된 라이다를 통해 제1 영역의 표면에 대한 3D 데이터를 획득할 수 있다. 여기서, 3D 데이터는 제1 영역의 표면에 대한 3D 이미지이다. 이를 위해, 장치(300)는 라이다가 장착된 제1 드론(110)과 유무선을 통해 연결될 수 있다.
S1602 단계에서, 장치(300)는 제1 드론(110)에 장착된 카메라를 통해 제1 영역의 표면에 대한 2D 데이터를 획득할 수 있다. 여기서, 2D 데이터는 제1 영역의 표면에 대한 2D 이미지이다. 이를 위해, 장치(300)는 카메라가 장착된 제1 드론(110)과 유무선을 통해 연결될 수 있다.
S1603 단계에서, 장치(300)는 2D 데이터와 3D 데이터의 합집합 영역을 분리하여, 2D 데이터 및 3D 데이터를 병합한 제1 데이터를 추출할 수 있다.
구체적으로, 장치(300)는 2D 데이터와 3D 데이터를 비교하여, 서로 중복되는 합집합 영역을 파악할 수 있으며, 2D 데이터에서 합집합 영역을 분리하고 3D 데이터에서 합집합 영역을 분리하여, 분리된 합집합 영역을 병합하여 제1 데이터를 추출할 수 있다. 여기서, 제1 데이터는 4채널로 구성될 수 있으며, 3채널은 RGB 값을 나타내는 2D 데이터이고, 1채널은 3D 깊이 값을 나타내는 데이터일 수 있다.
장치(300)는 제1 데이터를 인코딩하여 제1 입력 신호를 생성할 수 있다.
구체적으로, 장치(300)는 제1 데이터의 픽셀을 색 정보로 인코딩하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 장치(300)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제1 데이터를 인코딩할 수 있다.
장치(300)는 제1 입력 신호를 장치(300) 내 미리 학습된 제3 인공 신경망에 입력할 수 있다.
일실시예에 따른 제3 인공 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.
일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 제1 영역의 표면의 거칠기 단계를 분류를 위한 제3 인공 신경망의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 제1 영역의 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제3 인공 신경망에 대한 자세한 설명은 도 15를 참조하여 후술한다.
장치(300)는 제3 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득할 수 있다.
S1604 단계에서, 장치(300)는 제1 출력 신호에 기초하여, 제1 영역의 표면에 대한 제1 분류 결과를 생성할 수 있다. 여기서, 제1 분류 결과는 제1 영역의 표면이 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.
예를 들어, 장치(300)는 제1 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 제1 영역의 표면이 1단계에 해당하는 것으로 제1 분류 결과를 생성하고, 출력값이 2인 경우, 제1 영역의 표면이 2단계에 해당하는 것으로 제1 분류 결과를 생성할 수 있다. 단계가 올라갈수록 제1 영역의 표면이 더 거칠어진다는 것을 파악할 수 있다.
S1405 단계에서, 장치(300)는 제1 데이터를 분석하여 제1 영역의 표면에 발생한 균열을 검출할 수 있다. 균열 검출 시에는 이미지 분석을 통해 일정 크기 이상으로 확인된 부분만 제1 영역의 표면에 발생한 균열로 검출할 수 있다.
S1406 단계에서, 장치(300)는 제1 영역의 표면에 발생한 균열을 영역별로 확인하여, 정상 영역과 손상 영역을 구분할 수 있다.
구체적으로, 장치(300)는 제1 데이터를 제1 영역, 제2 영역 등의 복수의 영역으로 구분하여, 각각의 영역 별로 균열이 몇 개씩 검출되었는지 확인할 수 있으며, 제1 설정값 미만으로 균열이 검출된 영역을 정상 영역으로 구분하고, 제1 설정값 이상으로 균열이 검출된 영역을 손상 영역으로 구분할 수 있다. 이때, 제1 설정값은 실시예에 따라 상이하게 설정될 수 있다.
S1407 단계에서, 장치(300)는 제1 데이터에서 손상 영역을 삭제한 제2 데이터를 추출할 수 있다.
예를 들어, 제1 데이터에 있는 이미지가 제1 영역, 제2 영역 및 제3 영역으로 구성되어 있는데, 제1 영역은 손상 영역으로 구분되고, 제2 영역 및 제3 영역은 정상 영역으로 구분된 경우, 장치(300)는 제2 영역 및 제3 영역만 포함된 이미지를 제2 데이터로 추출할 수 있다.
장치(300)는 제2 데이터를 인코딩하여 제2 입력 신호를 생성할 수 있다.
구체적으로, 장치(300)는 제2 데이터의 픽셀을 색 정보로 인코딩하여 제2 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 장치(300)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제2 데이터를 인코딩할 수 있다.
장치(300)는 제2 입력 신호를 장치(300) 내 미리 학습된 제4 인공 신경망에 입력할 수 있다.
일실시예에 따른 제4 인공 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.
일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 제1 영역의 표면의 거칠기 단계를 분류를 위한 제4 인공 신경망의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 제1 영역의 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제4 인공 신경망에 대한 자세한 설명은 도 15를 참조하여 후술한다.
장치(300)는 제4 인공 신경망의 입력의 결과에 기초하여, 제2 출력 신호를 획득할 수 있다.
S1408 단계에서, 장치(300)는 제2 출력 신호에 기초하여, 제1 영역의 표면에 대한 제2 분류 결과를 생성할 수 있다. 여기서, 제2 분류 결과는 제1 영역의 표면이 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.
예를 들어, 장치(300)는 제2 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 제1 영역의 표면이 1단계에 해당하는 것으로 제2 분류 결과를 생성하고, 출력값이 2인 경우, 제1 영역의 표면이 2단계에 해당하는 것으로 제2 분류 결과를 생성할 수 있다.
S1409 단계에서, 장치(300)는 제1 분류 결과 및 제2 분류 결과를 기초로, 제1 영역의 표면에 대한 최종 분류 결과를 설정할 수 있다.
구체적으로, 제1 분류 결과 및 제2 분류 결과가 동일한 경우, 장치(300)는 제1 분류 결과 및 제2 분류 결과 중 어느 하나를 제1 영역의 표면에 대한 최종 분류 결과로 설정할 수 있다.
장치(300)는 최종 분류 결과를 기초로, 제1 영역의 표면에 대한 거칠기 단계를 확인하여, 제1 영역의 표면이 거칠수록 제1 영역의 상태가 안좋은 것으로 판단할 수 있으며, 제1 영역의 상태에 따라 유지 보수가 어느 정도 필요한지 예측하여 제1 영역의 견적을 산출할 수 있다.
도 15는 일실시예에 따른 제3 인공 신경망 및 제4 인공 신경망을 설명하기 위한 도면이다.
일실시예에 따른 인공 신경망(1500)은 제3 인공 신경망 및 제4 인공 신경망 중 어느 하나일 수 있다. 제3 인공 신경망인 경우, 제1 데이터의 인코딩에 의해 생성된 제1 입력 신호를 입력으로 하여, 제1 영역의 표면이 거칠기 단계 중 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다. 제4 인공 신경망인 경우, 제2 데이터의 인코딩에 의해 생성된 제2 입력 신호를 입력으로 하여, 제1 영역의 표면이 거칠기 단계 중 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다.
일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다.
일실시예에 따르면, 인공 신경망(1500)은 특징 추출 신경망(1510)과 분류 신경망(1520)으로 구성되어 있으며, 특징 추출 신경망(1510)은 이미지에서 제1 영역의 영역과 배경 영역을 분리하는 작업을 수행할 수 있으며, 분류 신경망(1520)은 이미지 내에서 제1 영역의 표면이 거칠기 단계 중 어느 단계로 분류되는지 여부를 파악하는 작업을 수행하도록 할 수 있다.
특징 추출 신경망(1510)이 제1 영역의 영역과 배경 영역을 구분하는 방법은 이미지를 인코딩한 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 제1 영역의 영역과 배경 영역의 경계로 삼을 수 있으나, 이에 국한하지 않는다.
특징 추출 신경망(1510)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.
분류 신경망(1520)은 특징 추출 신경망(1510)을 통해 배경으로부터 구분된 제1 영역의 영역의 표면을 확인하고, 미리 정의된 거칠기 단계별 표면 상태와 유사한지 여부를 확인하여, 제1 영역의 영역의 표면이 거칠기 단계 중 어느 단계로 분류되는지 여부를 파악할 수 있다. 거칠기 단계별 표면 상태와 비교하기 위해, 장치(300)의 데이터베이스에 저장된 정보들을 활용할 수 있다.
분류 신경망(1520)은 히든 레이어와 출력 레이어를 가지고 있으며, 5층 이하의 히든 레이어로 구성되어, 총 50개 이하의 히든 레이어 노드를 포함하고, 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다.
분류 신경망(1520)는 총 1개의 출력층 노드만 포함할 수 있다.
분류 신경망(1520)의 출력은 제1 영역의 표면이 거칠기 단계 중 어느 단계로 분류되는지에 대한 출력값으로, 거칠기 단계 중 어느 단계에 해당하는지를 지시할 수 있다. 예를 들어, 출력값이 1인 경, 제1 영역의 표면이 1단계에 해당하는 것을 지시하고, 출력값이 2인 경우, 제1 영역의 표면이 2단계에 해당하는 것을 지시할 수 있다.
일실시예에 따르면, 인공 신경망(1500)은 사용자가 인공 신경망(1500)에 따른 출력의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 제1 학습 신호를 전달받아 학습할 수 있다. 인공 신경망(1500)에 따른 출력의 문제점은 제1 영역의 표면에 대해 거칠기 단계 중 다른 단계로 분류한 출력값을 출력한 경우를 의미할 수 있다.
일실시예에 따른 제1 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 인공 신경망(1500)은 제1 학습 신호에 의해 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다. 이하 도 16을 참조하여 인공 신경망(1500)의 학습 내용이 후술된다.
도 16은 일실시예에 따른 제3 인공 신경망 및 제4 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
일실시예에 따르면, 학습 장치는 인공 신경망(1500)을 학습시킬 수 있다. 학습 장치는 장치(300)와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.
일실시예에 따르면, 인공 신경망(1500)은 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 제1 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 제1 레이블들은 거칠기 단계별로 등록되어 있는 대표 이미지에 기초하여 정의될 수 있다. 인공 신경망(1500)은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다.
학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 인공 신경망(1500)을 학습시킬 수 있다. 학습 장치는 인공 신경망(1500)의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.
학습 장치는 미리 정의된 손실 함수(loss function)을 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 인공 신경망(1500) 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.
학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 인공 신경망(1500) 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.
일실시예에 따르면, 학습 장치는 장치(300)의 데이터베이스로부터 레이블드 트레이닝 거칠기 단계별 대표 이미지들(1601)을 획득할 수 있다. 학습 장치는 거칠기 단계별 대표 이미지들(1601)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 거칠기 단계별 대표 이미지들(1601)은 미리 분류된 거칠기 단계에 따라 레이블링될 수 있다.
일실시예에 따르면, 학습 장치는 1000개의 레이블드 트레이닝 거칠기 단계별 대표 이미지들(1601)을 획득할 수 있으며, 레이블드 트레이닝 거칠기 단계별 대표 이미지들(1601)에 기초하여 제1 트레이닝 거칠기 단계별 벡터들(1602)을 생성할 수 있다. 제1 트레이닝 거칠기 단계별 벡터들(1602)을 추출하는데는 다양한 방식이 채용될 수 있다.
일실시예에 따르면, 학습 장치는 제1 트레이닝 거칠기 단계별 벡터들(1602)을 인공 신경망(1500)에 적용하여 제1 트레이닝 출력들(1603)을 획득할 수 있다. 학습 장치는 제1 트레이닝 출력들(1603)과 제1 레이블들(1604)에 기초하여 인공 신경망(1500)을 학습시킬 수 있다. 학습 장치는 제1 트레이닝 출력들(1603)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 인공 신경망(1500) 내 노드들의 연결 관계를 최적화하여 인공 신경망(1500)을 학습시킬 수 있다.
도 17은 일실시예에 따른 장치의 구성의 예시도이다.
일실시예에 따른 장치(300)는 프로세서(310) 및 메모리(320)를 포함한다. 프로세서(310)는 도 1 내지 도 16을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 16을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(300)를 이용하는 자 또는 단체는 도 1 내지 도 16을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.
메모리(320)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(320)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(310)는 프로그램을 실행하고, 장치(300)를 제어할 수 있다. 프로세서(310)에 의하여 실행되는 프로그램의 코드는 메모리(320)에 저장될 수 있다. 장치(300)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.
장치(300)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(320)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(310)는 메모리(320)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(300)와 학습된 인공 신경망을 이용하는 장치(300)는 동일할 수도 있고 개별적일 수도 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (3)

  1. 장치에 의해 수행되는, 드론 촬영 영상의 빅데이터를 활용하여 인공지능 기반의 건물 시공법을 도출하는 방법에 있어서,
    사용자 단말로부터 제1 건물에 대한 유지 보수 확인 요청이 수신되면, 제1 건물의 외관 정보를 획득하는 단계;
    상기 외관 정보를 제1 인공 신경망에 적용하여, 상기 제1 인공 신경망의 출력을 기초로, 복수의 드론에 대한 비행경로를 생성하는 단계;
    상기 비행경로를 따라 상기 복수의 드론이 이동하도록 제어하는 단계;
    상기 복수의 드론이 이동하는 동안, 상기 복수의 드론 각각에 장착된 카메라에서 촬영된 촬영 영상을 획득하는 단계;
    상기 촬영 영상을 합성하여 상기 제1 건물의 외관 영상을 생성하는 단계;
    상기 외관 영상을 분석하여 상기 제1 건물의 외관에 유지 보수가 필요한 영역이 있는지 여부를 판단하는 단계;
    상기 제1 건물의 외관 중 제1 영역의 유지 보수가 필요한 것으로 판단되면, 상기 제1 건물의 외관 영상에서 상기 제1 영역의 영상을 추출하는 단계;
    상기 제1 영역의 영상 정보를 제2 인공 신경망에 적용하여, 상기 제2 인공 신경망의 출력을 기초로, 상기 제1 영역에 대한 시공법 추천 결과를 생성하는 단계;
    상기 시공법 추천 결과를 통해, 상기 제1 영역에 사용될 마감재를 확인하여, 상기 제1 영역에 대한 추천 시공법을 도출하는 단계;
    상기 제1 영역의 추천 시공법에 대한 알림 메시지를 상기 사용자 단말로 전송하는 단계;
    상기 제1 영역이 상기 제1 건물의 제1 면에 위치하는 것으로 확인되면, 상기 복수의 드론 중 어느 하나인 제1 드론에 장착된 라이다를 통해 상기 제1 영역의 표면에 대한 3D 데이터를 획득하고, 상기 제1 드론에 장착된 카메라를 통해 상기 제1 영역의 표면에 대한 2D 데이터를 획득하는 단계;
    상기 2D 데이터와 상기 3D 데이터의 합집합 영역을 분리하여, 상기 2D 데이터 및 상기 3D 데이터를 병합한 제1 데이터를 추출하는 단계;
    상기 제1 데이터를 인코딩 하여 제1 입력 신호를 생성하는 단계;
    상기 제1 입력 신호를 제3 인공 신경망에 입력하고, 상기 제3 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득하는 단계;
    상기 제1 출력 신호에 기초하여, 상기 제1 영역의 표면에 대한 제1 분류 결과를 생성하는 단계;
    상기 제1 데이터를 분석하여 상기 제1 영역의 표면에 발생한 균열을 검출하는 단계;
    상기 제1 영역의 표면에 발생한 균열을 영역별로 확인하여, 미리 설정된 제1 설정값 미만으로 균열이 검출된 정상 영역과 상기 제1 설정값 이상으로 균열이 검출된 손상 영역을 구분하는 단계;
    상기 제1 데이터에서 상기 손상 영역을 삭제한 제2 데이터를 추출하는 단계;
    상기 제2 데이터를 인코딩 하여 제2 입력 신호를 생성하는 단계;
    상기 제2 입력 신호를 제4 인공 신경망에 입력하고, 상기 제4 인공 신경망의 입력의 결과에 기초하여, 제2 출력 신호를 획득하는 단계;
    상기 제2 출력 신호에 기초하여, 상기 제1 영역의 표면에 대한 제2 분류 결과를 생성하는 단계; 및
    상기 제1 분류 결과 및 상기 제2 분류 결과가 동일한 경우, 상기 제1 분류 결과 및 상기 제2 분류 결과 중 어느 하나를 상기 제1 영역의 표면에 대한 최종 분류 결과로 설정하는 단계를 포함하는,
    드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법.
  2. 제1항에 있어서,
    상기 제1 영역에 대한 추천 시공법을 도출하는 단계는,
    상기 제1 영역이 상기 제1 건물의 바닥으로부터 떨어진 거리를 확인하여, 상기 제1 영역의 높이를 산출하는 단계;
    상기 제1 영역의 높이가 미리 설정된 제1 기준 높이 보다 낮은지 여부를 확인하는 단계;
    상기 제1 영역의 높이가 상기 제1 기준 높이 보다 낮은 것으로 확인되면, 상기 제1 영역의 추천 시공법을 사다리차를 이용한 시공법인 제1 시공법으로 설정하는 단계;
    상기 제1 영역의 높이가 상기 제1 기준 높이 보다 높은 것으로 확인되면, 상기 제1 영역의 높이가 미리 설정된 제2 기준 높이 보다 낮은지 여부를 확인하는 단계;
    상기 제1 영역의 높이가 상기 제2 기준 높이 보다 낮은 것으로 확인되면, 상기 제1 영역의 추천 시공법을 드론을 이용한 제2 시공법으로 설정하는 단계; 및
    상기 제1 영역의 높이가 상기 제2 기준 높이 보다 높은 것으로 확인되면, 상기 제1 영역의 추천 시공법을 건물 옥상에서 하부로 연결된 구조체를 이용한 시공법인 제3 시공법으로 설정하는 단계를 포함하는,
    드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법.
  3. 제2항에 있어서,
    상기 제1 시공법, 상기 제2 시공법 및 상기 제3 시공법 중 어느 하나가 상기 제1 영역의 추천 시공법으로 설정되면, 상기 제1 영역의 추천 시공법에 대한 알림 메시지를 상기 사용자 단말로 전송하는 단계;
    상기 제1 영역의 추천 시공법을 진행하기 위한 시공일이 지정되면, 상기 시공일에 대한 시공 가능 확인 요청을 상기 사용자 단말로부터 수신하는 단계;
    상기 제1 건물이 위치하는 지역에 대한 기상 예측 정보를 획득하여, 상기 시공일의 예측 강수량을 확인하는 단계;
    상기 시공일의 예측 강수량이 미리 설정된 제1 기준 강수량 보다 적은지 여부를 확인하는 단계;
    상기 시공일의 예측 강수량이 상기 제1 기준 강수량 보다 적은 것으로 확인되면, 상기 시공일에 상기 제1 시공법, 상기 제2 시공법 및 상기 제3 시공법을 통해 시공이 가능한 것으로 판단하는 단계;
    상기 시공일의 예측 강수량이 상기 제1 기준 강수량 보다 많은 것으로 확인되면, 상기 시공일의 예측 강수량이 미리 설정된 제2 기준 강수량 보다 적은지 여부를 확인하는 단계;
    상기 시공일의 예측 강수량이 상기 제2 기준 강수량 보다 적은 것으로 확인되면, 상기 시공일에 상기 제1 시공법 및 상기 제2 시공법을 통해 시공이 가능한 것으로 판단하는 단계;
    상기 시공일의 예측 강수량이 상기 제2 기준 강수량 보다 많은 것으로 확인되면, 상기 시공일의 예측 강수량이 미리 설정된 제3 기준 강수량 보다 적은지 여부를 확인하는 단계;
    상기 시공일의 예측 강수량이 상기 제3 기준 강수량 보다 적은 것으로 확인되면, 상기 시공일에 상기 제1 시공법을 통해 시공이 가능한 것으로 판단하는 단계; 및
    상기 시공일의 예측 강수량이 상기 제3 기준 강수량 보다 많은 것으로 확인되면, 상기 시공일에 시공이 불가능한 것으로 판단하는 단계를 더 포함하는,
    드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법.
KR1020210050734A 2021-04-19 2021-04-19 드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법, 장치 및 시스템 KR102299586B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210050734A KR102299586B1 (ko) 2021-04-19 2021-04-19 드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법, 장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210050734A KR102299586B1 (ko) 2021-04-19 2021-04-19 드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법, 장치 및 시스템

Publications (1)

Publication Number Publication Date
KR102299586B1 true KR102299586B1 (ko) 2021-09-08

Family

ID=77787718

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210050734A KR102299586B1 (ko) 2021-04-19 2021-04-19 드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법, 장치 및 시스템

Country Status (1)

Country Link
KR (1) KR102299586B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102413637B1 (ko) * 2021-10-18 2022-06-28 (주)레인보우테크 교량 영상 데이터를 이용하여 교량을 유지 보수하는 방법 및 시스템
KR102418225B1 (ko) * 2021-10-15 2022-07-06 씨제이대한통운 (주) 인공지능 기반의 건축 공법 추천 시스템 및 건축 공법 추천 방법
KR102525325B1 (ko) * 2023-02-03 2023-04-24 구본웅 공사 현장 데이터를 반영한 지도 연계 배관 정보의 시각화 및 배관 정보 관리 서비스 제공 방법, 장치 및 시스템

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160142461A (ko) 2015-06-02 2016-12-13 주식회사 포스코에이앤씨건축사사무소 드론을 활용한 먹매김 및 그의 시공방법
KR102007761B1 (ko) * 2018-10-29 2019-10-21 정윤진 시설물 유지관리 보수공법 추천 시스템 및 방법
KR20200091717A (ko) 2019-01-23 2020-07-31 주식회사 제이앤에스한백 커튼월 시공 보수를 위한 비행체 및 비행체를 이용한 커튼월 시공 보수방법
KR20200091817A (ko) 2019-01-23 2020-07-31 주식회사 제이앤에스한백 건물 외벽 시공 중 또는 시공 후 비행체를 이용하여 건물 외벽 시공 하자를 검출하는 방법
KR20200113395A (ko) 2019-03-25 2020-10-07 주식회사 공간정보 건설현장의 시공 및 검사 측량용 드론시스템
KR20200143149A (ko) * 2019-06-14 2020-12-23 주식회사 한국건설방재연구원 드론 촬영 영상의 인공지능 분석을 통한 구조물의 안전진단방법
KR102208008B1 (ko) * 2020-07-17 2021-01-28 박헌우 드론을 이용한 시공 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160142461A (ko) 2015-06-02 2016-12-13 주식회사 포스코에이앤씨건축사사무소 드론을 활용한 먹매김 및 그의 시공방법
KR102007761B1 (ko) * 2018-10-29 2019-10-21 정윤진 시설물 유지관리 보수공법 추천 시스템 및 방법
KR20200091717A (ko) 2019-01-23 2020-07-31 주식회사 제이앤에스한백 커튼월 시공 보수를 위한 비행체 및 비행체를 이용한 커튼월 시공 보수방법
KR20200091817A (ko) 2019-01-23 2020-07-31 주식회사 제이앤에스한백 건물 외벽 시공 중 또는 시공 후 비행체를 이용하여 건물 외벽 시공 하자를 검출하는 방법
KR20200113395A (ko) 2019-03-25 2020-10-07 주식회사 공간정보 건설현장의 시공 및 검사 측량용 드론시스템
KR20200143149A (ko) * 2019-06-14 2020-12-23 주식회사 한국건설방재연구원 드론 촬영 영상의 인공지능 분석을 통한 구조물의 안전진단방법
KR102208008B1 (ko) * 2020-07-17 2021-01-28 박헌우 드론을 이용한 시공 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102418225B1 (ko) * 2021-10-15 2022-07-06 씨제이대한통운 (주) 인공지능 기반의 건축 공법 추천 시스템 및 건축 공법 추천 방법
KR102413637B1 (ko) * 2021-10-18 2022-06-28 (주)레인보우테크 교량 영상 데이터를 이용하여 교량을 유지 보수하는 방법 및 시스템
US11600061B1 (en) 2021-10-18 2023-03-07 Rainbowtech Co., Ltd. Method and system for maintaining bridge using bridge image data
KR102525325B1 (ko) * 2023-02-03 2023-04-24 구본웅 공사 현장 데이터를 반영한 지도 연계 배관 정보의 시각화 및 배관 정보 관리 서비스 제공 방법, 장치 및 시스템

Similar Documents

Publication Publication Date Title
KR102299586B1 (ko) 드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 시공법 도출 방법, 장치 및 시스템
RU2770752C1 (ru) Способ и устройство для обучения модели распознавания лица и устройство для определения ключевой точки лица
CN111738231B (zh) 目标对象检测方法、装置、计算机设备和存储介质
US20190213481A1 (en) Predicting depth from image data using a statistical model
JP7447932B2 (ja) 画像処理システム、画像処理方法及びプログラム
US20210064871A1 (en) Apparatus and method for recognition of text information
JP6137916B2 (ja) 信号処理装置、信号処理方法、及び、信号処理システム
US11393169B2 (en) Photogrammetry of building using machine learning based inference
KR102299295B1 (ko) 드론 촬영 영상의 빅데이터를 활용한 인공지능 기반 건물 유지 보수 견적 산출 방법, 장치 및 시스템
CN111444744A (zh) 活体检测方法、装置以及存储介质
US20210281977A1 (en) Indoor positioning system for a mobile electronic device
KR102287891B1 (ko) 라이다와 카메라 퓨전 기술을 이용한 인공지능 기반 골재 품질 분석 방법, 장치 및 시스템
KR102252845B1 (ko) 머신비전 및 3d 프로파일을 통한 콘크리트 표면 분석 방법, 장치 및 시스템
KR101963404B1 (ko) 2-단계 최적화 딥 러닝 방법, 이를 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록매체 및 딥 러닝 시스템
WO2021249114A1 (zh) 目标跟踪方法和目标跟踪装置
KR20210059576A (ko) 인공 지능 기반의 영상 처리 방법 및 이를 수행하는 영상 처리 장치
KR102394900B1 (ko) 인공지능 기반 상품 재고량 정보 동기화 방법, 장치 및 시스템
KR102429392B1 (ko) 이미지 크롤링 기법을 활용한 상품 정보 제공 방법, 장치 및 시스템
KR20200012379A (ko) 이미지 기반 실내위치 검출장치 및 검출방법
US11470248B2 (en) Data compression apparatus, model generation apparatus, data compression method, model generation method and program recording medium
CN114627397A (zh) 行为识别模型构建方法以及行为识别方法
KR102458694B1 (ko) 인공지능 기반 디자인 작업 비용 추정 및 디자인 작업 의뢰 중개 플랫폼 서비스 제공 방법, 장치 및 시스템
KR101592087B1 (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
KR102315592B1 (ko) 사용자 접근성이 개선된 전자 장비의 유지 보수 서비스 제공 방법, 장치 및 시스템
KR102318931B1 (ko) 폐의류를 활용한 의류 리사이클링 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant