KR102484280B1 - System for providing adjacent building pre-survey service usign drone - Google Patents

System for providing adjacent building pre-survey service usign drone Download PDF

Info

Publication number
KR102484280B1
KR102484280B1 KR1020220063144A KR20220063144A KR102484280B1 KR 102484280 B1 KR102484280 B1 KR 102484280B1 KR 1020220063144 A KR1020220063144 A KR 1020220063144A KR 20220063144 A KR20220063144 A KR 20220063144A KR 102484280 B1 KR102484280 B1 KR 102484280B1
Authority
KR
South Korea
Prior art keywords
drone
data
time
damage
real
Prior art date
Application number
KR1020220063144A
Other languages
Korean (ko)
Inventor
강제균
Original Assignee
주식회사 한목
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 한목 filed Critical 주식회사 한목
Priority to KR1020220063144A priority Critical patent/KR102484280B1/en
Application granted granted Critical
Publication of KR102484280B1 publication Critical patent/KR102484280B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Provided is a system for providing a survey service around a structure using a drone, which comprises: a drone capturing a location from the sky in which at least one event requiring a survey around a structure occurs and streaming the same in real time to compare before and after occurrence of at least one event; a 360-degree VR camera capturing 360 degrees horizontally and vertically to create a spherical photo or video; a user terminal overlaying damage data, including a location, type, size, length, and shape of damage extracted and labeled within the photo or video received from the 360-degree VR camera, onto the photo or video, and synchronizing real-time drone data streamed from the drone with the damage data to output the same; and a survey service providing server including a complanation unit which performs complanation by stitching the spherical photo or video received from the 360-degree VR camera, an extraction unit which extracts the damage data containing the location, type, size, length, and shape of the damage from the spherical photo or image, a transmission unit which transmits the damage data to the user terminal, and a synchronization unit which synchronizes the time of the damage data and real-time drone data and outputs the damage data and real-time drone data. Accordingly, GPS coordinates for an object and changes in a state of buildings or facilities before, during, and after construction can be identified.

Description

드론을 이용한 연도변 조사 서비스 제공 시스템{SYSTEM FOR PROVIDING ADJACENT BUILDING PRE-SURVEY SERVICE USIGN DRONE}Year-end survey service using drone {SYSTEM FOR PROVIDING ADJACENT BUILDING PRE-SURVEY SERVICE USIGN DRONE}

본 발명은 드론을 이용한 연도변 조사 서비스 제공 시스템에 관한 것으로, 드론 및 360도 카메라를 이용하여 촬영한 영상을 동기화함으로써 공사 착공 전후의 공사피해에 대한 절대조사기준을 마련할 수 있는 시스템을 제공한다.The present invention relates to a system for providing year-end survey services using drones, and provides a system capable of establishing absolute standards for investigation of construction damage before and after the start of construction by synchronizing images taken using a drone and a 360-degree camera. .

최근 도심지 사회기간시설 확장의 필요성으로 인해 철도, 지하철 등을 터널로 건설하는 경향이 점차 증가하는 추세에 있다. 도심지 터널은 비교적 천층에 건설되는 경우가 많기 때문에 지반변위가 터널설계를 지배하는 주요 인자로 대두되고 있다. 특히, 도심지 터널 건설에 필수적인 요건중의 하나가 지중 및 지상에 존재하는 각종 인접구조물에 대한 안전성을 확보하는 것인데, 터널설계, 시공단계에서 예측하지 못한 지반조건 등의 문제로 터널굴착에 따른 인접구조물들의 피해사례가 종 발생하고 있다. 이러한 도심지 천층에 건설되는 터널설계에서 고려되어야 할 필수조건은 중 하나는 인접구조물들에 과도한 손상을 주지 말아야 하는 것이다. 이때, 연도(沿道)변 사전(Pre) 또는 사후(Post) 조사(Survey)를 시행하는데, 공사 현장 인근에 대하여 영향이 미칠 것으로 판단되는 인접건축물을 대상으로 공종에 따라 영향범위를 설정하여 손상수치 및 손상진행성을 조사하게 된다.Recently, due to the necessity of expanding social infrastructure in urban areas, the trend of constructing tunnels for railroads and subways is gradually increasing. Because urban tunnels are often built on relatively shallow floors, ground displacement is emerging as a major factor governing tunnel design. In particular, one of the essential requirements for urban tunnel construction is to secure the safety of the underground and various adjacent structures existing on the ground. There are many cases of their victims. One of the essential conditions to be considered in the design of tunnels built in the shallow urban area is not to cause excessive damage to adjacent structures. At this time, a pre- or post-survey is conducted along the roadside, and the damage value is determined by setting the range of influence according to the type of construction targeting adjacent buildings that are judged to have an impact on the vicinity of the construction site. and damage progression will be investigated.

이때, 연접도 사전 조사를 할 때 레이저 스캐닝을 이용하거나, 사후에 진동 수치를 비교하는 방법으로 이루어지는데, 선행기술인 한국공개특허 제2011-0127517호(2011년11월25일 공개) 및 한국공개특허 제2007-0077218호(2007년07월25일 공개)에는, 건축물 건설을 위해 지하를 파내는 터파기 공사단계에서 기 설정된 깊이만큼 파낼 때마다 지반의 단면에 대한 레이저 스캐닝을 행하여 정확한 지질상태를 조사하고 그 결과를 피드백을 행하여 설계를 보완 및 변경하도록, 지질조사 현장에 기준점을 배치하여 설치하고, 지반 및 기준점에 대한 레이저 스캐닝을 수행하며, 레이저 스캐닝한 지반에 대하여 디지털 카메라로 촬영하고, 터파기 공사를 진행함에 따라 레이저 스캐닝과 디지털 카메라 촬영을 반복한 후, 지반에 대한 3차원 영상자료를 생성하며, 생성된 영상자료를 분석하여 건축물 설계에 필요한 데이터를 생성하는 구성과, 지하철 주행에 따른 인접건물의 안전도를 측정하기 위하여, 지하철 가속도신호를 측정하고, 가속도 신호를 속도나 변위 신호로 변환하며, 표준 지하철 진동 수치와 비교 및 분석함으로써 인접건물의 안전도를 측정하고 모니터링하는 구성이 각각 개시되어 있다.At this time, laser scanning is used when pre-surveying the degree of synapse, or it is made by comparing vibration values after the fact. Prior art, Korean Patent Publication No. 2011-0127517 (published on November 25, 2011) and Korea Patent Publication In No. 2007-0077218 (published on July 25, 2007), laser scanning of the cross-section of the ground is performed every time a predetermined depth is dug in the ground excavation construction stage for building construction to investigate the accurate geological condition, In order to supplement and change the design by providing feedback on the results, reference points are arranged and installed at the geological survey site, laser scanning of the ground and reference points is performed, the laser-scanned ground is photographed with a digital camera, and excavation work is performed. As the process progresses, after repeating laser scanning and digital camera shooting, 3D image data for the ground are generated, and the generated image data is analyzed to generate data necessary for building design, and adjacent buildings according to subway operation In order to measure the safety of the subway, a configuration for measuring and monitoring the safety of adjacent buildings by measuring subway acceleration signals, converting the acceleration signals into speed or displacement signals, and comparing and analyzing with standard subway vibration values is disclosed.

다만, 전자의 경우 건축물을 지을 때 건축물 자체에 영향을 미치는 것을 피드백받고 반영할 뿐, 인접건물에 대한 환경영향평가를 하는 것이 아니며, 후자의 경우에도 지속적으로 운행되는 지하철을 대상으로 진동만을 측정하는 것이지 건물 자체의 균열을 측정하는 구성이 아니다. 360도 카메라를 이용하여 3D 입체영상으로 연도변을 조사하고 도면화함으로써 분쟁을 방지하고 사회적 비용을 제로화하는 방법도 개발되었으나, 이 방법 역시 연도변 사전 조사에 국한되고 실시간으로 공사가 진행중일 때 변화를 모니터링할 수 있는 구성이 아니다. 이에, 360도 카메라를 이용하여 3D 입체영상으로 연도변을 조사하고 도면화하고, 드론을 이용하여 촬영된 실시간 드론 데이터를 손상 데이터와 동기화하여 제공하는 시스템의 연구 및 개발이 요구된다.However, in the case of the former, when building a building, feedback is received and reflected on what affects the building itself, and environmental impact assessment on adjacent buildings is not carried out. It is not a configuration that measures cracks in the building itself. A method of preventing disputes and reducing social costs to zero has been developed by using a 360-degree camera to survey and draw the riverside with 3D stereoscopic images, but this method is also limited to pre-surveying the roadside and changes during construction in real time. is not a configuration that can be monitored. Therefore, it is required to research and develop a system that surveys and draws the roadside with 3D stereoscopic images using a 360-degree camera, and synchronizes and provides real-time drone data photographed using a drone with damage data.

본 발명의 일 실시예는, 360도 VR 카메라로부터 수신된 사진 또는 영상로부터 손상의 위치, 종류, 크기, 길이 및 형상을 포함한 손상 데이터를 추출하고, 드론으로부터 스트리밍된 실시간 드론 데이터의 시간을 동기화시켜 실시간 공사 이벤트에 따른 연도변 조사가 가능하도록 하며, GPS를 이용하여 실시간 드론 데이터에서 촬영된 객체에 대한 GPS 좌표, 공사 전, 중 및 후의 건물이나 시설 상태 변화를 파악할 수 있으므로 외관 조사만에 국한되지 않고 내부 조사까지 진행할 수 있는, 드론을 이용한 연도변 조사 서비스 제공 시스템을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.An embodiment of the present invention extracts damage data including the location, type, size, length and shape of damage from a photo or video received from a 360 degree VR camera, and synchronizes the time of real-time drone data streamed from a drone. It enables annual surveys according to real-time construction events, and GPS coordinates for objects captured from real-time drone data using GPS, and changes in building or facility conditions before, during, and after construction can be grasped, so it is not limited to exterior surveys. It is possible to provide a roadside survey service providing system using drones that can proceed to internal survey without doing so. However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 연도변 조사가 요구되는 적어도 하나의 이벤트가 발생하는 장소를 상공에서 촬영하고, 적어도 하나의 이벤트가 발생하기 전 및 후를 비교하도록 실시간 스트리밍하는 드론, 수평 및 상하의 360도를 촬영하여 구면 사진 또는 영상을 생성하는 360도 VR 카메라, 360도 VR 카메라로부터 수신된 사진 또는 영상 내에서 추출 및 라벨링된 손상의 위치, 종류, 크기, 길이 및 형상을 포함한 손상 데이터를, 사진 또는 영상에 오버레이(Overlay)하고, 드론으로부터 스트리밍되는 실시간 드론 데이터를 손상 데이터와 동기화(Synchronization)하여 출력하는 사용자 단말 및 360도 VR 카메라로부터 수신된 구면 사진 또는 영상을 스티칭(Stitching)하여 평면화(Complanation)를 수행하는 평면화부, 구면 사진 또는 영상으로부터 손상의 위치, 종류, 크기, 길이 및 형상을 포함한 손상 데이터를 추출하는 추출부, 사용자 단말로 손상 데이터를 전송하는 전송부, 손상 데이터와 실시간 드론 데이터의 시간을 동기화시켜 손상 데이터와 실시간 드론 데이터를 출력하는 동기화부를 포함하는 조사 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention, photographing a place where at least one event for which annual survey is required occurs from the air, and before and after at least one event occurs. Drones streaming in real time to compare damage, 360 degree VR cameras taking 360 degrees horizontally and vertically to create spherical pictures or videos, locations, types of damage extracted and labeled within pictures or videos received from 360 degree VR cameras, The spherical surface received from the user terminal and 360-degree VR camera that overlays damage data, including size, length, and shape, on a photo or video, and synchronizes and outputs real-time drone data streamed from the drone with the damage data A flattening unit that performs complanation by stitching photos or images, an extraction unit that extracts damage data including location, type, size, length, and shape of damage from spherical photos or images, and damage data to user terminals and a survey service providing server including a transmission unit that transmits and a synchronization unit that synchronizes time between damage data and real-time drone data and outputs damage data and real-time drone data.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 360도 VR 카메라로부터 수신된 사진 또는 영상로부터 손상의 위치, 종류, 크기, 길이 및 형상을 포함한 손상 데이터를 추출하고, 드론으로부터 스트리밍된 실시간 드론 데이터의 시간을 동기화시켜 실시간 공사 이벤트에 따른 연도변 조사가 가능하도록 하며, GPS를 이용하여 실시간 드론 데이터에서 촬영된 객체에 대한 GPS 좌표, 공사 전, 중 및 후의 건물이나 시설 상태 변화를 파악할 수 있으므로 외관 조사만에 국한되지 않고 내부 조사까지 진행할 수 있다.According to any one of the above-described problem solving means of the present invention, damage data including the location, type, size, length, and shape of damage is extracted from a photo or video received from a 360-degree VR camera, and the real-time drone streamed from the drone By synchronizing the time of the data, it is possible to investigate yearly changes according to real-time construction events, and by using GPS, it is possible to grasp the GPS coordinates of objects captured from real-time drone data and changes in building or facility conditions before, during, and after construction. It is not limited to exterior inspections, but can also proceed with interior inspections.

도 1은 본 발명의 일 실시예에 따른 드론을 이용한 연도변 조사 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 조사 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 드론을 이용한 연도변 조사 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 드론을 이용한 연도변 조사 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
1 is a diagram for explaining a roadside survey service providing system using a drone according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a survey service providing server included in the system of FIG. 1 .
3 and 4 are views for explaining an embodiment in which a roadside survey service using a drone according to an embodiment of the present invention is implemented.
5 is an operation flowchart for explaining a method of providing a roadside survey service using a drone according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, this means that it may further include other components, not excluding other components, unless otherwise stated, and one or more other characteristics. However, it should be understood that it does not preclude the possibility of existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. As used throughout the specification, the terms "about", "substantially", etc., are used at or approximating that value when manufacturing and material tolerances inherent in the stated meaning are given, and do not convey an understanding of the present invention. Accurate or absolute figures are used to help prevent exploitation by unscrupulous infringers of the disclosed disclosure. The term "step of (doing)" or "step of" as used throughout the specification of the present invention does not mean "step for".

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, and two or more units may be realized by one hardware. On the other hand, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or configured to reproduce one or more processors. Thus, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'. In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by a terminal, device, or device may be performed instead by a server connected to the terminal, device, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal, apparatus, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is the terminal's identifying data. can be interpreted as

본 발명의 일 실시예는 출원인의 선등록특허인 한국등록특허 제10-2388777호(2022년04월21일 공고)의 개량특허로 선등록특허에 개시된 내용과 동일한 내용은 상술한 한국등록특허 제10-2388777호(2022년04월21일 공고)를 참조하기로 하고 본 명세서에서 상세히 기재하지 않기로 한다. 다만, 본 명세서에서 기재하지 않았다고 하여 본 발명의 일 실시예에 포함되지 않는 것은 아니며, 중복을 피하기 위하여 기재하지 않은 것임을 명시한다.One embodiment of the present invention is an improved patent of Korea Patent Registration No. 10-2388777 (published on April 21, 2022), which is a prior registration patent of the applicant, and the same content as disclosed in the prior registration patent is the same as the above-mentioned Korean Registered Patent No. 10-2388777 (announced on April 21, 2022) and will not be described in detail herein. However, just because it is not described in this specification does not mean that it is not included in an embodiment of the present invention, and it is specified that it is not described in order to avoid duplication.

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 드론을 이용한 연도변 조사 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 드론을 이용한 연도변 조사 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 조사 서비스 제공 서버(300), 적어도 하나의 360도 VR 카메라(400), 적어도 하나의 드론(500)을 포함할 수 있다. 다만, 이러한 도 1의 드론을 이용한 연도변 조사 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a diagram for explaining a roadside survey service providing system using a drone according to an embodiment of the present invention. Referring to FIG. 1 , the drone-based survey service providing system 1 includes at least one user terminal 100, a survey service providing server 300, at least one 360-degree VR camera 400, and at least one may include a drone 500 of However, since the roadside survey service providing system 1 using the drone of FIG. 1 is only one embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1 .

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(Network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 조사 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 조사 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 360도 VR 카메라(400), 적어도 하나의 드론(500)과 연결될 수 있다. 또한, 적어도 하나의 360도 VR 카메라(400)는, 네트워크(200)를 통하여 조사 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 적어도 하나의 드론(500)은, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 조사 서비스 제공 서버(300) 및 적어도 하나의 360도 VR 카메라(400)와 연결될 수 있다. At this time, each component of FIG. 1 is generally connected through a network (Network, 200). For example, as shown in FIG. 1 , at least one user terminal 100 may be connected to a research service providing server 300 through a network 200 . In addition, the survey service providing server 300 may be connected to at least one user terminal 100, at least one 360 degree VR camera 400, and at least one drone 500 through the network 200. In addition, at least one 360 degree VR camera 400 may be connected to the survey service providing server 300 through the network 200 . In addition, at least one drone 500 may be connected to at least one user terminal 100, the survey service providing server 300, and at least one 360 degree VR camera 400 through the network 200.

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure capable of exchanging information between nodes such as a plurality of terminals and servers, and examples of such networks include a local area network (LAN) and a wide area network (WAN: Wide Area Network), the Internet (WWW: World Wide Web), wired and wireless data communications networks, telephone networks, and wired and wireless television communications networks. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), 5th Generation Partnership Project (5GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi , Internet (Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth (Bluetooth) network, NFC ( A Near-Field Communication (Near-Field Communication) network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, etc. are included, but not limited thereto.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including singular and plural, and even if at least one term does not exist, each component may exist in singular or plural, and may mean singular or plural. It will be self-evident. In addition, the singular or plural number of each component may be changed according to embodiments.

적어도 하나의 사용자 단말(100)은, 드론을 이용한 연도변 조사 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 연도변 시설물, 건축물 등을 촬영한 사진 또는 영상을 손상 데이터가 오버레이된 상태로 3D 또는 2D 도면으로 출력하는 사용자의 단말일 수 있다. 그리고, 사용자 단말(100)은, 손상 데이터와 오버레이 된 사진 또는 영상을 드론(500)의 실시간 드론 데이터의 영상과 동기화하여 출력하고, 실시간 드론 데이터 내 GPS 위치를 식별한 결과를 실시간 드론 데이터 내에 출력하는 단말일 수 있다.At least one user terminal 100 uses a web page, app page, program, or application related to a roadside survey service using a drone to display a photo or video taken of a roadside facility, building, etc. in a state in which damage data is overlaid. It may be a user's terminal that outputs 3D or 2D drawings. In addition, the user terminal 100 synchronizes and outputs a picture or video overlaid with the damage data with the video of the real-time drone data of the drone 500, and outputs the result of identifying the GPS location in the real-time drone data in the real-time drone data. It may be a terminal that

여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one user terminal 100 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser. In this case, at least one user terminal 100 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one user terminal 100 is, for example, a wireless communication device that ensures portability and mobility, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet ) may include all types of handheld-based wireless communication devices such as terminals, smartphones, smart pads, tablet PCs, and the like.

조사 서비스 제공 서버(300)는, 드론을 이용한 연도변 조사 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 조사 서비스 제공 서버(300)는, 적어도 하나의 손상의 종류를 구분할 수 있도록 적어도 하나의 인공지능 알고리즘을 학습 및 테스트하여 모델링하는 서버일 수 있다. 이때, 조사 서비스 제공 서버(300)는 360도 VR 카메라(400)로부터 구면 사진 또는 영상이 수신된 경우 스티칭 및 평면화 작업을 거친 후 2D 또는 3D 도면으로 생성하고, 손상 데이터를 영상 프레임 또는 이미지 상에서 추출한 후 분류하여 라벨링한 후 사용자 단말(100)로 전송하는 서버일 수 있다. 그리고, 조사 서비스 제공 서버(300)는, 드론(500)에서 전송되는 실시간 드론 데이터를 손상 데이터와 동기화하여 출력하는 서버일 수 있다. 이때 실시간 드론 데이터의 시각을 손상 데이터와 동기화한다는 의미는 손상 데이터가 오버레이된 사진 또는 영상의 시각을 싱크를 맞춰 출력한다는 의미일 수 있다. The survey service providing server 300 may be a server that provides an annual survey service web page, app page, program or application using drones. In addition, the investigation service providing server 300 may be a server that models at least one artificial intelligence algorithm by learning and testing to distinguish at least one type of damage. At this time, when the spherical photo or image is received from the 360 degree VR camera 400, the survey service providing server 300 creates a 2D or 3D drawing after stitching and flattening, and extracts the damage data on the image frame or image After classifying and labeling, it may be a server that transmits to the user terminal 100 . In addition, the survey service providing server 300 may be a server that outputs real-time drone data transmitted from the drone 500 in synchronization with damage data. At this time, the meaning of synchronizing the time of the real-time drone data with the damage data may mean that the time of a photo or video overlaid with the damage data is synchronized and output.

여기서, 조사 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the survey service providing server 300 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser.

적어도 하나의 360도 VR 카메라(400)는, 드론을 이용한 연도변 조사 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하거나 이용하지 않고 사용자 단말(100)과 연결되어 조사 서비스 제공 서버(300)로 구면 영상 또는 사진을 전송하도록 하는 장치일 수 있다.At least one 360-degree VR camera 400 is connected to the user terminal 100 with or without using a web page, app page, program, or application related to the year-end survey service using drones, and the survey service providing server 300 It may be a device that transmits spherical images or photos.

여기서, 적어도 하나의 360도 VR 카메라(400)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 360도 VR 카메라(400)는, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 360도 VR 카메라(400)는, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one 360-degree VR camera 400 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser. In this case, at least one 360-degree VR camera 400 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one 360-degree VR camera 400 is, for example, a wireless communication device that ensures portability and mobility, and includes navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular) ), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless It may include all kinds of handheld-based wireless communication devices such as Broadband Internet terminals, smartphones, smart pads, tablet PCs, and the like.

적어도 하나의 드론(500)은, 드론을 이용한 연도변 조사 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 GPS로 각 시설이나 건물의 위치를 파악 및 표기한 실시간 드론 데이터를 조사 서비스 제공 서버(300)로 전송하는 장치일 수 있다.At least one drone 500 uses a web page, app page, program, or application related to annual survey service using drones to identify and mark the location of each facility or building with GPS, and provides real-time drone data to the survey service providing server It may be a device that transmits to (300).

여기서, 적어도 하나의 드론(500)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 드론(500)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 드론(500)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one drone 500 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser. In this case, at least one drone 500 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one drone 500 is, for example, a wireless communication device that ensures portability and mobility, and includes navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) It may include all types of handheld-based wireless communication devices such as terminals, smartphones, smart pads, tablet PCs, and the like.

도 2는 도 1의 시스템에 포함된 조사 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 드론을 이용한 연도변 조사 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.2 is a block diagram illustrating a survey service providing server included in the system of FIG. 1, and FIGS. 3 and 4 are an embodiment of an annual survey service using a drone according to an embodiment of the present invention. It is a drawing for explaining.

도 2를 참조하면, 조사 서비스 제공 서버(300)는, 평면화부(310), 추출부(320), 전송부(330), 동기화부(340), 연동부(350), 위치식별표기부(360), 자동확대부(370), 원격제어부(380), 비교화면제공부(390) 및 인공지능부(391)를 포함할 수 있다.Referring to FIG. 2 , the survey service providing server 300 includes a flattening unit 310, an extraction unit 320, a transmission unit 330, a synchronization unit 340, an interlocking unit 350, and a location identification marking unit 360. ), an automatic enlargement unit 370, a remote control unit 380, a comparison screen providing unit 390, and an artificial intelligence unit 391 may be included.

본 발명의 일 실시예에 따른 조사 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100), 적어도 하나의 360도 VR 카메라(400) 및 적어도 하나의 드론(500)으로 드론을 이용한 연도변 조사 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100), 적어도 하나의 360도 VR 카메라(400) 및 적어도 하나의 드론(500)은, 드론을 이용한 연도변 조사 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100), 적어도 하나의 360도 VR 카메라(400) 및 적어도 하나의 드론(500)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.The investigation service providing server 300 according to an embodiment of the present invention or another server (not shown) operating in conjunction with at least one user terminal 100, at least one 360 degree VR camera 400, and at least one In the case of transmitting an annual survey service application, program, app page, web page, etc. using a drone 500, at least one user terminal 100, at least one 360 degree VR camera 400, and at least one The drone 500 may install or open an annual survey service application, program, app page, web page, etc. using the drone. In addition, the service program may be driven in at least one user terminal 100, at least one 360 degree VR camera 400, and at least one drone 500 by using a script executed in a web browser. Here, the web browser is a program that allows users to use the web (WWW: World Wide Web) service, and means a program that receives and displays hypertext described in HTML (Hyper Text Mark-up Language). For example, Netscape , Explorer, Chrome, and the like. In addition, an application means an application on a terminal, and includes, for example, an app running on a mobile terminal (smart phone).

도 2를 참조하면, 평면화부(310)는, 360도 VR 카메라(500)로부터 수신된 구면 사진 또는 영상을 스티칭(Stitching)하여 평면화(Complanation)를 수행할 수 있다. 360도 VR 카메라(500)는, 수평 및 상하의 360도를 촬영하여 구면 사진 또는 영상을 생성할 수 있다. 이때, 이미지 자체를 변환하여 밝기 정보만으로 마스크를 만드는 방법을 이용할 수 있고, 이음새 부분의 부자연스러움을 줄이고 영상간의 밝기 오차를 줄일 수 있도록, 마스크 추출(Seam Finding) 방법으로 보로노이 경계선 추출 방법과, 다이나믹 프로그래밍(Dynamic Programming) 방법을 이용할 수 있고, 그 외 그래프 컷(Graph Cut) 방법과 두 영상간의 최소 오차 경계선(Minimal Error Boundary)을 추출하는 방법과, 다각도 영상 합성 등을 이용할 수 있는데, 이는 상술한 바와 같이 본 출원인의 선등록특허에 상세히 개시되어 있으므로 중복된 내용은 생략한다.Referring to FIG. 2 , the planarization unit 310 may perform complanation by stitching a spherical photo or image received from the 360 degree VR camera 500 . The 360-degree VR camera 500 may create a spherical photo or video by taking 360-degree horizontal and vertical images. At this time, it is possible to use a method of converting the image itself to create a mask only with brightness information, and to reduce the unnaturalness of the seam and reduce the brightness error between images, a Voronoi boundary extraction method using a mask extraction (seam finding) method, A dynamic programming method can be used, and a graph cut method, a method of extracting a minimum error boundary between two images, and multi-angle image synthesis can be used. As described above, since it is disclosed in detail in the prior registration patent of the present applicant, duplicate contents are omitted.

추출부(320)는, 구면 사진 또는 영상으로부터 손상의 위치, 종류, 크기, 길이 및 형상을 포함한 손상 데이터를 추출할 수 있다. 동기화부(330)는, 사용자 단말(100)로 손상 데이터를 전송하는 전송부, 손상 데이터와 실시간 드론 데이터의 시간을 동기화시켜 손상 데이터와 실시간 드론 데이터를 출력할 수 있다. 드론(500)은, 연도변 조사가 요구되는 적어도 하나의 이벤트가 발생하는 장소를 상공에서 촬영하고, 적어도 하나의 이벤트가 발생하기 전 및 후를 비교하도록 실시간 스트리밍할 수 있다. 예를 들어, 적어도 하나의 이벤트는 발파 이벤트일 수 있다. 사용자 단말(100)은, 360도 VR 카메라(500)로부터 수신된 사진 또는 영상 내에서 추출 및 라벨링된 손상의 위치, 종류, 크기, 길이 및 형상을 포함한 손상 데이터를, 사진 또는 영상에 오버레이(Overlay)하고, 드론(500)으로부터 스트리밍되는 실시간 드론 데이터를 손상 데이터와 동기화(Synchronization)하여 출력할 수 있다.The extraction unit 320 may extract damage data including location, type, size, length, and shape of damage from a spherical photograph or image. The synchronization unit 330 may output damage data and real-time drone data by synchronizing the times of the transmission unit that transmits the damaged data to the user terminal 100 and the damaged data and the real-time drone data. The drone 500 may photograph a place where at least one event requiring annual survey occurs from the air, and perform real-time streaming to compare before and after the occurrence of the at least one event. For example, at least one event may be a blasting event. The user terminal 100 overlays damage data, including the location, type, size, length, and shape of the damage extracted and labeled in the photo or image received from the 360-degree VR camera 500, on the photo or image. ), and the real-time drone data streamed from the drone 500 may be synchronized with the damage data and output.

최근 무인비행기(Unmanned Aerial Vehicle, UAV)인 드론이 4차 산업혁명의 주요 산업 중 하나로 활용성이 높아지고 있는데, GPS를 획득하기 위해서는 드론사진측량을 이용한다. 이는, 드론에 카메라, GPS, INS(Inertial Navigation System)와 같은 센서를 탑재하여 촬영 시 위치정보를 취득하고 영상처리를 통하여 3차원 공간정보를 생성할 수 있는 방법이다. Recently, drones, which are unmanned aerial vehicles (UAVs), are becoming increasingly useful as one of the major industries of the 4th industrial revolution, and drone photogrammetry is used to acquire GPS. This is a method for acquiring location information during shooting by mounting a sensor such as a camera, GPS, or INS (Inertial Navigation System) on a drone and generating 3D spatial information through image processing.

<지상기준점 측량><Ground Control Point Survey>

정확한 위치정보를 가진 공간정보의 생성을 위해 지상기준점(Ground Control Point, GCP) 측량을 먼저 수행할 수 있다. 이를 통해 얻은 위치정보를 드론으로 촬영한 영상의 좌표값과 일치시켜 보다 정밀한 측량을 가능하게 한다. 대공표지를 제작하여 대상지마다 설치할 수 있으며, 예를 들어, ComNav사의 T30 IMU GNSS RECEIVER를 사용하여 RTK-GPS(Real Time Kinematic-Virtual Reference Station) 방법으로 지상기준점 좌표를 취득할 수 있다.To generate spatial information with accurate location information, ground control point (GCP) surveying can be performed first. By matching the location information obtained through this with the coordinate values of the image taken by the drone, more precise surveying is possible. Anti-aircraft beacons can be manufactured and installed at each site, and for example, the coordinates of the ground control point can be acquired by using the RTK-GPS (Real Time Kinematic-Virtual Reference Station) method using ComNav's T30 IMU GNSS RECEIVER.

<GPS 측량><GPS Survey>

GPS측량 조사기기를 더 이용할 수 있는데, 데이터수집은 사용자가 사용자 단말(100)의 GPS를 사용하여 조사자가 별도의 외부장비를 연결하지 않고 스마트폰의 내장 GPS만을 활용하여 트랙 기록을 확보할 수 있다. 조사자가 측량기기를 장착하고 이벤트 경계를 걸으면서 확보한 트랙기록을 AutoCAD 프로그램을 사용하여 면적을 산출할 수 있다.It is possible to further use a GPS surveying research device, and for data collection, the user uses the GPS of the user terminal 100, and the track record can be obtained by using only the built-in GPS of the smartphone without the investigator connecting a separate external device. . The area can be calculated using the AutoCAD program from the track record obtained by the investigator wearing the surveying device and walking the event boundary.

<RTK-GPS 측량><RTK-GPS Survey>

RTK-GPS측량은 ComNav사의 T30 IMU GNSS RECEIVER를 이용할 수 있다. 기준국 GPS를 사용하지 않고 이동국 GPS 1 대로 RTK 측량이 가능한 VRS(Virtual Reference Station)-RTK 측량방법으로 ±3.1 cm 이하의 정확도로 가진다. 건물이나 지하 등에서는 터널이나 시설 등에 영향을 받을 수는 있다. RTK를 통하여 데이터수집과 면적산출은 GPS측량 방법과 같이 조사자가 측량기기를 장착하고 연도변 경계를 걸으면서 확보한 트랙기록을 AutoCAD 프로그램을 사용하여 면적을 산출할 수 있다. 또한, GPS와 RTK-GPS측량은 정지측량이 아닌 이동하면서 확보한 트랙을 활용하기 때문에 조사자의 보폭, 체력 등의 차이에서 발생한 오차를 줄이기 위해 한 조사자가 두 가지 장비를 같이 장착하고 경계를 이동하며 트랙을 기록할 수 있다.RTK-GPS survey can use ComNav's T30 IMU GNSS RECEIVER. It is a VRS (Virtual Reference Station)-RTK survey method that enables RTK survey with one mobile station GPS without using the reference station GPS, and has an accuracy of ±3.1 cm or less. In a building or underground, tunnels or facilities may be affected. Data collection and area calculation through RTK can calculate the area using the AutoCAD program with the track record obtained by the surveyor wearing the surveying device and walking along the border of the year, just like the GPS survey method. In addition, since GPS and RTK-GPS surveys use tracks secured while moving, not stationary surveys, in order to reduce errors caused by differences in the investigator's stride length and physical strength, one surveyor equips the two equipments together and moves the boundary. You can record tracks.

<정사영상을 활용한 측량><Survey using orthoimage>

정사영상 촬영장비는 DJI사의 MAVIC 2 PRO를 사용할 수 있다. 이 기기는 2,000만 화소의 1인치 CMOS 센서가 장착되어 있다. 비행고도는 국토정보지리원의 DEM값을 이용하여 150m로 등고비행을 하도록 수립할 수 있다. 이를 통해 만들어진 정사영상을 활용하여 육안으로 이벤트가 발생할 경계를 판단하도록 표시할 수 있다.DJI's MAVIC 2 PRO can be used as an orthographic device. This device is equipped with a 1-inch CMOS sensor with 20 million pixels. The flight altitude can be established to fly at 150 m using the DEM value of the National Geospatial Information Service. Using the orthoimage created through this, it can be displayed to determine the boundary where the event will occur with the naked eye.

<영상처리방법><Image processing method>

드론으로 촬영한 사진 또는 영상은 Pix4D Mapper를 사용하여 항공 사진(또는 영상)자료로 처리할 수 있다. 촬영된 사진은 각각의 식별가능한 영상 특이점(Key Point)들이 자동 추출되며, 이후 항공사진들 간의 상호비교를 통해 각 영상에서 추출된 특이점들이 서로 연계된다. 연계된 특이점들은 지상기준점 정보를 반영하여 자동항공삼각법(Automatic Aerial Triangulation, AAT)에 의해 기하보정된다. 기하보정된 각각의 항공촬영 사진 특이점들은 연속된 항공촬영 사진들 간의 비교분석을 통해 촬영된 사진에서 동일한 지점들을 자동으로 정합된다. 정합된 특이점들을 추출하면 3차원 좌표를 가지는 점군 데이터(3D Cloud Point)가 생성된다. 이 점군 데이터로부터 수치표면모델을 생성할 수 있으며, 항공사진간의 결합을 통해 정사영상을 제작할 수 있다.Photos or videos taken by drones can be processed into aerial photographic (or video) data using Pix4D Mapper. Each identifiable image key point is automatically extracted from the captured photo, and then the key points extracted from each image are linked to each other through mutual comparison between aerial photos. Linked singularities are geometrically corrected by Automatic Aerial Triangulation (AAT) by reflecting ground control point information. The singular points of each geometrically corrected aerial photograph are automatically matched to the same points in the photograph taken through comparative analysis between successive aerial photographs. When matched singular points are extracted, point cloud data (3D Cloud Point) having 3D coordinates is created. A numerical surface model can be created from this point cloud data, and an orthoimage can be produced through the combination of aerial photographs.

한편, 두 개의 데이터, 즉 360도 VR 카메라(400)로부터 수신된 영상 또는 사진과, 드론(500)으로부터 수신된 영상 또는 사진을 시간축(Time Domain)을 기준으로 동기화를 시켜야, 예를 들어 발파 이벤트가 발생했을 때, 드론(500)이 본 상공에서는 A 상태일 동안 360도 VR 카메라(400)로 본 영상이나 사진 내 손상 데이터는 B 상태라는 것을 파악할 수 있다. 발파 이벤트가 발생했을 때 인접 건물이나 시설에 어떠한 영향을 주는지를 사전, 공사중 및 사후에 모두 측정하고 파악하기 위한 것이므로 시간축에 각 데이터를 정합시키는 것이 중요하다. 이를 위하여, 각 데이터는 시간값을 가지는 멀티미디어 콘텐츠, HTML5의 iFrame을 통하여 이러닝 콘텐츠 내 기 설정된 시점과 연계되는 HTML5 문서 및 통합 제어 플레이어가 탑재된 HTML5 컨테이너 레이아웃으로 재생되도록 할 수 있다. 이때, iFrame의 기본개념을 설명하면 이하와 같다.Meanwhile, two data, that is, a video or photo received from the 360-degree VR camera 400 and a video or photo received from the drone 500, must be synchronized based on the time domain, for example, a blasting event. When occurs, while the drone 500 is in the A state in the sky, it can be determined that the video viewed by the 360-degree VR camera 400 or the damaged data in the photo is in the B state. It is important to match each data on the time axis because it is to measure and understand the impact of a blasting event on adjacent buildings or facilities before, during, and after construction. To this end, each data can be reproduced in a HTML5 container layout equipped with multimedia content having a time value, an HTML5 document associated with a preset time point in e-learning content through an HTML5 iFrame, and an integrated control player. At this time, the basic concept of iFrame is described as follows.

<iFrame><iFrame>

도 3의 (d)를 참조하면, 멀티미디와 iFrame의 영역을 구분 배치한 화면에 통합 플레이어가 포함된 HTML5 상호작용 콘텐츠의 화면 구성 예시이다. 콘텐츠 화면은 내용과 목적에 맞게 다양한 구성이 가능하다. 콘텐츠 제어 플레이어 역시 가로 형으로 화면하단에 배치하는 것이 일반적이긴 하나 정해진 규격이 있는 것은 아니다. 자유로운 화면 구성이 가능하도록 콘텐츠를 구성하는 요소를 구분할 수 있다. 이때, 구성 요소는 콘텐츠의 기능과 역할, 파일 포맷 등을 고려하여 상술한 3 가지로 구분할 수 있다.Referring to (d) of FIG. 3, it is an example of a screen composition of HTML5 interactive content including an integrated player on a screen in which multimedia and iFrame areas are separately arranged. The content screen can be configured in various ways according to the content and purpose. It is common to place the content control player at the bottom of the screen in a horizontal format, but there is no set standard. Elements that make up content can be separated so that free screen composition is possible. At this time, the components can be classified into the above three types in consideration of the function, role, and file format of the content.

<시간값을 가지는 멀티미디어 콘텐츠><Multimedia content with time value>

콘텐츠의 중심 내용을 시각적, 청각적 경험을 중심으로 이끄는 요소이다. 멀티미디어는 콘텐츠 전체 시간값의 기준이 된다. HTML5의 <video>, <audio> 태그 기반의 전용 플레이어를 이용하여 사용자 상호작용 및 콘텐츠 제어 경험을 제공한다. 일반적으로 멀티미디어 콘텐츠는 전문 영상 장비나 영상 촬영이 가능한 스마트 기기를 이용하여 제작한다. 제작한 원본 영상은 별도 프로그램을 이용하여 편집하고 HTML5 표준 포맷인 MP4와 MP3 파일 포맷으로 인코딩하여 적용한다. 멀티미디어 콘텐츠의 제작과 편집은 웹 퍼블리싱과는 완전히 독립된 업무이다. 멀티미디어 콘텐츠가 HTML5 화면에 탑재되거나 링크된 이후 발생하는 수정은 원본 영상이나 음원을 별도 수정한 후 파일 자체를 교체한다.It is an element that leads the central content of the content to the center of the visual and auditory experience. Multimedia becomes a standard for the entire time value of content. It provides user interaction and content control experience by using a dedicated player based on <video> and <audio> tags of HTML5. In general, multimedia contents are produced using professional imaging equipment or smart devices capable of capturing images. The original video produced is edited using a separate program, and then encoded into MP4 and MP3 file formats, which are HTML5 standard formats, and applied. Production and editing of multimedia contents is a completely independent task from web publishing. Modifications that occur after multimedia content is loaded or linked to the HTML5 screen require the original video or sound source to be modified separately, and then the file itself is replaced.

<iFrame을 통해 제시되는 HTML5 문서><HTML5 document presented via iFrame>

콘텐츠 내 멀티미디어의 특정 시점과 연계되는 부가정보들은 노출되는 화면의 페이지 단위로 문서를 구분한다. 단위 페이지별로 나누어진 HTML5 문서는 분할파일로 작성하여 정해진 시간값에 따라 iFrame으로 호출된다. 분할된 HTML5 단위페이지 문서들은 문서 구조가 비교적 단순하고 작성 분량이 작기 때문에 제작과 수정, 삭제와 같은 유지보수가 용이하다. 또한 개별 페이지 내에서 HTML5와 CSS, JS를 적용하여 다양한 사용자 조작 기능을 구현 하거나 그래픽 애니메이션을 이용하여 유려한 퍼포먼스를 독립적으로 구현하는 것도 가능하다. iFrame 안의 단위 페이지를 분할하여 구성함으로써 콘텐츠 기획 의도와 구현 수준을 고려하여 웹퍼블리싱 기술 인력을 차등 배치하거나 다수의 인력들이 나누어 개발하는 등 개발 운영상의 효율을 높일 수 있다.Additional information associated with a specific point in time of multimedia within the content classifies the document by page unit of the displayed screen. The HTML5 document divided by unit page is created as a split file and is called as an iFrame according to a set time value. Since the divided HTML5 unit page documents have a relatively simple document structure and a small amount of writing, maintenance such as creation, modification, and deletion is easy. In addition, it is possible to implement various user manipulation functions by applying HTML5, CSS, and JS within individual pages, or to independently implement elegant performance using graphic animations. By dividing and configuring the unit pages in the iFrame, it is possible to increase the efficiency of development operation, such as differentially deploying web publishing technical personnel or dividing and developing by multiple personnel, considering the content planning intention and implementation level.

<통합 제어 플레이어가 탑재된 HTML5 컨테이너 레이아웃><HTML5 container layout with integrated control player>

콘텐츠의 기본 레이아웃이 되는 HTML5 컨테이너 페이지에는 콘텐츠 공통 기능인 HTML5 플레이어가 포함된다. 또 멀티미디어와 iFrame의 배치 영역과 크기를 지정하고 병합하는 역할을 수행한다. 컨테이너 페이지의 플레이어를 통하여 멀티미디어의 시간값을 변경하고 변경된 시간값을 컨테이너 HTML5 문서에 전달할 수 있다. 플레이어는 사용자 조작으로 변경되는 특정 시점에 필요한 HTML5 단위 문서를 연동하여 iFrame으로 호출할 수 있도록 동기화한다. 공통 기능인 컨테이너의 통합 제어 플레이어는 기능요구에 따라 수정하고 변형하는 것이 가능하다. HTML5 플레이어 관련 자료가 웹상에 오픈소스로 공유되고 있으므로 이를 활용하는 것도 가능하다. 다만, HTML5 콘텐츠 컨테이너 구조를 활용한 콘텐츠는 웹 표준을 준수하여 제작하고 구동되므로 일반적인 영상 편집 저작도구와 구분되며, 영상 플랫폼 서비스와는 달리 일반 웹사이트에서도 독립적으로 서비스 제공이 가능하다.The HTML5 container page, which is the basic layout of the content, includes the HTML5 player, which is a common feature of the content. It also plays a role in designating and merging the arrangement area and size of multimedia and iFrames. The multimedia time value can be changed through the player of the container page and the changed time value can be delivered to the container HTML5 document. The player is synchronized so that it can be called as an iFrame by linking HTML5 unit documents required at a specific point in time that is changed by user operation. The integrated control player of the container, which is a common function, can be modified and transformed according to the functional requirements. Since HTML5 player-related materials are being shared as open sources on the web, it is also possible to utilize them. However, content using the HTML5 content container structure is produced and operated in compliance with web standards, so it is distinguished from general video editing authoring tools, and unlike video platform services, it is possible to provide services independently on general websites.

<멀티미디어와 HTML5 문서의 융합><Convergence of multimedia and HTML5 documents>

시간의 연속성을 가지는 멀티미디어 콘텐츠와 정지상태의 부가 정보 콘텐츠는 제작과 편집부터 콘텐츠 출력 및 제어 방식이 모두 상이하다. 따라서 이 두 가지 요소를 하나의 콘텐츠로 융합할 수 있는 통합 제어 기능은 상호작용 HTML5 멀티미디어 융합 콘텐츠의 필수 구성 요소이다. 멀티미디어 상호작용 콘텐츠에서 사용자 직접 조작을 지원하는 플레이어는 HTML5 태그를 기본으로 구현하며, 멀티미디어의 재생, 정지, 타임 라인, 자막, 음성 조절, 배속 및 구간 이동 등의 기능도 필요하면 추가하여 연동할 수 있다. 상술한 바와 같이 멀티미디어 재생 시간은 모든 콘텐츠 시간값 정보의 기준이 된다. 멀티미디어 재생 시작 시점부터 순차적으로 흘러가는 시간값 정보는 통합 플레이어에 주기적으로 입력된다. 입력된 정보는 다시 HTML5 컨테이너로 전달된다. 사전에 HTML5 컨테이너에 입력된 시간값 정보와 멀티미디어에서 발생된 시간값 정보가 동일한 경우 iFrame으로 그에 해당하는 HTML5 단위 페이지 문서를 호출한다.Multimedia content having continuity in time and additional information content in a stationary state are all different in production and editing, content output and control methods. Therefore, an integrated control function that can fuse these two elements into one content is an essential component of interactive HTML5 multimedia convergence content. Players that support direct user manipulation in multimedia interactive content basically implement HTML5 tags, and functions such as multimedia playback, stop, timeline, subtitles, voice control, speed and section movement can be added and interlocked if necessary. there is. As described above, the multimedia playback time is a standard for all content time value information. Time value information that flows sequentially from the start of multimedia playback is periodically input to the integrated player. The entered information is transferred back to the HTML5 container. If the time value information previously input to the HTML5 container and the time value information generated from the multimedia are the same, the corresponding HTML5 unit page document is called through the iFrame.

사용자의 플레이어 조작으로 임의의 시간 값 정보가 발생될 경우 플레이어는 변경된 시간값 정보를 멀티미디어 콘텐츠와 HTML5 컨테이너로 전달한다. 멀티미디어로 전달된 시간값은 해당 시점부터 영상이 재생되도록 동기화 한다. HTML5 컨테이너로 전달된 시간값은 순차 재생 시와 동일한 방법으로 HTML5 단위페이지를 호출한다. 분리된 구조에서 동일한 시간값 정보를 공유하는 방식으로 여러 포맷의 콘텐츠들의 개발 특성과 원형을 유지하면서도 일괄 제어 하고 동기화하여 융합된 하나의 콘텐츠로 구동될 수 있다.When arbitrary time value information is generated by the user's manipulation of the player, the player transfers the changed time value information to the multimedia content and the HTML5 container. The time value delivered to the multimedia synchronizes the video to be reproduced from that point in time. The time value passed to the HTML5 container calls the HTML5 unit page in the same way as in sequential playback. By sharing the same time value information in a separated structure, it can be operated as one converged content by collectively controlling and synchronizing while maintaining the development characteristics and original form of contents of various formats.

연동부(350)는, 360도 VR 카메라(500)로부터 수신된 구면 사진 또는 영상의 촬영시각과, 실시간 드론 데이터의 촬영시각을 프레임(Frame) 단위로 맞추고, 사진인 경우 촬영시각과, 영상인 경우 프레임 구간을 동기화할 수 있다. 이는 상술한 iFrame의 내용과 같으므로 상세한 내용은 생략하기로 한다.The interlocking unit 350 matches the shooting time of the spherical photo or video received from the 360 degree VR camera 500 and the shooting time of the real-time drone data in units of frames, and in case of a photo, the shooting time and video In this case, frame intervals can be synchronized. Since this is the same as the above-mentioned iFrame, detailed information will be omitted.

위치식별표기부(360)는, 실시간 드론 데이터 내 적어도 하나의 이벤트가 발생되는 위치를 위치 아이콘으로 표기하고, 적어도 하나의 이벤트가 발생되는 위치의 인접건물을 실시간 드론 데이터 내 표기하여 출력할 수 있다.The location identification marking unit 360 may mark a location where at least one event occurs in real-time drone data with a location icon, and mark and output a building adjacent to a location where at least one event occurs in real-time drone data.

자동확대부(370)는, 360도 VR 카메라(500)로부터 수신된 구면 사진 또는 영상에 사용자 단말(100)에서 수동으로 손상 데이터를 입력하는 경우, 입력 이벤트가 발생한 좌표를 중심으로 기 설정된 영역의 입력된 위치의 사진 또는 영상을 부분확대하여 표시하도록 설정할 수 있다.When damage data is manually input from the user terminal 100 to the spherical photo or image received from the 360-degree VR camera 500, the automatic magnification unit 370 measures the area of a preset area centered on the coordinates where the input event occurred. It can be set to partially enlarge and display a photo or video of an input location.

원격제어부(380)는, 사용자 단말(100)에서 드론(500)의 위치를 조종하도록 원격제어권을 부여하고, 원격제어권을 얻은 사용자 단말(100)에서 드론(500)의 촬영방향, 위치 및 고도를 제어하는 경우 드론(500)으로 제어 이벤트를 실시간으로 전송할 수 있다.The remote control unit 380 grants the user terminal 100 a remote control right to control the position of the drone 500, and the user terminal 100 that has obtained the remote control right controls the shooting direction, location, and altitude of the drone 500. In the case of control, a control event may be transmitted to the drone 500 in real time.

비교화면제공부(390)는, 적어도 하나의 이벤트가 발생되기 전(Pre) 및 후(Post)의 손상 데이터 및 실시간 드론 데이터를 비교하여 비교 화면을 제공할 수 있다. 이 또한 상술한 iFrame을 이용하여 비교할 수 있다.The comparison screen providing unit 390 may compare damage data and real-time drone data before (Pre) and after (Post) occurrence of at least one event and provide a comparison screen. This can also be compared using the aforementioned iFrame.

인공지능부(391)는, 손상의 위치, 종류, 크기, 길이 및 형상을 포함하는 손상 데이터를 사진 또는 영상으로부터 추출하도록 적어도 하나의 인공지능 알고리즘을 이용할 수 있다. 본 발명에서 상세히 설명하지 않은 내용들은 상술한 바와 같이 본 출원인의 선등록특허를 참조하기로 한다.The artificial intelligence unit 391 may use at least one artificial intelligence algorithm to extract damage data including location, type, size, length, and shape of damage from a photo or image. Contents not described in detail in the present invention will refer to the prior registered patent of the present applicant as described above.

이하, 상술한 도 2의 조사 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, an operation process according to the configuration of the survey service providing server of FIG. 2 described above will be described in detail with reference to FIGS. 3 and 4 as examples. However, it will be apparent that the embodiment is only any one of various embodiments of the present invention, and is not limited thereto.

도 3을 참조하면, (a) 조사 서비스 제공 서버(300)는 360도 VR 카메라(400)로부터 영상 또는 사진을 수신하고, 손상 데이터를 영상 또는 사진에 오버레이하여 둔다. 또, (b) 조사 서비스 제공 서버(300)는 드론(500)으로부터 수신된 실시간 드론 데이터를 (c) 및 도 4와 같이 동기화를 수행하여 상부에서 촬영한 건물 또는 시설과, 지상에서 촬영한 건물 또는 시설의 변화 및 손상 등을 촬영하고 자동으로 인공지능 라벨링을 수행하며, 실시간으로 GPS를 표기하여 상부에서 촬영한 영상이라도 어느 부분이 시설이고, 어느 부분이 건물인지, 또 어느 부분이 연도변인지 등을 파악할 수 있도록 한다. (d) 동기화의 과정은 iFrame을 이용할 수 있지만 이에 한정되는 것은 아니다. Referring to FIG. 3 , (a) the survey service providing server 300 receives an image or photo from the 360 degree VR camera 400 and overlays damage data on the image or photo. In addition, (b) the survey service providing server 300 synchronizes the real-time drone data received from the drone 500 as shown in (c) and FIG. Or, photograph changes and damages of facilities, automatically perform artificial intelligence labeling, and display GPS in real time to determine which part is a facility, which part is a building, and which part is a year-end even in the video taken from the top. etc. to be able to understand. (d) The synchronization process may use iFrame, but is not limited thereto.

이와 같은 도 2 내지 도 4의 드론을 이용한 연도변 조사 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 드론을 이용한 연도변 조사 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters that have not been explained about the method of providing roadside survey services using drones in FIGS. 2 to 4 are the same as those described for the method of providing roadside survey services using drones through FIG. 1 or from the described content. Since it can be easily inferred, the following description will be omitted.

도 5는 본 발명의 일 실시예에 따른 도 1의 드론을 이용한 연도변 조사 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.5 is a diagram illustrating a process of transmitting and receiving data between each component included in the system for providing a roadside survey service using a drone of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of a process of transmitting and receiving data between each component will be described through FIG. 5, but the present application is not limited to such an embodiment, and according to various embodiments described above, It is obvious to those skilled in the art that a process of transmitting and receiving data may be changed.

도 5를 참조하면, 조사 서비스 제공 서버는, 360도 VR 카메라로부터 수신된 구면 사진 또는 영상을 스티칭(Stitching)하여 평면화(Complanation)를 수행하고(S5100), 구면 사진 또는 영상으로부터 손상의 위치, 종류, 크기, 길이 및 형상을 포함한 손상 데이터를 추출한다(S5200).Referring to FIG. 5, the investigation service providing server stitches the spherical photo or image received from the 360-degree VR camera to perform flattening (S5100), and the location and type of damage from the spherical photo or image , damage data including size, length and shape are extracted (S5200).

또, 조사 서비스 제공 서버는, 사용자 단말로 손상 데이터를 전송하고(S5300), 손상 데이터와 실시간 드론 데이터의 시간을 동기화시켜 손상 데이터와 실시간 드론 데이터를 출력한다(S5400).In addition, the survey service providing server transmits damage data to the user terminal (S5300), synchronizes the time between the damage data and the real-time drone data, and outputs the damage data and the real-time drone data (S5400).

상술한 단계들(S5100~S5400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The order between the above-described steps (S5100 to S5400) is only an example, and is not limited thereto. That is, the order of the above-described steps (S5100 to S5400) may be mutually changed, and some of the steps may be simultaneously executed or deleted.

이와 같은 도 5의 드론을 이용한 연도변 조사 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 드론을 이용한 연도변 조사 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters that have not been explained about the method of providing roadside survey services using drones in FIG. 5 are the same as those described for the method of providing roadside survey services using drones through FIGS. 1 to 4, or Since it can be easily inferred, the following description will be omitted.

도 5를 통해 설명된 일 실시예에 따른 드론을 이용한 연도변 조사 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The method of providing annual survey service using a drone according to an embodiment described with reference to FIG. 5 may be implemented in the form of a recording medium including instructions executable by a computer such as an application or program module executed by a computer. can Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer readable media may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 드론을 이용한 연도변 조사 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 드론을 이용한 연도변 조사 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The above-described method for providing a yearly survey service using a drone according to an embodiment of the present invention is performed by an application basically installed in a terminal (this may include a program included in a platform or operating system basically installed in the terminal) It may be executed, or it may be executed by an application (ie, a program) directly installed in the master terminal by a user through an application providing server such as an application store server, an application or a web server related to the corresponding service. In this sense, the method for providing annual survey service using a drone according to an embodiment of the present invention described above is implemented as an application (i.e., a program) that is basically installed in a terminal or directly installed by a user, and is implemented as a computer such as a terminal. It can be recorded on a readable recording medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.

Claims (7)

연도변 조사가 요구되는 적어도 하나의 이벤트가 발생하는 장소를 상공에서 촬영하고, 상기 적어도 하나의 이벤트가 발생하기 전 및 후를 비교하도록 실시간 스트리밍하는 드론;
수평 및 상하의 360도를 촬영하여 구면 사진 또는 영상을 생성하는 360도 VR 카메라;
360도 VR 카메라로부터 수신된 사진 또는 영상 내에서 추출 및 라벨링된 손상의 위치, 종류, 크기, 길이 및 형상을 포함한 손상 데이터를, 상기 사진 또는 영상에 오버레이(Overlay)하고, 상기 드론으로부터 스트리밍되는 실시간 드론 데이터를 상기 손상 데이터와 동기화(Synchronization)하여 출력하는 사용자 단말; 및
360도 VR 카메라로부터 수신된 구면 사진 또는 영상을 스티칭(Stitching)하여 평면화(Complanation)를 수행하는 평면화부, 구면 사진 또는 영상으로부터 손상의 위치, 종류, 크기, 길이 및 형상을 포함한 손상 데이터를 추출하는 추출부, 사용자 단말로 손상 데이터를 전송하는 전송부, 상기 손상 데이터와 상기 실시간 드론 데이터의 시간을 동기화시켜 상기 손상 데이터와 상기 실시간 드론 데이터를 출력하는 동기화부, 상기 360도 VR 카메라로부터 수신된 구면 사진 또는 영상에 상기 사용자 단말에서 수동으로 손상 데이터를 입력하는 경우, 입력 이벤트가 발생한 좌표를 중심으로 기 설정된 영역의 상기 입력된 위치의 사진 또는 영상을 부분확대하여 표시하도록 설정하는 자동확대부, 상기 사용자 단말에서 상기 드론의 위치를 조종하도록 원격제어권을 부여하고, 상기 원격제어권을 얻은 사용자 단말에서 상기 드론의 촬영방향, 위치 및 고도를 제어하는 경우 상기 드론으로 제어 이벤트를 실시간으로 전송하는 원격제어부를 포함하는 조사 서비스 제공 서버;를 포함하고,
상기 조사 서비스 제공 서버는,
상기 360도 VR 카메라로부터 수신된 구면 사진 또는 영상의 촬영시각과, 상기 실시간 드론 데이터의 촬영시각을 프레임(Frame) 단위로 맞추고, 사진인 경우 촬영시각과, 영상인 경우 프레임 구간을 동기화하는 연동부;
상기 실시간 드론 데이터 내 상기 적어도 하나의 이벤트가 발생되는 위치를 위치 아이콘으로 표기하고, 상기 적어도 하나의 이벤트가 발생되는 위치의 인접건물을 상기 실시간 드론 데이터 내 표기하여 출력하는 위치식별표기부;
상기 적어도 하나의 이벤트가 발생되기 전(Pre) 및 후(Post)의 손상 데이터 및 실시간 드론 데이터를 비교하여 비교 화면을 제공하는 비교화면제공부;
상기 손상의 위치, 종류, 크기, 길이 및 형상을 포함하는 손상 데이터를 사진 또는 영상으로부터 추출하도록 적어도 하나의 인공지능 알고리즘을 이용하는 인공지능부;를 더 포함하는 드론을 이용한 연도변 조사 서비스 제공 시스템.
A drone that captures a place where at least one event requiring yearly survey occurs from the air, and performs real-time streaming to compare before and after the occurrence of the at least one event;
A 360-degree VR camera that captures 360 degrees horizontally and vertically to create spherical photos or videos;
Damage data, including the location, type, size, length, and shape of the damage extracted and labeled in the photo or video received from the 360-degree VR camera, is overlaid on the photo or video, and streamed from the drone in real time. A user terminal that synchronizes and outputs drone data with the damage data; and
A flattening unit that performs complanation by stitching spherical photos or images received from a 360-degree VR camera, and extracts damage data including location, type, size, length, and shape of damage from spherical photos or images. An extraction unit, a transmission unit that transmits damage data to a user terminal, a synchronization unit that synchronizes time between the damage data and the real-time drone data and outputs the damage data and the real-time drone data, and a spherical surface received from the 360-degree VR camera. When damage data is manually input from the user terminal to a photo or image, an automatic magnification unit configured to partially enlarge and display the photo or image of the input location in a preset area centered on the coordinates where the input event occurred; A remote control unit that transmits a control event to the drone in real time when a user terminal grants a remote control right to control the position of the drone, and the user terminal that has obtained the remote control right controls the shooting direction, location, and altitude of the drone. Including; a survey service providing server that includes;
The survey service providing server,
Interlocking unit that synchronizes the shooting time of the spherical photo or video received from the 360-degree VR camera and the shooting time of the real-time drone data in units of frames, and synchronizes the shooting time in case of a photo and the frame section in case of a video ;
a location identification marking unit for marking a location where the at least one event occurs in the real-time drone data with a location icon, and marking and outputting a building adjacent to the location where the at least one event occurs in the real-time drone data;
a comparison screen providing unit that provides a comparison screen by comparing damage data and real-time drone data before (Pre) and after (Post) the occurrence of the at least one event;
An artificial intelligence unit using at least one artificial intelligence algorithm to extract damage data including the location, type, size, length and shape of the damage from a photo or video;
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020220063144A 2022-05-23 2022-05-23 System for providing adjacent building pre-survey service usign drone KR102484280B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220063144A KR102484280B1 (en) 2022-05-23 2022-05-23 System for providing adjacent building pre-survey service usign drone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220063144A KR102484280B1 (en) 2022-05-23 2022-05-23 System for providing adjacent building pre-survey service usign drone

Publications (1)

Publication Number Publication Date
KR102484280B1 true KR102484280B1 (en) 2023-01-04

Family

ID=84925003

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220063144A KR102484280B1 (en) 2022-05-23 2022-05-23 System for providing adjacent building pre-survey service usign drone

Country Status (1)

Country Link
KR (1) KR102484280B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009235696A (en) * 2008-03-26 2009-10-15 Compensation Seminary Co Ltd System, method and computer program for performing survey on secular change of building
KR101895951B1 (en) * 2018-03-02 2018-09-06 중앙항업(주) The image processing system incorporating the image information of the real-time data change management
KR20220015520A (en) * 2020-07-31 2022-02-08 한신대학교 산학협력단 building digital-twin blockchain system for smart city by use of multi-layer video matching and rendering
KR102388777B1 (en) * 2021-06-18 2022-04-21 주식회사 한목 System for providing adjacent building pre-survey service usign 360 degree virtual reality camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009235696A (en) * 2008-03-26 2009-10-15 Compensation Seminary Co Ltd System, method and computer program for performing survey on secular change of building
KR101895951B1 (en) * 2018-03-02 2018-09-06 중앙항업(주) The image processing system incorporating the image information of the real-time data change management
KR20220015520A (en) * 2020-07-31 2022-02-08 한신대학교 산학협력단 building digital-twin blockchain system for smart city by use of multi-layer video matching and rendering
KR102388777B1 (en) * 2021-06-18 2022-04-21 주식회사 한목 System for providing adjacent building pre-survey service usign 360 degree virtual reality camera

Similar Documents

Publication Publication Date Title
Kikuchi et al. Future landscape visualization using a city digital twin: Integration of augmented reality and drones with implementation of 3D model-based occlusion handling
CN102959946B (en) The technology of view data is expanded based on relevant 3D cloud data
US20150178993A1 (en) Systems and methods for an augmented reality platform
US10977864B2 (en) Techniques for capturing and displaying partial motion in virtual or augmented reality scenes
JP4637889B2 (en) Virtual space broadcasting device
KR101697713B1 (en) Method and apparatus for generating intelligence panorama VR(virtual reality) contents
CN103971589A (en) Processing method and device for adding interest point information of map to street scene images
JP5797419B2 (en) Map information processing apparatus, navigation apparatus, map information processing method, and program
CN102985901A (en) Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device
CN103514621B (en) The authentic dynamic 3D reproducting method of case, event scenarios and reconfiguration system
CN107870962B (en) Method and system for remotely managing local space objects
CN112383745A (en) Panoramic image-based digital presentation method for large-scale clustered construction project
JP6110780B2 (en) Additional information display system
KR102388777B1 (en) System for providing adjacent building pre-survey service usign 360 degree virtual reality camera
KR102484280B1 (en) System for providing adjacent building pre-survey service usign drone
JP2016194783A (en) Image management system, communication terminal, communication system, image management method, and program
CN109863746A (en) Interactive data visualization environment
JP2017108356A (en) Image management system, image management method and program
KR102204721B1 (en) Method and user terminal for providing AR(Augmented Reality) documentary service
CN109523941B (en) Indoor accompanying tour guide method and device based on cloud identification technology
WO2020069780A1 (en) Method and apparatus for providing annotations in augmented reality
Dalla Mura et al. Augmented reality: Fusing the real and synthetic worlds
KR101550358B1 (en) Method and system for tag editor
KR102627538B1 (en) System for providing 360 degree panoramic video based safety education contents generating service
KR102231381B1 (en) System and method for manufacturing videos for VR(virtual reality) using multiple two-dimensional images

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant