KR20240044731A - Drone multi-interface video transmission/reception and control method, and system using the same - Google Patents

Drone multi-interface video transmission/reception and control method, and system using the same Download PDF

Info

Publication number
KR20240044731A
KR20240044731A KR1020220124123A KR20220124123A KR20240044731A KR 20240044731 A KR20240044731 A KR 20240044731A KR 1020220124123 A KR1020220124123 A KR 1020220124123A KR 20220124123 A KR20220124123 A KR 20220124123A KR 20240044731 A KR20240044731 A KR 20240044731A
Authority
KR
South Korea
Prior art keywords
image
drone
reception
correction
location information
Prior art date
Application number
KR1020220124123A
Other languages
Korean (ko)
Inventor
이현섭
Original Assignee
주식회사 인우랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인우랩 filed Critical 주식회사 인우랩
Priority to KR1020220124123A priority Critical patent/KR20240044731A/en
Publication of KR20240044731A publication Critical patent/KR20240044731A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 드론의 다중 인터페이스 영상 송수신 및 관제 방법, 그리고 이를 이용한 시스템에 관한 것이다. 상기 드론의 다중 인터페이스 영상 송수신 및 관제 방법은 드론이 미리 정해 놓은 지정위치로 이동하여 미리 정해 놓은 기준에 따라 영상을 촬영하는 보정 1단계; 상기 보정 1단계에서 수집한 영상이 서버로 수신되고 데이터베이스에 저장된 상기 지정위치에 대응되는 이미지와 매칭하는 보정 2단계; 상기 보정 2단계의 매칭결과를 기초로 서버로부터 수정된 위치정보 및 영상촬영 설정 값을 드론이 수신하는 보정 3단계; 상기 보정 3단계 이후에 상기 드론은 미리 정해 놓은 기준에 따라 지정위치를 이동하면서 영상을 촬영하는 영상촬영단계; 및 상기 영상촬영단계에서 촬영된 영상은 드론의 위치정보가 포함되어 서버로 전송되는 영상 및 위치정보 전송단계를 포함하는 것일 수 있다.The present invention relates to a method for transmitting, receiving and controlling multi-interface images of a drone, and a system using the same. The drone's multi-interface image transmission/reception and control method includes a first correction step in which the drone moves to a predetermined designated location and captures images according to predetermined standards; A second correction step in which the image collected in the first correction step is received by a server and matched with an image corresponding to the designated location stored in a database; A third correction step in which the drone receives corrected location information and video shooting settings from the server based on the matching result of the second correction step; After the correction step 3, the drone moves to a designated location according to a predetermined standard and captures an image; And the image captured in the image shooting step may include the location information of the drone and include an image and location information transmission step in which the drone is transmitted to a server.

Description

드론의 다중 인터페이스 영상 송수신 및 관제 방법, 그리고 이를 이용한 시스템{DRONE MULTI-INTERFACE VIDEO TRANSMISSION/RECEPTION AND CONTROL METHOD, AND SYSTEM USING THE SAME}Drone multi-interface video transmission, reception and control method, and system using the same {DRONE MULTI-INTERFACE VIDEO TRANSMISSION/RECEPTION AND CONTROL METHOD, AND SYSTEM USING THE SAME}

본 발명은 드론의 다중 인터페이스 영상 송수신 및 관제 방법, 그리고 이를 이용한 시스템에 관한 것이다. 보다 상세하게는 드론의 비행정보 데이터와 촬영된 다중 인터페이스 영상의 송수신이 동시에 진행되도록 하고 수득된 데이터를 기반으로 빠른 3D 모델링 데이터를 구현할 수 있도록 하는 드론의 다중 인터페이스 영상 송수신 및 관제 방법, 그리고 이를 이용한 시스템에 관한 것이다.The present invention relates to a method for transmitting, receiving and controlling multi-interface images of a drone, and a system using the same. More specifically, a drone's multi-interface image transmission/reception and control method that allows simultaneous transmission and reception of the drone's flight information data and captured multi-interface images and enables rapid 3D modeling data based on the obtained data, and a method using the same It's about the system.

시뮬레이션 시스템은 물리적 시스템과 현상을 컴퓨터나 모델 또는 다른 장비에 의해서 표현하는 것으로 현실의 상태나 상황을 실험하는 것이 곤란하거나 불가능한 경우 그에 해당하는 모델을 작성하여 실험하는 시스템을 말한다.A simulation system refers to a system that expresses physical systems and phenomena using a computer, model, or other equipment. When it is difficult or impossible to experiment with a real state or situation, a corresponding model is created and tested.

거대한 공간을 차지하는 자연적 또는 인적 구조물, 예를 들면 건축물, 공장이나 거대시설, 도로망, 지형 등 한눈에 파악하고 예측하기 위해서는 가상의 공간 안에 영상데이터를 기반으로 3D 모델링을 구축하는 방법이 활용될 수 있다.In order to understand and predict at a glance natural or human-made structures that occupy a huge space, such as buildings, factories or large facilities, road networks, and terrain, a method of constructing 3D modeling based on image data in a virtual space can be used. .

최근 시뮬레이션 시스템은 3D CAD(Computer Aided Design)를 이용하여 3차원으로 구현된다. 여기서, 3D CAD는 컴퓨터를 사용하여 3차원 물체를 설계하는 것으로서, 물체를 선, 표면, 알맹이의 정보로 표현한다. 3D CAD 시뮬레이션 시스템은, 3D CAD 데이터를 포함한 다양한 엔지니어링 데이터 셋을 이용하여 시뮬레이션 환경인 가상환경을 구축한다.Recently, simulation systems are implemented in three dimensions using 3D CAD (Computer Aided Design). Here, 3D CAD uses a computer to design a three-dimensional object, expressing the object as information of lines, surfaces, and grains. The 3D CAD simulation system builds a virtual environment, a simulation environment, using various engineering data sets, including 3D CAD data.

특히 이러한 3D 모델은 현실공장과 가상공장간 일치성, 직관성을 높이기 위해 필요하다. 3D 모델을 얻기 위해 사람이 직접 프로그래밍, 인터뷰, 자료 조사 등을 통해 직접 수행하는 방식은, 인력, 시간, 자원의 소요가 큼에 따라 시뮬레이션 확산이 한계적으로 진행된 문제가 있었다.In particular, these 3D models are needed to increase consistency and intuition between real and virtual factories. The method in which people directly perform programming, interviews, and data research to obtain a 3D model had the problem of limiting the spread of simulation as it required a lot of manpower, time, and resources.

관련 선행기술을 살펴보면, 선행기술(KR 10-2014-0087533 A)은 시뮬레이션 시스템에 관한 것으로서, 보다 구체적으로 제조설비 시뮬레이션 시스템에 관한 것이다. 실제 설비를 각각의 가상 설비로 모델링하고, 각각의 가상 설비들을 조합하여 연속 공정 구현이 가능한 가상 공장을 구축할 수 있으나, 직접 프로그래밍하여 모델링을 해야 하기 때문에 이를 위해 인력, 시간, 자원 등 소요가 크다는 문제가 있다.Looking at the related prior art, the prior art (KR 10-2014-0087533 A) relates to a simulation system, and more specifically, to a manufacturing facility simulation system. It is possible to build a virtual factory capable of implementing continuous processes by modeling actual facilities with each virtual facility and combining each virtual facility, but because it must be programmed and modeled directly, this requires a lot of manpower, time, and resources. there is a problem.

선행기술 2(KR 10-1873289 B1)은 해양 플랜트의 제작공정관리를 위한 3D 시뮬레이션 및 모니터링 시스템 및 방법을 개시하고 있다. 3D 설계 데이터와 맵핑(Mapping)하는 단계, 상기 프로세서가 상기 갱신 데이터 및 상기 3D 설계 데이터를 통합 데이터베이스(Database)에 저장하는 단계 및 상기 프로세서가 상기 3D 설계 데이터 및 상기 갱신 데이터에 기초하여 3D 시뮬레이션 모델을 묘사하는 단계를 포함하나, 직접 프로그래밍하여 모델링해야 하기 때문에 마찬가지로 인력, 시간, 자원 등 소요가 크다는 문제를 가진다.Prior Art 2 (KR 10-1873289 B1) discloses a 3D simulation and monitoring system and method for manufacturing process management of an offshore plant. Mapping with 3D design data, the processor storing the update data and the 3D design data in an integrated database, and the processor creating a 3D simulation model based on the 3D design data and the update data. It includes a step to describe, but because it must be programmed and modeled directly, it also has the problem of requiring a lot of manpower, time, and resources.

이에 본 발명자들은 드론을 이용하여 얻어진 영상정보를 기반으로 3D 모델링을 구축하기 위한 연구가 지속하였고, 고화질의 영상정보의 처리 및 관제시스템을 통합하여 본 발명을 완성하였다.Accordingly, the present inventors continued research to build 3D modeling based on image information obtained using a drone, and completed the present invention by integrating a high-quality image information processing and control system.

KRKR 10-2014-0087533 10-2014-0087533 AA KRKR 10-1873289 10-1873289 B1B1

본 발명의 목적은 드론으로부터 얻어지는 고화질의 영상정보를 원활히 송수신할 수 있고, 상기 영상정보와 함께 드론의 관제정보를 통합하여 지원할 수 있는 드론의 다중 인터페이스 영상 송수신 및 관제 방법을 제공하기 위한 것이다.The purpose of the present invention is to provide a multi-interface video transmission, reception and control method for a drone that can smoothly transmit and receive high-quality video information obtained from a drone, and can integrate and support drone control information with the video information.

본 발명의 목적은 3D 모델링이 구현될 수 있도록 드론으로부터 얻어진 다중의 인터페이스 영상을 조합하기 위한 드론의 다중 인터페이스 영상 송수신 및 관제 방법을 제공하기 위한 것이다.The purpose of the present invention is to provide a method for transmitting, receiving and controlling multiple interface images of a drone to combine multiple interface images obtained from a drone so that 3D modeling can be implemented.

본 발명의 목적은 시간의 흐름에 따라 변화하는 자연물 또는 인공물을 3D 모델링하여 전체적인 변화 과정을 입체적으로 구현할 수 있으며, 각 과정에서 특정한 사물을 인식할 수 있도록 하기 위한 것이다.The purpose of the present invention is to enable 3D modeling of natural or artificial objects that change over time to three-dimensionally realize the overall change process and to recognize specific objects in each process.

본 발명의 다른 목적은 위 방법을 수행할 수 있는 시스템을 제공하기 위한 것이다.Another object of the present invention is to provide a system capable of performing the above method.

상기 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 드론의 다중 인터페이스 영상 송수신 및 관제 방법은 드론이 미리 정해 놓은 지정위치로 이동하여 미리 정해 놓은 기준에 따라 영상을 촬영하는 보정 1단계; 상기 보정 1단계에서 수집한 영상이 서버로 수신되고 데이터베이스에 저장된 상기 지정위치에 대응되는 이미지와 매칭하는 보정 2단계; 상기 보정 2단계의 매칭결과를 기초로 서버로부터 수정된 위치정보 및 영상촬영 설정 값을 드론이 수신하는 보정 3단계; 상기 보정 3단계 이후에 상기 드론은 미리 정해 놓은 기준에 따라 지정위치를 이동하면서 영상을 촬영하는 영상촬영단계; 및 상기 영상촬영단계에서 촬영된 영상은 드론의 위치정보가 포함되어 서버로 전송되는 영상 및 위치정보 전송단계를 포함하는 것이다.In order to achieve the above object, a multi-interface image transmission, reception and control method of a drone according to an embodiment of the present invention includes a first correction step in which the drone moves to a predetermined designated location and captures an image according to a predetermined standard; A second correction step in which the image collected in the first correction step is received by a server and matched with an image corresponding to the designated location stored in a database; A third correction step in which the drone receives corrected location information and video shooting settings from the server based on the matching result of the second correction step; After the correction step 3, the drone moves to a designated location according to a predetermined standard and captures an image; And an image and location information transmission step in which the image captured in the image capturing step includes location information of the drone and is transmitted to a server.

상기 드론의 다중 인터페이스 영상 송수신 및 관제 방법에 있어서, 상기 지정위치는 복수 개이고, 상기 드론은 복수 개의 카메라를 포함하며, 별도의 저장장치를 포함하는 것일 수 있다.In the multi-interface video transmission/reception and control method of the drone, there may be a plurality of designated locations, the drone may include a plurality of cameras, and a separate storage device.

상기 보정 2단계에서, 상기 데이터베이스는 특정 위치 정보 별로, 영상촬영 설정 값을 달리하는 복수 개의 이미지를 포함하며, 상기 복수 개의 이미지와 촬영된 이미지를 매칭하는 것일 수 있다.In the second step of correction, the database may include a plurality of images with different video shooting settings for each specific location information, and the plurality of images may be matched with the captured image.

상기 드론의 다중 인터페이스 영상 송수신 및 관제 방법은 보정 3단계 이후에, 보정 1단계 내지 보정 3단계를 다시 수행하고, 상기 보정 3단계에서 수정 후 위치정보 및 영상촬영 설정 값이 수정 전 값과 동일한 경우 영상촬영단계를 수행하는 것일 수 있다.In the drone's multi-interface video transmission/reception and control method, after correction step 3, correction steps 1 to 3 are performed again, and if the location information and video shooting setting values after correction in correction step 3 are the same as the values before correction. It may be performing an imaging step.

상기 카메라는, 광 이미지로부터 상기 영상 데이터를 생성하는 카메라 모듈;을 포함하고, 상기 카메라 모듈은, 측벽에 관통홀을 포함하는 하우징; 상기 관통홀에 설치된 렌즈; 및 상기 렌즈를 구동하는 구동부;를 포함하는 것일 수 있다.The camera includes a camera module that generates the image data from an optical image, and the camera module includes a housing including a through hole in a side wall; A lens installed in the through hole; and a driving unit that drives the lens.

3D 모델링 모듈에서 데이터베이스에 저장된 상기 지정위치에 대응되는 이미지 및 위치정보를 기초로 촬영하는 대상물을 드로잉하고, 드론으로부터 수신된 영상정보를 기초로 3D 모델링을 이미지를 사용자 단말기로 전송하는 단계를 포함하는 것일 수 있다.In the 3D modeling module, drawing an object to be photographed based on the image and location information corresponding to the designated location stored in the database, and transmitting the 3D modeling image to the user terminal based on the image information received from the drone. It may be.

상기 영상 및 위치정보 전송단계 이후에, 서버에서 드론으로부터 수신된 이미지에서 미리 정해 놓은 기준에 따라 특정한 사물을 특정하여 표시하는 단계를 더 포함하는 것일 수 있다.After the video and location information transmission step, the server may further include a step of specifying and displaying a specific object in the image received from the drone according to a predetermined standard.

본 발명의 다른 일 실시예에 따른 드론의 다중 인터페이스 영상 송수신 및 관제 시스템은 상기 방법을 수행하는 것일 수 있다.A drone's multi-interface video transmission/reception and control system according to another embodiment of the present invention may perform the above method.

본 발명의 또 다른 일 실시예에 따른 비일시적 컴퓨터 판독가능 매체는 명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 상기 방법을 수행하게 하는 것일 수 있다.A non-transitory computer-readable medium according to another embodiment of the present invention is a non-transitory computer-readable medium that stores instructions, which, when executed by a processor, may cause the processor to perform the method. there is.

본 발명은 드론으로부터 얻어지는 고화질의 영상정보를 원활히 송수신할 수 있고, 상기 영상정보와 함께 드론의 관제정보를 통합하여 지원할 수 있는 드론의 다중 인터페이스 영상 송수신 및 관제 방법을 제공한다.The present invention provides a multi-interface video transmission, reception and control method for a drone that can smoothly transmit and receive high-quality video information obtained from a drone, and can integrate and support drone control information with the video information.

본 발명은 3D 모델링이 구현될 수 있도록 드론으로부터 얻어진 다중의 인터페이스 영상을 조합하기 위한 드론의 다중 인터페이스 영상 송수신 및 관제 방법을 제공한다.The present invention provides a method for transmitting, receiving, and controlling multiple interface images of a drone for combining multiple interface images obtained from a drone so that 3D modeling can be implemented.

본 발명은 시간의 흐름에 따라 변화하는 자연물 또는 인공물을 3D 모델링하여 전체적인 변화 과정을 입체적으로 구현할 수 있으며, 각 과정에서 특정한 사물을 인식할 수 있게 한다.The present invention enables 3D modeling of natural or artificial objects that change over time to three-dimensionally embody the overall change process, and enables recognition of specific objects in each process.

본 발명의 다른 일 실시예는 위 방법을 수행할 수 있는 드론의 다중 인터페이스 영상 송수신 및 관제 시스템을 제공한다.Another embodiment of the present invention provides a multi-interface video transmission/reception and control system for a drone that can perform the above method.

도 1은 본 발명의 일 실시예를 나타낸 것이다.
도 2는 본 발명의 일 실시예에 따른 순서도에 관한 것이다.
도 3은 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이다.
도 4는 본 발명에 따른 HSV 그래프를 나타낸 것이다.
Figure 1 shows one embodiment of the present invention.
Figure 2 relates to a flow chart according to an embodiment of the present invention.
Figure 3 is a diagram showing an example of an image correction filter according to the present invention.
Figure 4 shows an HSV graph according to the present invention.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예에 대하여 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement it. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

도 1은 본 발명의 일 실시예에 따른 드론의 다중 인터페이스 영상 송수신 및 관제 시스템은 상기 방법을 나타내는 개념도에 대한 것이다.Figure 1 is a conceptual diagram showing the method of the multi-interface video transmission, reception and control system of a drone according to an embodiment of the present invention.

본 발명에서 말하는 드론(1000)은 무인비행체를 포함하며, 무인으로 운용할 수 있는 모든 이동체를 포함하는 것으로 정의한다. 또한 상기 드론은 비행 또는 주행 등의 이동을 할 수 있는 수단과 송수신 수단, 데이터 저장, 처리를 할 수 있는 수단을 포함하는 것이다.The drone 1000 referred to in the present invention includes unmanned aircraft and is defined to include all moving objects that can be operated unmanned. In addition, the drone includes means for movement such as flying or driving, means for transmitting and receiving, and means for storing and processing data.

본 발명의 일 실시예에 따른 드론(1000)의 다중 인터페이스 영상 송수신 및 관제 방법은 드론(1000)이 미리 정해 놓은 지정위치로 이동하여 미리 정해 놓은 기준에 따라 영상을 촬영하는 보정 1단계(S1); 상기 보정 1단계에서 수집한 영상이 서버(100)로 수신되고 데이터베이스(500)에 저장된 상기 지정위치에 대응되는 이미지와 매칭하는 보정 2단계(S2); 상기 보정 2단계의 매칭결과를 기초로 서버(100)로부터 수정된 위치정보 및 영상촬영 설정 값을 드론(1000)이 수신하는 보정 3단계(S3); 상기 보정 3단계 이후에 상기 드론(1000)은 미리 정해 놓은 기준에 따라 지정위치를 이동하면서 영상을 촬영하는 영상촬영단계(S4); 및 상기 영상촬영단계에서 촬영된 영상은 드론(1000)의 위치정보가 포함되어 서버(100)로 전송되는 영상 및 위치정보 전송단계(S5)를 포함하는 것이다.The multi-interface image transmission/reception and control method of the drone 1000 according to an embodiment of the present invention includes a first correction step (S1) in which the drone 1000 moves to a predetermined designated location and captures an image according to a predetermined standard. ; A second correction step (S2) in which the image collected in the first correction step is received by the server 100 and matched with an image corresponding to the designated location stored in the database 500; A correction step 3 (S3) in which the drone 1000 receives the corrected location information and video shooting settings from the server 100 based on the matching result of the correction step 2; After the correction step 3, the drone 1000 moves to a designated location according to a predetermined standard and captures an image (S4); And an image and location information transmission step (S5) in which the image captured in the image capturing step includes location information of the drone 1000 and is transmitted to the server 100.

드론(1000)을 통하여 일정한 영상정보를 취득하고, 해당 영상정보를 기반으로 3D 모델링 데이터 등을 구현하는데 있어서, 문제되는 사항 중에 하나가, 피사체가 고정된 경우라 하여도 촬영된 이미지가 촬영하는 시간, 날씨에 따라 영향을 받아 모델링에 대한 오차가 발생한다는 점이다. 특히 GPS 위치 정보에 의한 오차 역시 촬영된 이미지에 대한 왜곡을 가져올 수 있다는 문제가 있다. In acquiring certain image information through the drone 1000 and implementing 3D modeling data based on the image information, one of the problems is the time it takes for the captured image to be captured even if the subject is fixed. , the problem is that errors in modeling occur due to the influence of the weather. In particular, there is a problem that errors caused by GPS location information can also cause distortion of the captured image.

특히, 피사체가 거대하고, 건축중인 건물과 같이 피사체의 외형이 시간의 흐름에 따라 변동하는 경우 촬영된 이미지에 오차가 발생하기 때문에 피사체가 변형되는 과정을 일목요연하게 모델링으로 구현하기 어려워진다는 문제가 있다.In particular, when the subject is large and the appearance of the subject changes over time, such as a building under construction, errors occur in the captured image, making it difficult to clearly model the process of deforming the subject. .

따라서 본 발명에서 개시하는 상기 보정 1 단계 내지 보정 3단계를 적용하는 경우 위와 같은 문제를 해소할 수 있다.Therefore, when applying the correction steps 1 to 3 disclosed in the present invention, the above problem can be solved.

상기 보정 1단계(S1)는 드론(1000)이 미리 정해 놓은 지정위치로 이동하여 미리 정해 놓은 기준에 따라 영상을 촬영한다. 상기 미리 정해 놓은 지정위치는 정해진 피사체 촬영을 위한 주행경로에 있어서 일정한 위치정보와 함께 영상을 촬영하여 지정한 것으로, 통상적으로 복수개의 지정위치를 설정하는 것이 바람직하다.In the correction step 1 (S1), the drone 1000 moves to a predetermined designated location and captures images according to predetermined standards. The predetermined designated location is designated by shooting an image along with certain location information on a driving route for photographing a designated subject, and it is generally desirable to set a plurality of designated locations.

상기 지정위치는 해당 위치정보에서 다양한 촬영설정 값에 따라 수집된 영상정보가 미리 데이터베이스(500)에 저장된 것일 수 있다.The designated location may have image information collected according to various shooting setting values from the location information previously stored in the database 500.

상기 드론(1000)의 비행 경로는 복수 개의 지정위치를 이동하는 경로로 설정된 것일 수 있다. 상기 비행 경로를 따라 상기 드론(1000)이 비행하면서 일정한 간격으로 선택적으로 영상을 수집하면서 상기 지정위치에서는 필수적으로 영상을 수집하는 것일 수 있다.The flight path of the drone 1000 may be set as a path to move to a plurality of designated locations. While the drone 1000 flies along the flight path, it may selectively collect images at regular intervals and necessarily collect images at the designated location.

상기 보정 2단계(S2)는 보정 1단계에서 수집한 영상이 서버(100)로 수신되고 데이터베이스(500)에 저장된 상기 지정위치에 대응되는 이미지와 매칭한다.In the correction step 2 (S2), the image collected in the correction step 1 is received by the server 100 and matched with the image corresponding to the designated location stored in the database 500.

상기 데이터베이스(500)는 드론에 포함된 카메라의 종류별, 설정값별, 날짜별로 상기 지정위치에 해당하는 영상정보가 저장된 것이다. 상기 보정 2단계에서 드론(1000)으로부터 지정위치에서 촬영된 영상정보를 서버(100)를 통하여 수신하고, 이미지분석부(200)를 통하여 상기 촬영된 영상정보와 상기 촬영정보에 포함된 위치정보를 기초로 상기 위치정보에 대응하는 이미지를 상기 데이터베이스(500)에서 추출하여 비교분석한다. 이를 통하여 상기 드론(1000)의 위치 센서에 오류 또는 설정 값의 오류를 조정할 수 있다. 특히 드론(1000)으로 수집된 영상을 일련의 가공단계를 거쳐 3D 모델링 등으로 활용될 수 있어야 하기 때문에 날씨, 시간 등의 외부 영향에 불구하고, 각 영상 이미지의 정확한 위치 정보와 외부 영향을 고려하여 카메라 설정 값이 조절됨으로서, 일관된 영상 이미지가 얻어질 수 있도록 하는 것이 중요하다.The database 500 stores image information corresponding to the designated location by type, setting value, and date of the camera included in the drone. In the second step of correction, image information captured at a designated location from the drone 1000 is received through the server 100, and the captured image information and location information included in the shooting information are received through the image analysis unit 200. Based on this, images corresponding to the location information are extracted from the database 500 and compared and analyzed. Through this, errors in the position sensor of the drone 1000 or errors in setting values can be adjusted. In particular, the video collected with the drone (1000) must be used for 3D modeling, etc. through a series of processing steps, so despite external influences such as weather and time, the accurate location information of each video image and external influences must be taken into consideration. As camera settings are adjusted, it is important to ensure that consistent video images are obtained.

보정 3단계(S3)에서는 상기 보정 2단계의 매칭결과를 기초로 서버(100)로부터 수정된 위치정보 및 영상촬영 설정 값을 드론(1000)이 수신한다.In the correction step 3 (S3), the drone 1000 receives the corrected location information and video shooting settings from the server 100 based on the matching result of the correction step 2.

상기 수정된 위치정보 및 영상촬영 정보는 설정보정모듈을 통하여 촬영된 이미지와 매칭된 이미지를 분석하여 상기 드론(1000)의 위치정보 또는 카메라 설정 값을 조절할 수 있도록 하는 것이다.The modified location information and video shooting information allow the location information or camera setting values of the drone 1000 to be adjusted by analyzing the captured image and the matched image through the settings correction module.

영상촬영단계(S4)는 상기 보정 1단계 내지 보정 3단계를 진행한 후에 복수개의 지정위치를 연결하여 생성된 주행경로를 따라 영상촬영을 진행하는 것을 말한다.The video capture step (S4) refers to video capture along the driving path created by connecting a plurality of designated locations after performing the correction steps 1 to 3.

위 영상촬영단계(S4)를 통하여 일정한 시간 각격으로 촬영을 지속함으로서 시간의 흐름에 따라 변화하는 자연물 또는 인공물을 동일한 이미지로 구현되도록 촬영하여 3D 모델링으로 그 변화 정도를 살펴볼 수 있는 데이터를 구축할 수 있다. 예를 들어, 공사 중인 건축물에 대하여 위 영상촬영단계(S4)를 진행함으로서 공사 전과정을 3D 모델링으로 구현하여 각 공정별로 살펴보게 할 수 있다.By continuing to shoot at regular intervals through the above video shooting step (S4), natural objects or artificial objects that change over time can be captured in the same image, and data that can be used to examine the degree of change through 3D modeling can be constructed. there is. For example, by proceeding with the above video recording step (S4) for a building under construction, the entire construction process can be implemented through 3D modeling and examined for each process.

상기 영상 및 위치정보 전송단계(S5)상기 영상촬영단계에서 촬영된 영상은 드론(1000)의 위치정보가 포함되어 서버(100)로 전송되는 것을 말한다. 상기 영상정보는 영상을 촬영시점에 대한 위치정보가 포함되어 있으므로 이를 기초로 일정한 툴을 이용하여 3D 모델링을 구현하게 된다.The image captured in the image and location information transmission step (S5) includes the location information of the drone 1000 and is transmitted to the server 100. Since the image information includes location information about the time when the image was captured, 3D modeling is implemented using a certain tool based on this.

상기 드론(1000)의 다중 인터페이스 영상 송수신 및 관제 방법에 있어서, 상기 지정위치는 복수 개이고, 상기 드론(1000)은 복수 개의 카메라(250)를 포함하며, 별도의 저장장치를 포함하는 것일 수 있다.In the multi-interface image transmission/reception and control method of the drone 1000, the designated location may be plural, the drone 1000 may include a plurality of cameras 250, and a separate storage device.

상기 지정위치는 복수 개로 설정되어 상기 지정위치 점을 연결하면서 상기 드론(1000)의 비행경로가 설정되게 된다.The designated location is set in plural, and the flight path of the drone 1000 is set by connecting the designated location points.

상기 카메라는 복수개로 설정되며 이미지 누락을 방지하거나 서로 각도를 달리하는 복수 개의 카메라인 것일 수 있다. 또한 상기 드론(1000)은 비전 인식 모듈을 더 포함하는 것일 수 있다.The cameras may be set in plural and may be multiple cameras that prevent missing images or have different angles from each other. Additionally, the drone 1000 may further include a vision recognition module.

상기 보정 2단계에서, 상기 데이터베이스는 특정 위치 정보 별로, 영상촬영 설정 값을 달리하는 복수 개의 이미지를 포함하며, 상기 복수 개의 이미지와 촬영된 이미지를 매칭하는 것일 수 있다.In the second step of correction, the database may include a plurality of images with different video shooting settings for each specific location information, and the plurality of images may be matched with the captured image.

상기 이미지 매칭은 외부 환경의 변화에 불구하고 동일한 이미지를 추출하기 위한 것으로 상기 이미지분석부(200)가 드론(1000)으로부터 얻어진 촬영영상 및 촬영설정 값을 보고, 학습하여 목적하는 이미지 형태로 설정될 수 있도록 하기 위해 특정 위치 정보 별로 다양한 이미지와 매칭하는 것일 수 있다.The image matching is to extract the same image despite changes in the external environment, and the image analysis unit 200 views and learns the captured image and shooting settings values obtained from the drone 1000 to set the desired image form. In order to do so, it may be matched with various images according to specific location information.

상기 드론(1000)의 다중 인터페이스 영상 송수신 및 관제 방법은 보정 3단계 이후에, 보정 1단계 내지 보정 3단계를 다시 수행하고, 상기 보정 3단계에서 수정 후 위치정보 및 영상촬영 설정 값이 수정 전 값과 동일한 경우 영상촬영단계를 수행하는 것일 수 있다.The multi-interface image transmission, reception and control method of the drone 1000 involves re-performing correction steps 1 to 3 after correction step 3, and the location information and video shooting setting values after correction in correction step 3 are the values before correction. If it is the same as , the video recording step may be performed.

상기 보정단계의 반복을 통하여 영상의 연속성이 유지될 수 있도록 하기 위한 것이다.This is to ensure that the continuity of the image is maintained through repetition of the correction step.

상기 카메라(250)는, 렌즈 어셈블리, 필터, 광전 변환 모듈, 및 아날로그/디지털 변환 모듈을 포함할 수 있다. 렌즈 어셈블리는 줌 렌즈, 포커스 렌즈 및 보상 렌즈를 포함한다. 포커스 모터(MF)의 제어에 따라 렌즈의 촛점 거리가 이동될 수 있다. 필터는, 광학적 저역통과필터(Optical Low Pass Filter)와. 적외선 차단 필터(Infra-Red cut Filter)를 포함할 수 있다. 광전 변환 모듈은 CCD(Charge Coupled Device) 등의 촬상 소자를 가지고 있어 광학계(OPS)로부터의 빛을 전기적 아날로그 신호로 변환시킨다. 아날로그/디지털 변환 모듈은 CDSADC(Correlation Double Sampler and Analog-to-Digital Converter) 소자를 포함하여 이루어질 수 있다. The camera 250 may include a lens assembly, a filter, a photoelectric conversion module, and an analog/digital conversion module. The lens assembly includes a zoom lens, a focus lens, and a compensation lens. The focal length of the lens may be moved according to control of the focus motor (MF). The filter is an optical low pass filter. It may include an infrared cut filter. The photoelectric conversion module has an imaging device such as a CCD (Charge Coupled Device) and converts light from the optical system (OPS) into an electrical analog signal. The analog/digital conversion module may include a Correlation Double Sampler and Analog-to-Digital Converter (CDSADC) element.

상기 카메라(250)는, 광 이미지로부터 상기 영상 데이터를 생성하는 카메라 모듈;을 포함하고, 상기 카메라 모듈은, 측벽에 관통홀을 포함하는 하우징; 상기 관통홀에 설치된 렌즈; 및 상기 렌즈를 구동하는 구동부;를 포함하는 것일 수 있다.The camera 250 includes a camera module that generates the image data from an optical image, and the camera module includes a housing including a through hole in a side wall; A lens installed in the through hole; and a driving unit that drives the lens.

3D 모델링 모듈에서 데이터베이스에 저장된 상기 지정위치에 대응되는 이미지 및 위치정보를 기초로 촬영하는 대상물을 드로잉하고, 드론(1000)으로부터 수신된 영상정보를 기초로 3D 모델링을 이미지를 사용자 단말기로 전송하는 단계를 포함하는 것일 수 있다.Drawing an object to be photographed based on the image and location information corresponding to the designated location stored in the database in the 3D modeling module, and transmitting the 3D modeling image to the user terminal based on the image information received from the drone 1000. It may include.

다양한 이미지 데이터를 수득하기 위해서는 렌즈가 카메라 장치(250) 또는 하우징의 외부로 노출될 필요가 있는데, 외부 환경변화에 불구하고 장시간 외부에서 촬영을 지속해야 하기 때문에, 상기 렌즈에 대한 오염이 쉽게 발생한다는 문제가 있다.In order to obtain various image data, the lens needs to be exposed to the outside of the camera device 250 or the housing. Since shooting must continue outside for a long time despite changes in the external environment, contamination of the lens easily occurs. there is a problem.

따라서 카메라가 설치되는 위치를 고려하면 내오염성이 강한 렌즈가 필요하다. 따라서, 본 발명은 렌즈를 코팅하는 코팅층을 제안하여, 이러한 문제점을 해결하고자 하였다. Therefore, considering the location where the camera is installed, a lens with strong contamination resistance is required. Therefore, the present invention sought to solve this problem by proposing a coating layer for coating the lens.

바람직하게 상기 렌즈는 그 표면에 하기의 [화학식 1]로 표시되는 화합물, 유기 용매, 무기 입자 및 분산제가 포함되는 코팅조성물로 코팅된 것일 수 있다.Preferably, the surface of the lens may be coated with a coating composition containing a compound represented by the following [Chemical Formula 1], an organic solvent, an inorganic particle, and a dispersant.

[화학식 1][Formula 1]

여기서,here,

L1은 단일결합, 치환 또는 비치환된 탄소수 6 내지 30의 아릴렌기, 치환 또는 비치환된 탄소수 1 내지 20의 알킬렌기, 치환 또는 비치환된 탄소수 3 내지 20의 시클로알킬렌기, 치환 또는 비치환된 탄소수 2 내지 20의 알케닐렌기, 치환 또는 비치환된 탄소수 3 내지 20의 시클로알케닐렌기 및 치환 또는 비치환된 탄소수 2 내지 20의 알키닐렌기로 이루어진 군에서 선택되며,L 1 is a single bond, a substituted or unsubstituted arylene group with 6 to 30 carbon atoms, a substituted or unsubstituted alkylene group with 1 to 20 carbon atoms, a substituted or unsubstituted cycloalkylene group with 3 to 20 carbon atoms, or a substituted or unsubstituted group. It is selected from the group consisting of an alkenylene group having 2 to 20 carbon atoms, a substituted or unsubstituted cycloalkenylene group having 3 to 20 carbon atoms, and a substituted or unsubstituted alkynylene group having 2 to 20 carbon atoms,

상기 L1이 치환되는 경우, 수소, 니트로기, 할로겐기, 히드록시기, 탄소수 1 내지 30의 알킬기, 탄소수 1 내지 20개의 시클로알킬기, 탄소수 2 내지 30의 알케닐기, 탄소수 2 내지 24의 알키닐기, 탄소수 7 내지 30의 아르알킬기, 탄소수 6 내지 30의 아릴기 및 탄소수 1 내지 30의 알콕시기로 이루어진 군으로부터 선택된 1종 이상의 치환기로 치환되며, 복수 개의 치환기로 치환되는 경우 이들은 서로 동일하거나 상이하다.When L 1 is substituted, hydrogen, nitro group, halogen group, hydroxy group, alkyl group of 1 to 30 carbon atoms, cycloalkyl group of 1 to 20 carbon atoms, alkenyl group of 2 to 30 carbon atoms, alkynyl group of 2 to 24 carbon atoms, carbon number It is substituted with one or more substituents selected from the group consisting of an aralkyl group with 7 to 30 carbon atoms, an aryl group with 6 to 30 carbon atoms, and an alkoxy group with 1 to 30 carbon atoms. When substituted with a plurality of substituents, they are the same or different from each other.

상기 코팅조성물로 렌즈가 코팅된 경우 우수한 발수성 및 내오염성을 나타낼 수 있기 때문에 항만 크레인 주변에 설치된 렌즈가 오염 환경에 장기간 노출되더라도, 보다 선명한 이미지 또는 영상을 수집할 수 있다.When a lens is coated with the coating composition, it can exhibit excellent water repellency and contamination resistance, so that clearer images or videos can be collected even if the lens installed around a port crane is exposed to a contaminated environment for a long period of time.

상기 무기 입자는 실리카, 알루미나 및 이들의 혼합물로 이루어진 군으로부터 선택될 수 있다. 상기 무기 입자의 평균 직경은 70 내지 100㎛이지만, 상기 예시에 국한되지 않는다. 상기 무기 입자는 렌즈 표면에 코팅층으로 형성 후, 물리적인 강도를 향상시키고, 점도를 일정 범위로 유지시켜 성형성을 높일 수 있다.The inorganic particles may be selected from the group consisting of silica, alumina, and mixtures thereof. The average diameter of the inorganic particles is 70 to 100 μm, but is not limited to the above example. After being formed as a coating layer on the surface of the lens, the inorganic particles can improve physical strength and maintain viscosity within a certain range to improve moldability.

상기 유기 용매는 메틸에틸케톤(MEK), 톨루엔 및 이들의 혼합으로 이루어진 군으로부터 선택되며, 바람직하게는 메틸에틸케톤을 사용할 수 있으나, 상기 예시에 국한되지 않는다.The organic solvent is selected from the group consisting of methyl ethyl ketone (MEK), toluene, and mixtures thereof, preferably methyl ethyl ketone, but is not limited to the above examples.

상기 분산제로는 폴리에스테르 계열의 분산제를 사용할 수 있고, 구체적으로 2-메톡시프로필 아세테이트 및 1-메톡시-2-프로필 아세테이트의 공중합체로 이루어진 폴리에스테르 계열의 분산안정제로서 TEGO-Disperse 670 (제조사: EVONIK)을 사용할 수 있으나, 상기 예시에 국한되지 않고 통상의 기술자에게 자명한 분산제는 제한 없이 모두 사용 가능하다.As the dispersant, a polyester-based dispersant can be used. Specifically, a polyester-based dispersion stabilizer consisting of a copolymer of 2-methoxypropyl acetate and 1-methoxy-2-propyl acetate is TEGO-Disperse 670 (manufacturer) : EVONIK) can be used, but is not limited to the above example and any dispersant that is obvious to those skilled in the art can be used without limitation.

상기 코팅 조성물은 기타 첨가제로 안정화제를 추가로 포함할 수 있고, 상기 안정화제는 자외선 흡수제, 산화방지제 등을 포함할 수 있으나, 상기 예시에 국한되지 않고 제한 없이 사용 가능하다.The coating composition may further include a stabilizer as other additives, and the stabilizer may include an ultraviolet absorber, an antioxidant, etc., but is not limited to the above examples and can be used without limitation.

상기 코팅층을 형성하기 위한, 코팅 조성물은 보다 구체적으로 상기 화학식 1로 표시되는 화합물, 유기 용매, 무기 입자 및 분산제를 포함할 수 있다.More specifically, the coating composition for forming the coating layer may include a compound represented by Formula 1, an organic solvent, inorganic particles, and a dispersant.

상기 코팅 조성물은 유기용매 100 중량부에 대하여, 상기 화학식 1로 표시되는 화합물 40 내지 60 중량부, 무기 입자 20 내지 40 중량부 및 분산제 5 내지 15 중량부를 포함할 수 있다. 상기 범위에 의하는 경우 각 구성 성분의 상호 작용에 의한 발수 효과가 임계적 의의가 있는 정도의 상승효과가 발현되며, 상기 범위를 벗어나는 경우 상승효과가 급격히 저하되거나 거의 없게 된다.The coating composition may include 40 to 60 parts by weight of the compound represented by Formula 1, 20 to 40 parts by weight of inorganic particles, and 5 to 15 parts by weight of a dispersant, based on 100 parts by weight of the organic solvent. If the range is within the above range, a synergistic effect of the water repellent effect due to the interaction of each component is expressed to a critical degree, and if it is outside the above range, the synergistic effect is rapidly reduced or almost non-existent.

보다 바람직하게, 상기 코팅 조성물의 점도는 1500 내지 1800cP이며, 상기 점도가 1500cP 미만인 경우에는 렌즈 표면에 도포하면, 흘러 내리기 때문에 코팅층 형성이 용이하지 않다는 문제가 있고, 1800cP를 초과하는 경우에는 균일한 코팅층 형성되기 어렵다는 문제가 있다.More preferably, the viscosity of the coating composition is 1500 to 1800 cP. If the viscosity is less than 1500 cP, there is a problem that it is not easy to form a coating layer because it flows down when applied to the lens surface. If the viscosity is more than 1800 cP, a uniform coating layer is not formed. There is a problem that it is difficult to form.

[제조예 1: 코팅층의 제조][Preparation Example 1: Preparation of coating layer]

1. 코팅 조성물의 제조1. Preparation of coating composition

메틸에틸케톤에 하기 화학식 1로 표시되는 화합물, 무기입자 및 분산제를 혼합하여, 코팅 조성물을 제조하였다:A coating composition was prepared by mixing methyl ethyl ketone with a compound represented by the following formula (1), inorganic particles, and a dispersant:

[화학식 1][Formula 1]

여기서, here,

L1은 비치환된 탄소수 5의 알킬렌기이다.L 1 is an unsubstituted alkylene group having 5 carbon atoms.

상기 대전방지 조성물의 보다 구체적인 조성은 하기 [표 1]과 같다. A more specific composition of the antistatic composition is shown in [Table 1] below.

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 유기용매organic solvent 100100 100100 100100 100100 100100 화학식 1로 표시되는 화합물Compound represented by formula 1 3030 4040 5050 6060 7070 무기입자inorganic particles 1010 2020 3030 4040 5050 분산제dispersant 1One 55 1010 1515 2020

(단위 중량부)(unit weight)

2. 코팅층의 제조2. Preparation of coating layer

렌즈의 일면에 상기 DX1 내지 DX5의 코팅 조성물을 도포 후, 경화시켜 코팅층을 형성하였다. The coating compositions of DX1 to DX5 were applied to one surface of the lens and then cured to form a coating layer.

[실험예 1: 코팅층 평가][Experimental Example 1: Coating layer evaluation]

1. 표면 외관 평가1. Surface appearance evaluation

코팅 조성물의 점도 차이로 인해, 코팅층을 제조한 이후, 균일한 표면이 형성되었는지 여부에 대해 관능 평가를 진행하였다. 균일한 코팅층을 형성하였는지 여부에 대한 평가를 진행하였고, 하기와 같은 기준에 의해 평가를 진행하였다. Due to differences in viscosity of the coating composition, after manufacturing the coating layer, sensory evaluation was conducted to determine whether a uniform surface was formed. An evaluation was conducted as to whether a uniform coating layer was formed, and the evaluation was conducted according to the following criteria.

○: 균일한 코팅층 형성○: Formation of uniform coating layer

×: 불균일한 코팅층의 형성×: Formation of uneven coating layer

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 관능 평가Sensory evaluation ΥΥ ΥΥ

코팅층을 형성할 때, 일정 점도 미만인 경우에는 렌즈의 표면에서 흐름이 발생하여, 경화 공정 이후, 균일한 코팅층의 형성이 어려운 경우가 다수 발생하였다. 이에 따라, 생산 수율이 낮아지는 문제가 발생할 수 있다. 또한, 점도가 너무 높은 경우에도, 조성물의 균일 도포가 어려워 균일한 코팅층의 형성이 불가하였다.When forming a coating layer, if the viscosity is below a certain level, flow occurs on the surface of the lens, making it difficult to form a uniform coating layer after the curing process. Accordingly, the problem of lowering the production yield may occur. Additionally, even when the viscosity was too high, it was difficult to uniformly apply the composition, making it impossible to form a uniform coating layer.

2. 발수각의 측정2. Measurement of water repellency angle

상기 렌즈 표면에 코팅층을 형성한 이후, 발수각을 측정한 결과는 하기 표 3과 같다. After forming the coating layer on the surface of the lens, the results of measuring the water repellency angle are shown in Table 3 below.

전진 접촉각 (〃)Advancing contact angle (〃) 정지 접촉각 (〃)Rest contact angle (〃) 후진 접촉각 (〃)Receding contact angle (〃) TX1TX1 117.1±2.9117.1±2.9 112.1±4.1112.1±4.1 < 10< 10 TX2TX2 132.4±1.5132.4±1.5 131.5±2.7131.5±2.7 141.7±3.4141.7±3.4 TX3TX3 138.9±3.0138.9±3.0 138.9±2.7138.9±2.7 139.8±3.7139.8±3.7 TX4TX4 136.9±2.0136.9±2.0 135.6±2.6135.6±2.6 140.4±3.4140.4±3.4 TX5TX5 116.9±0.7116.9±0.7 115.4±3.0115.4±3.0 < 10< 10

상기 [표 3]에 나타낸 바와 같이, TX1 내지 TX5의 코팅 조성물을 이용하여 코팅층을 형성한 이후, 접촉각을 측정한 결과를 확인하였다. TX1 및 TX5는 후진 접촉각이 10도 미만으로 측정되었다. 즉, 코팅 조성물을 제조하기 위한 최적의 범위를 벗어나게 되는 경우, 물방울이 피닝(Pinning)되는 현상이 발생하는 것을 확인하였다. 반면 TX2 내지 4에서는 피닝 현상이 발생하지 않음을 확인하여 우수한 방수 효과를 나타낼 수 있음을 확인하였다.As shown in [Table 3], after forming a coating layer using the coating compositions of TX1 to TX5, the results of measuring the contact angle were confirmed. TX1 and TX5 were measured to have receding contact angles of less than 10 degrees. In other words, it was confirmed that pinning of water droplets occurs when the coating composition falls outside the optimal range for manufacturing the coating composition. On the other hand, it was confirmed that no pinning phenomenon occurred in TX2 to 4, showing that excellent waterproofing effects can be achieved.

3. 내오염성 평가3. Contamination resistance evaluation

수조 주변에 상기 실시예에 따른 코팅층을 형성한 렌즈를 모형 카메라에 부착하고, 항만 야드와 같이 구성하기 위하여 10일 간 염분 농도가 높은 바닷물을 포함하는 수조 주변 환경에 노출되도록 하였다. 비교예(Con)로는 코팅층이 형성되지 않은 동일한 렌즈를 사용하였으며, 각 실시예에 모형 카메라는 수조 주변의 동일한 위치에 설치하였다.A lens on which the coating layer according to the above example was formed around the tank was attached to a model camera, and the camera was exposed to the environment around the tank containing seawater with a high salt concentration for 10 days in order to configure it like a port yard. As a comparative example (Con), the same lens without a coating layer was used, and in each example, a model camera was installed at the same location around the water tank.

그 뒤 실험 전후의 렌즈의 오염 정도를 유관으로 평가하였고, 객관적인 비교를 위하여 코팅층이 형성되지 않은 비교예와 비교하여 그 결과를 1 내지 10의 지수로 평가하여 하기의 [표 4]에 나타내었다. 하기의 지수는 그 숫자가 낮을수록 내오염성이 우수한 것이다.Afterwards, the degree of contamination of the lens before and after the experiment was evaluated, and for objective comparison, the results were compared with the comparative example in which no coating layer was formed, and the results were evaluated with an index of 1 to 10 and are shown in [Table 4] below. As for the indices below, the lower the number, the better the contamination resistance.

ConCon TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 내오염성Staining resistance 1010 77 33 33 33 88

(단위: 지수)(Unit: index)

상기 [표 4]를 참조하면, 렌즈에 코팅층을 형성하는 경우 외부 환경에 카메라를 설치하면서 렌즈가 외부로 노출되도록 하여도 높은 내오염성을 오랜 기간 분석하기 용이한 형태로 이미지 데이터를 수집할 수 있다는 점을 알 수 있다. 특히 TX2 내지 TX4에 의하는 경우 코팅층에 의한 내오염성이 매우 우수하다는 점을 확인할 수 있다.Referring to [Table 4] above, when forming a coating layer on a lens, image data can be collected in a form that is easy to analyze for a long period of time with high contamination resistance even if the lens is exposed to the outside while installing the camera in the external environment. You can see the point. In particular, it can be confirmed that in the case of TX2 to TX4, the contamination resistance by the coating layer is very excellent.

상기 영상 및 위치정보 전송단계(S5) 이후에, 서버(100)에서 드론(1000)으로부터 수신된 이미지에서 미리 정해 놓은 기준에 따라 특정한 사물을 특정하여 표시하는 단계를 더 포함하는 것일 수 있다.After the image and location information transmission step (S5), the server 100 may further include a step of specifying and displaying a specific object in the image received from the drone 1000 according to a predetermined standard.

이는 건축 중인 건축물과 같이 연속적으로 변화하는 피사체에 대하여 이미지를 얻으면서, 사물인식모듈(400)이 상기 피사체를 구성하는 특정 물건을 자동으로 인식하기 위한 것이다. 이를 통하여 건축 중인 건물에서 위험 여부를 판별하거나, 건축 과정에 설계 내지 의도된 공정에 따라 수행되고 있는지 평가할 수 있다.This is so that the object recognition module 400 automatically recognizes specific objects constituting the subject while obtaining images of a continuously changing subject, such as a building under construction. Through this, it is possible to determine whether there is a risk in a building under construction or to evaluate whether the construction process is being carried out according to the design or intended process.

상기 사물인식모듈은 영상이미지를 기초로 미리 학습된 CNN 알고리즘을 적용한 것일 수 있으며, 이 경우 상기 드론(1000)으로부터 얻어지는 영상이미지는 이미지 보정 필터가 적용된 것일 수 있다. 상기 이미지 보정필터가 적용되는 경우 사물을 인식하는데 필요한 대상을 보다 명확히 인식하여 인식률의 오류를 크게 낮출 수 있다. 이에 따라 영상 이미지를 기초로 피사체에서 특정한 사물을 인식하여 효과적으로 분석할 수 있다.The object recognition module may apply a CNN algorithm previously learned based on video images, and in this case, the video image obtained from the drone 1000 may have an image correction filter applied. When the image correction filter is applied, the target needed to recognize an object can be more clearly recognized, thereby significantly reducing the error in the recognition rate. Accordingly, specific objects can be recognized and analyzed effectively in the subject based on the video image.

도 3은 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이고, 도 4는 본 발명에 따른 HSV 그래프를 나타낸 것이다.Figure 3 is a diagram showing an example of an image correction filter according to the present invention, and Figure 4 shows an HSV graph according to the present invention.

또한, 후술할 CNN 알고리즘은 본 발명에서 영상 데이터 또는 이미지 데이터 속 타겟이 되는 모든 물체를 인식하기 위하여 적용되거나 응용될 수 있다.In addition, the CNN algorithm, which will be described later, can be applied or applied in the present invention to recognize image data or all objects that are targets in image data.

도 3는, 필터의 종류와 기능이 나타낸 것이다. 즉, CNN 알고리즘은 복수의 레이어를 사용하는 학습 알고리즘일 수 있다. 또한, CNN 알고리즘은 이미지 분류 정확도를 최대화하는 필터를 자동으로 학습할 수 있으며, 합성곱 계층과 폴링 계층이라고 하는 새로운 층을 풀리 커넥티드 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미지에 대해 분류 연산을 수행할 수 있다. CNN 알고리즘은 합성곱 계층 (convolutional layer)과 풀링 계층 (pooling layer)이라고 하는 새로운 층을 fully-connected 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미지에 대해 분류 연산이 수행되도록 구성될 수 있다. Figure 3 shows the types and functions of filters. In other words, the CNN algorithm may be a learning algorithm that uses multiple layers. In addition, the CNN algorithm can automatically learn filters that maximize image classification accuracy, and by adding new layers called convolutional layers and polling layers before the fully connected layer, the filtered image is obtained after applying the filtering technique to the original image. A classification operation can be performed on . The CNN algorithm is configured to apply a filtering technique to the original image by adding a new layer called a convolutional layer and a pooling layer before the fully-connected layer, and then perform a classification operation on the filtered image. You can.

이때, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 1과 같다. At this time, the calculation formula for the image filter using the CNN algorithm is as shown in Equation 1 below.

[수학식 1][Equation 1]

(단, (step,

Gij: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,G ij : pixel in the ith row and jth column of the filtered image expressed as a matrix,

F: 필터F: filter

X: 이미지X: image

FH: 필터의 높이 (행의 수),F H : Height of filter (number of rows),

FW: 필터의 너비 (열의 수)이다.) F W : Width (number of columns) of the filter.)

바람직하게는, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 2와 같다. Preferably, the calculation equation for the image filter using the CNN algorithm is as shown in Equation 2 below.

[수학식 2][Equation 2]

(단, (step,

Gij: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,G ij : pixel in the ith row and jth column of the filtered image expressed as a matrix,

F': 응용필터F': Application filter

X: 이미지X: image

F'H: 필터의 높이 (행의 수), F'H : Height of filter (number of rows),

F'W: 필터의 너비 (열의 수)이다.) F' W : Width (number of columns) of the filter.)

바람직하게는, F'는 응용 필터로서 드론(1000)이 포함된 이미지 데이터를 학습하고, 이미지 데이터에 포함된 드론(1000)의 특징점을 인식하기 위하여, 상기 이미지 데이터에 적용되는 필터일 수 있다. 특히, 드론(1000)의 특징점을 인식하는 경우 형태 및 색감의 차이를 기초로 분류될 수 있으므로, 형태 및 색감 등을 효과적으로 인지하기 위한 응용 필터가 필요할 수 있다. 이러한 필요성을 충족하기 위하여 응용 필터 F'는 아래의 수학식 3에 의하여 연산될 수 있다. Preferably, F' is an application filter and may be a filter applied to the image data in order to learn image data including the drone 1000 and recognize feature points of the drone 1000 included in the image data. In particular, when recognizing the characteristic points of the drone 1000, it may be classified based on differences in shape and color, so an application filter may be necessary to effectively recognize shape and color. To meet this need, the application filter F' can be calculated by Equation 3 below.

[수학식 3][Equation 3]

(단, F: 필터, ρ: 계수, F': 응용 필터)(However, F: filter, ρ: coefficient, F': application filter)

이때, 각 F에 따른 필터는 도 4에 따른 엣지 인식 필터(Edge detection), 샤픈 필터(sharpen) 및 박스 블러 필터(Box blur) 중 어느 하나의 행렬일 수 있다.At this time, the filter according to each F may be one of the edge detection, sharpen, and box blur matrices according to FIG. 4.

바람직하게, ρ를 구하는 연산식은 아래의 수학식 4와 같다. 이때, ρ 는 필터의 효율을 높이기 위하여 사용되는 하나의 변수로서 해석될 수 있으며, 그 단위는 무시될 수 있다. Preferably, the calculation formula for calculating ρ is as shown in Equation 4 below. At this time, ρ can be interpreted as a variable used to increase the efficiency of the filter, and its unit can be ignored.

[수학식 4][Equation 4]

단, 이미지 촬영에 사용된 카메라 장치(250)의 렌즈의 직경(지름)은 mm 단위이고, 렌즈의 f값은 렌즈의 조리개값(F number)이며, HSV평균값은 이미지에 따른 색좌표를 HSV 그래프를 통하여 크기값으로 변환한 값을 평균한 값을 의미할 수 있다. HSV값에 대한 구체적인 내용은 아래와 같다.However, the diameter of the lens of the camera device 250 used to capture the image is in mm, the f value of the lens is the aperture value (F number) of the lens, and the HSV average value is the color coordinates according to the image in the HSV graph. It can mean the average value of the value converted to a size value. Specific details about the HSV value are as follows.

도 4에 따르면, 본 발명에 따른 HSV 그래프는 지각적인 특성이 반영된 색 공간을 의미할 수 있다. H(Hue, 0~360°)는 색조를 의미할 수 있고, S(Saturation, 0~100%)는 채도를 의미할 수 있으며, V(Value, 0~100%)는 명도를 의미할 수 있다. 색조, 채도 및 명도 값을 HSV 값이라고 할 수 있으며, 이는 Adobe illustrator cc 2019 등 그래픽 툴을 이용하여 쉽게 추출될 수 있다.According to FIG. 4, the HSV graph according to the present invention may mean a color space that reflects perceptual characteristics. H(Hue, 0~360°) can mean hue, S(Saturation, 0~100%) can mean saturation, and V(Value, 0~100%) can mean brightness. . Hue, saturation, and brightness values can be referred to as HSV values, which can be easily extracted using graphic tools such as Adobe Illustrator CC 2019.

본 발명에 따른 HSV 평균값은 도 15의 HSV 3차원 좌표를 통하여 획득될 수 있다. 즉, 본 발명에 따른 HSV 평균값은 그래픽 툴을 통하여 획득된 HSV 값을 기초로 계산될 수 있다. HSV 3차원 좌표상의 원점좌표를 기준점으로 측정된 HSV 좌표의 거리값은 상술한 HSV 평균값을 구성할 수 있다. 즉, 본 발명에 따른 이미지는 드론(1000)에 대한 이미지를 포함하고, 이미지의 HSV 색상좌표는 HSV 3차원 좌표 중 일정 영역에서 분포될 수 있다. 따라서, 본 발명에 따른 HSV 평균값은 일정 영역의 색상에 대한 HSV 좌표들의 평균을 이용한 평균 좌표를 기초로 계산된 원점좌표와의 거리 값을 의미할 수 있다.The HSV average value according to the present invention can be obtained through the HSV three-dimensional coordinates of FIG. 15. That is, the HSV average value according to the present invention can be calculated based on the HSV value obtained through a graphic tool. The distance value of the HSV coordinates measured with the origin coordinates on the HSV three-dimensional coordinates as the reference point can constitute the above-described HSV average value. That is, the image according to the present invention includes an image of the drone 1000, and the HSV color coordinates of the image may be distributed in a certain area among the HSV three-dimensional coordinates. Therefore, the HSV average value according to the present invention may mean the distance value from the origin coordinate calculated based on the average coordinate using the average of the HSV coordinates for the color of a certain area.

[실험예 2: 응용필터 평가][Experimental Example 2: Application filter evaluation]

본 발명에 따른 이미지 데이터에 대하여, 본 발명의 응용 필터 F'를 적용하는 경우에 있어서 드론(1000)에 대한 인식 정확도를 살펴보면 아래와 같다. 아래 표는 해당 기술분야 전문가 10명에게 의뢰하여, 필터 적용 여부 등에 따라 인식 결과의 정확도를 수치로서 나타낸 것이다. The recognition accuracy of the drone 1000 when applying the application filter F' of the present invention to the image data according to the present invention is as follows. The table below is a numerical representation of the accuracy of recognition results based on whether or not filters are applied, based on requests from 10 experts in the relevant technology field.

필터 적용 없음No filter applied 필터 F 적용Apply filter F 필터 F' 적용Apply filter F' 평균 정확도 (점수)Average Accuracy (Score) 7575 9090 9797

상기 [표 5]는 전문가로부터 평가된 정확도에 대한 점수에 대한 평균 값을 각 케이스별로 나타낸 것이다. 본 실험예는 동일한 빅데이터를 통하여 미리 학습된 학습 모듈에 대하여, 필터 적용 여부에 따른 정확도를 평가한 것이다. [Table 5] above shows the average value of accuracy scores evaluated by experts for each case. This experimental example evaluates the accuracy of a learning module previously learned using the same big data, depending on whether or not a filter is applied.

또한, 본 실험예는 120가지의 서로 다른 드론(1000)을 포함하는 이미지 데이터로 실험된 것이며, 인식 결과값에 대하여 영상 데이터에 포함된 강아지 인식의 정확도를 전문가 10명으로부터 설문 조사한 것이다. In addition, this experimental example was tested with image data including 120 different drones (1000), and the recognition results were surveyed by 10 experts on the accuracy of dog recognition included in the image data.

상기 [표 5]에서 확인할 수 있는 것과 같이, 필터 적용 없는 경우, 이미지에 대한 인식에 오류가 발생할 확률이 존재하여 상대적으로 낮은 정확도로 평가되었다. 이에 비하여, 일반 CNN 필터 F를 적용한 경우 다소 정확도가 높았으나, 응용 필터 F'를 적용하는 경우의 정확도가 현저하게 향상되는 것이 확인된다.As can be seen in [Table 5] above, when a filter is not applied, there is a possibility that an error will occur in image recognition, so the accuracy was evaluated to be relatively low. In comparison, the accuracy was somewhat higher when the general CNN filter F was applied, but it was confirmed that the accuracy was significantly improved when the applied filter F' was applied.

따라서 상기 응용필터를 적용하는 얻어진 영상으로부터 목적하는 사물에 대한 인식도를 높일 수 있게 된다.Therefore, it is possible to increase recognition of the target object from the image obtained by applying the application filter.

본 발명의 다른 일 실시예에 따른 드론(1000)의 다중 인터페이스 영상 송수신 및 관제 시스템은 상기 방법을 수행하는 것일 수 있다.A multi-interface video transmission/reception and control system of the drone 1000 according to another embodiment of the present invention may perform the above method.

본 발명에 따른 서버(100) 또는 드론(1000)은 프로세서(11), 메모리(12) 및 통신 모듈(13)을 포함할 수 있다. The server 100 or drone 1000 according to the present invention may include a processor 11, memory 12, and communication module 13.

프로세서(11)는 메모리(12)에 저장된 명령어를 실행하여 다른 구성들을 제어할 수 있다. 프로세서(11)는 메모리(12)에 저장된 명령어를 수행할 수 있다. The processor 11 may control other components by executing instructions stored in the memory 12. The processor 11 may execute instructions stored in the memory 12.

프로세서(11)는, 연산을 수행하고 다른 장치를 제어할 수 있는 구성이다. 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다.The processor 11 is a component that can perform calculations and control other devices. Mainly, it may mean a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), etc. Additionally, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and clock signal. However, while a CPU or AP consists of a few cores optimized for serial processing, a GPU can consist of thousands of smaller, more efficient cores designed for parallel processing.

프로세서(11)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(12)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 11 can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above, or by running an application program stored in the memory 12.

메모리(12)는 서버(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(12)는 서버(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 서버(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 응용 프로그램은, 메모리(12)에 저장되고, 서버(100)에 설치되어, 프로세서(11)에 의하여 상기 서버(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 12 stores data supporting various functions of the server 100. The memory 12 may store a number of application programs (application programs or applications) running on the server 100, data for operating the server 100, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Additionally, the application program may be stored in the memory 12, installed on the server 100, and driven by the processor 11 to perform the operation (or function) of the server 100.

메모리(12)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(12)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 12 is a flash memory type, hard disk type, solid state disk type, SDD type (Silicon Disk Drive type), and multimedia card micro type. ), card-type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable programmable read) -only memory), PROM (programmable read-only memory), magnetic memory, magnetic disk, and optical disk may include at least one type of storage medium. Additionally, the memory 12 may include web storage that performs a storage function on the Internet.

통신 모듈(13)은 안테나를 통해 기지국 또는 통신 기능을 포함하는 카메라와 정보의 송수신을 실행한다. 통신 모듈(13)은 변조부, 복조부, 신호 처리부 등을 포함할 수 있다. 또한, 통신 모듈(13)은 유선 통신 기능을 수행할 수 있다. The communication module 13 transmits and receives information to and from a base station or a camera including a communication function through an antenna. The communication module 13 may include a modulator, demodulator, signal processor, etc. Additionally, the communication module 13 can perform a wired communication function.

무선 통신은, 통신사들이 기존에 설치해둔 통신 시설과 그 통신 시설의 주파수를 사용하는 무선 통신망을 사용한 통신을 말할 수 있다. 이때, 통신 모듈(13)은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있으며, 뿐만 아니라, 통신 모듈(13)은 3GPP(3rd generation partnership project) LTE(long term evolution) 등에도 사용될 수 있다. 또한, 최근 상용화 중인 5G 통신뿐만 아니라, 추후 상용화가 예정되어 있는 6G 등도 사용될 수 있다. 다만, 본 명세서는 이와 같은 무선 통신 방식에 구애됨이 없이 기설치된 통신망을 활용할 수 있다.Wireless communication refers to communication using communication facilities already installed by communication companies and a wireless communication network that uses the frequencies of those communication facilities. At this time, the communication module 13 includes code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), and single carrier frequency division multiple access (SC-FDMA). It can be used in various wireless communication systems such as access), and in addition, the communication module 13 can also be used in 3rd generation partnership project (3GPP) long term evolution (LTE), etc. In addition, not only 5G communication, which has recently been commercialized, but also 6G, which is scheduled for commercialization in the future, can be used. However, this specification can utilize a pre-installed communication network without being limited to such wireless communication method.

또한, 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), BLE(Bluetooth Low Energy), 비콘(Beacon), RFID(Radio Frequency Identification), NFC(Near Field Communication), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.In addition, short range communication technologies include Bluetooth, BLE (Bluetooth Low Energy), Beacon, RFID (Radio Frequency Identification), NFC (Near Field Communication), and Infrared Data Association (IrDA). ), UWB (Ultra Wideband), ZigBee, etc. may be used.

이때, 통신 모듈(13)은 무선 통신 또는 근거리 통신을 통하여 드론(1000)과 직접 통신하여 실시간으로 데이터를 송수신할 수 있다. 따라서, 드론(1000) 역시 통신 모듈(13)에 대응하는 구성을 더 포함하여, 서버(100)의 통신 모듈(13)과 통신할 수 있다.At this time, the communication module 13 can transmit and receive data in real time by directly communicating with the drone 1000 through wireless communication or short-distance communication. Accordingly, the drone 1000 may also include a component corresponding to the communication module 13 and communicate with the communication module 13 of the server 100.

본 발명의 또 다른 일 실시예에 따른 비일시적 컴퓨터 판독가능 매체는 명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 상기 방법을 수행하게 하는 것일 수 있다.A non-transitory computer-readable medium according to another embodiment of the present invention is a non-transitory computer-readable medium that stores instructions, which, when executed by a processor, may cause the processor to perform the method. there is.

이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the preferred embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements made by those skilled in the art using the basic concept of the present invention defined in the following claims are also possible. falls within the scope of rights.

사용자 단말기(1)
프로세서(11)
메모리(12)
통신 모듈(13)
서버(100)
이미지분석부(200)
카메라 장치(250)
설정보정모듈(300)
사물인식모듈(400)
데이터베이스(500)
드론(1000)
User terminal (1)
Processor(11)
Memory(12)
Communication module(13)
Server(100)
Image Analysis Department (200)
Camera device(250)
Setting correction module (300)
Object recognition module (400)
Database(500)
Drone (1000)

Claims (9)

드론이 미리 정해 놓은 지정위치로 이동하여 미리 정해 놓은 기준에 따라 영상을 촬영하는 보정 1단계;
상기 보정 1단계에서 수집한 영상이 서버로 수신되고 데이터베이스에 저장된 상기 지정위치에 대응되는 이미지와 매칭하는 보정 2단계;
상기 보정 2단계의 매칭결과를 기초로 서버로부터 수정된 위치정보 및 영상촬영 설정 값을 드론이 수신하는 보정 3단계;
상기 보정 3단계 이후에 상기 드론은 미리 정해 놓은 기준에 따라 지정위치를 이동하면서 영상을 촬영하는 영상촬영단계; 및
상기 영상촬영단계에서 촬영된 영상은 드론의 위치정보가 포함되어 서버로 전송되는 영상 및 위치정보 전송단계를 포함하는
드론의 다중 인터페이스 영상 송수신 및 관제 방법.
The first stage of correction is for the drone to move to a pre-determined location and capture images according to pre-determined standards;
A second correction step in which the image collected in the first correction step is received by a server and matched with an image corresponding to the designated location stored in a database;
A third correction step in which the drone receives corrected location information and video shooting settings from the server based on the matching result of the second correction step;
After the correction step 3, the drone moves to a designated location according to a predetermined standard and captures an image; and
The video captured in the video shooting step includes the location information of the drone and is transmitted to the server, including the video and location information transmission step.
Multi-interface video transmission, reception and control method for drones.
제 1항에 있어서,
상기 지정위치는 복수 개이고,
상기 드론은 복수 개의 카메라를 포함하며, 별도의 저장장치를 포함하는 것인
드론의 다중 인터페이스 영상 송수신 및 관제 방법.
According to clause 1,
There are multiple designated locations,
The drone includes a plurality of cameras and a separate storage device.
Multi-interface video transmission, reception and control method for drones.
제 2항에 있어서,
상기 보정 2단계에서, 상기 데이터베이스는 특정 위치 정보 별로, 영상촬영 설정 값을 달리하는 복수 개의 이미지를 포함하며, 상기 복수 개의 이미지와 촬영된 이미지를 매칭하는 것인
드론의 다중 인터페이스 영상 송수신 및 관제 방법.
According to clause 2,
In the second step of correction, the database includes a plurality of images with different video shooting settings for each specific location information, and matches the plurality of images with the captured image.
Multi-interface video transmission, reception and control method for drones.
제 3항에 있어서,
보정 3단계 이후에, 보정 1단계 내지 보정 3단계를 다시 수행하고, 상기 보정 3단계에서 수정 후 위치정보 및 영상촬영 설정 값이 수정 전 값과 동일한 경우 영상촬영단계를 수행하는 것인
드론의 다중 인터페이스 영상 송수신 및 관제 방법.
According to clause 3,
After correction step 3, correction steps 1 to 3 are performed again, and if the location information and video capture setting values after correction in correction step 3 are the same as the values before modification, the video capture step is performed.
Multi-interface video transmission, reception and control method for drones.
제 4항에 있어서,
상기 카메라는, 광 이미지로부터 상기 영상 데이터를 생성하는 카메라 모듈;을 포함하고,
상기 카메라 모듈은,
측벽에 관통홀을 포함하는 하우징;
상기 관통홀에 설치된 렌즈; 및
상기 렌즈를 구동하는 구동부;를 포함하는
드론의 다중 인터페이스 영상 송수신 및 관제 방법.
According to clause 4,
The camera includes a camera module that generates the image data from an optical image,
The camera module is,
A housing including a through hole in a side wall;
A lens installed in the through hole; and
A driving unit that drives the lens; including
Multi-interface video transmission, reception and control method for drones.
제 4항에 있어서,
3D 모델링 모듈에서 데이터베이스에 저장된 상기 지정위치에 대응되는 이미지 및 위치정보를 기초로 촬영하는 대상물을 드로잉하고,
드론으로부터 수신된 영상정보를 기초로 3D 모델링을 이미지를 사용자 단말기로 전송하는 단계를 포함하는
드론의 다중 인터페이스 영상 송수신 및 관제 방법.
According to clause 4,
In the 3D modeling module, the object to be photographed is drawn based on the image and location information corresponding to the designated location stored in the database,
Including the step of transmitting a 3D modeling image to a user terminal based on image information received from the drone.
Multi-interface video transmission, reception and control method for drones.
제 4항에 있어서,
영상 및 위치정보 전송단계 이후에,
서버에서 드론으로부터 수신된 이미지에서 미리 정해 놓은 기준에 따라 특정한 사물을 특정하여 표시하는 단계를 더 포함하는 것인
드론의 다중 인터페이스 영상 송수신 및 관제 방법
According to clause 4,
After the video and location information transmission stage,
It further includes the step of specifying and displaying a specific object in the server according to predetermined criteria in the image received from the drone.
Multi-interface video transmission, reception and control method for drones
제 1항 내지 제7항 중 어느 한 항에 따른 방법을 수행하는
드론의 다중 인터페이스 영상 송수신 및 관제 시스템.
Carrying out the method according to any one of claims 1 to 7
Drone's multi-interface video transmission, reception and control system.
명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서,
상기 명령어들은 프로세서에 의해 실행될 때,
상기 프로세서로 하여금 제 1항 내지 제 7항 중 어느 한 항의 방법을 수행하게 하는
비일시적 컴퓨터 판독가능 매체.
A non-transitory computer-readable medium storing instructions, comprising:
When the instructions are executed by the processor,
causing the processor to perform the method of any one of claims 1 to 7.
Non-transitory computer-readable media.
KR1020220124123A 2022-09-29 2022-09-29 Drone multi-interface video transmission/reception and control method, and system using the same KR20240044731A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220124123A KR20240044731A (en) 2022-09-29 2022-09-29 Drone multi-interface video transmission/reception and control method, and system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220124123A KR20240044731A (en) 2022-09-29 2022-09-29 Drone multi-interface video transmission/reception and control method, and system using the same

Publications (1)

Publication Number Publication Date
KR20240044731A true KR20240044731A (en) 2024-04-05

Family

ID=90714266

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220124123A KR20240044731A (en) 2022-09-29 2022-09-29 Drone multi-interface video transmission/reception and control method, and system using the same

Country Status (1)

Country Link
KR (1) KR20240044731A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140087533A (en) 2012-12-31 2014-07-09 주식회사 포스코아이씨티 System and Method for Simulating Manufacturing Facility Using Virtual Device
KR101873289B1 (en) 2017-08-10 2018-07-02 이규홍 3d simulation and monitoring system and method for manufacturing process management of offshore plant

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140087533A (en) 2012-12-31 2014-07-09 주식회사 포스코아이씨티 System and Method for Simulating Manufacturing Facility Using Virtual Device
KR101873289B1 (en) 2017-08-10 2018-07-02 이규홍 3d simulation and monitoring system and method for manufacturing process management of offshore plant

Similar Documents

Publication Publication Date Title
CN108803668B (en) Intelligent inspection unmanned aerial vehicle nacelle system for static target monitoring
JP2019520631A (en) Weed recognition in the natural environment
WO2020103110A1 (en) Image boundary acquisition method and device based on point cloud map and aircraft
WO2020103108A1 (en) Semantic generation method and device, drone and storage medium
WO2020103109A1 (en) Map generation method and device, drone and storage medium
Burdziakowski et al. UAV photogrammetry under poor lighting conditions—Accuracy considerations
CN109520504A (en) A kind of unmanned plane inspection method for optimizing route based on grid discretization
CN105526916B (en) Dynamic image masking system and method
US20170257778A1 (en) Modeling fiber cabling associated with cell sites
CN111765974B (en) Wild animal observation system and method based on miniature refrigeration thermal infrared imager
CN112528912A (en) Crop growth monitoring embedded system and method based on edge calculation
CN117036300A (en) Road surface crack identification method based on point cloud-RGB heterogeneous image multistage registration mapping
CN116597332A (en) Unmanned aerial vehicle-based tea tree bud detection method and device
Keyvanfar et al. Optimization and trajectory analysis of drone’s flying and environmental variables for 3D modelling the construction progress monitoring
CN112132900A (en) Visual repositioning method and system
Corcoran et al. ThruTracker: open-source software for 2-D and 3-D animal video tracking
CN117593766B (en) Investigation method for wild animal population number based on unmanned aerial vehicle shooting image processing
CN112119428A (en) Method, device, unmanned aerial vehicle, system and storage medium for acquiring landing position
KR20240044731A (en) Drone multi-interface video transmission/reception and control method, and system using the same
JP2020021368A (en) Image analysis system, image analysis method and image analysis program
CN107491099A (en) A kind of cloud platform control method and device of view-based access control model and gyroscope
CN113741495B (en) Unmanned aerial vehicle attitude adjustment method and device, computer equipment and storage medium
CN112493228B (en) Laser bird repelling method and system based on three-dimensional information estimation
Veerappan et al. A cross-platform smart drone controller framework–for real-time surveillance and inspection
KR102523770B1 (en) Machine vision-based quality management system and method for electric parts using deep learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal