KR102297649B1 - Dron for unique object for monitoring and removing material of air pollution - Google Patents

Dron for unique object for monitoring and removing material of air pollution Download PDF

Info

Publication number
KR102297649B1
KR102297649B1 KR1020200029902A KR20200029902A KR102297649B1 KR 102297649 B1 KR102297649 B1 KR 102297649B1 KR 1020200029902 A KR1020200029902 A KR 1020200029902A KR 20200029902 A KR20200029902 A KR 20200029902A KR 102297649 B1 KR102297649 B1 KR 102297649B1
Authority
KR
South Korea
Prior art keywords
flight
module
monitoring
air pollutants
plc
Prior art date
Application number
KR1020200029902A
Other languages
Korean (ko)
Inventor
박준홍
안성호
Original Assignee
주식회사 유시스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유시스 filed Critical 주식회사 유시스
Priority to KR1020200029902A priority Critical patent/KR102297649B1/en
Application granted granted Critical
Publication of KR102297649B1 publication Critical patent/KR102297649B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64C2201/12
    • B64C2201/141
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

An embodiment relates to a special-purpose type small unmanned aerial vehicle (UAV) for monitoring and removing air pollutants. Specifically, the small UAV includes: a camera module that photographs a monitoring target during flight; a DSP unit for digital signal processing the result photographed by the camera module; a first sensor unit for detecting air pollutants in the case of the flight; a second sensor unit including at least one sensor for detecting a flight state; and a sensor fusion device for estimating the flight state by combining the flight state results sensed by the second sensor unit. In addition, the small UAV includes: a PLC that monitors and provides the air pollutants to a pre-registered ground control system (GCS) based on the result photographed by the camera module and the result sensed by the first sensor unit, and controls the flight operation according to the flight state estimated by the sensor fusion device; and a driving unit for driving the flight operation by the control of the PLC. In this case, the PLC also includes an IOT module that communicates with the GCS as IOT data for the monitoring result of the air pollutants. Therefore, in order to enable real-time sensing and processing of volatile organic compounds (VOCs) that easily evaporate into the atmosphere and cause photochemical smog therethrough, the small UAV is provided based on autonomous flight for the purpose of sensing and processing harmful substances (gas), thereby implementing processes of sensing, removing, and monitoring the harmful gases or air pollutants at industrial sites or disaster sites.

Description

대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기{Dron for unique object for monitoring and removing material of air pollution}Dron for unique object for monitoring and removing material of air pollution

본 명세서에 개시된 내용은 무인기(즉, 드론) 기술 분야에 관한 것으로, 대기오염물질의 감시 등에 관한 특수목적을 수행할 경우, 공중에서 원격조정 또는 자율비행을 함으로써, 관리자가 원하는 임무를 달성하는 무인기 기술에 관한 것이다.The content disclosed in this specification relates to the field of unmanned aerial vehicle (i.e., drone) technology, and when performing a special purpose related to monitoring of air pollutants, etc., an unmanned aerial vehicle that achieves a mission desired by a manager by remote control or autonomous flight in the air It's about technology.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the material described in this section is not prior art to the claims of this application, and inclusion in this section is not an admission that it is prior art.

일반적으로, 무인 비행체 예를 들어, 드론(Dron)은, 원격조종에 의해서 또는 자율비행제어에 의해 비행을 하는 무인 비행기(UAV; Unmanned AericalVehicle)를 말하는데, 최근 들어 회전익을 이용하는 드론의 활용도가 다양해지면서 항공 촬영이나, 택배, 농사In general, an unmanned aerial vehicle, for example, a drone, refers to an unmanned aerial vehicle (UAV) that flies by remote control or autonomous flight control. Aerial photography, delivery, farming

용, 감시용, 레저용 등등으로도 그 이용 용도가 확대되고 있는 추세이다.Its use is also expanding for use, monitoring, leisure, and the like.

이러한 무인 비행체 시장은 항공 업계의 신시장 중 가장 빠른 성장세를 보이고 있으며, 2016년 64억 달러 규모에서 오는 2023년에는 지금의 2배 정도인 124억 달러로 성장할 것으로 전망된다.The unmanned aerial vehicle market is the fastest growing among the new markets in the aviation industry, and is expected to grow from $6.4 billion in 2016 to $12.4 billion in 2023, about doubling the current level.

기존의 무인 비행체 자동비행 기술은 GPS 위치 기반으로 비행 전에 비행경로를 좌표로 입력하여 입력된 좌표를 차례로 비행하는 형태로, GPS 신호가 미약하거나 수신되지 않는 실내에서는 실행이 어렵다는 단점이 있다.Existing unmanned aerial vehicle automatic flight technology is a form of inputting the flight path as coordinates before flight based on GPS location and flying the input coordinates in turn, and it has a disadvantage that it is difficult to execute indoors where GPS signals are weak or not received.

또한, 자동비행을 위해서 각 무인 비행체 기업은 GCS(Ground Control System)를 개발하여 스마트폰 어플리케이션, 컴퓨터 소프트웨어 등으로 보급하여 자동비행을 실현하고 있지만, 기존의 GCS는 대부분 폐쇄적인 형태로 각 기업이 사용하는 FC(Flight Controller)만 호환이 가능하여 다른 기업의 무인 비행체와는 호환되지 않는다는 문제점이 있다.In addition, for automatic flight, each unmanned aerial vehicle company has developed GCS (Ground Control System) and distributed it with smartphone applications and computer software to realize automatic flight, but the existing GCS is mostly used by each company in a closed form. There is a problem that only FC (Flight Controller) is compatible, so it is not compatible with other companies' unmanned aerial vehicles.

특히, 이러한 자동비행과 관련하여, 전술한 문제점 등은 대기중으로 쉽게 증발되고, 광화학스모그를 유발하는 휘발성 유기화합물(VOCs)의 실시간 감지 및 처리하는 분야 등에서 더욱 요구된다.In particular, in relation to such automatic flight, the aforementioned problems are more required in the field of real-time sensing and processing of volatile organic compounds (VOCs) that easily evaporate into the atmosphere and cause photochemical smog.

KRUS 101733002101733002 Y1Y1 KRUS 10201800053411020180005341 AA 참고적으로, 이러한 특허문헌 1의 기술은 복수의 무인로봇들에 다중임무를 부여하고 부여된 임무에 근거하여 무인로봇들을 운용하는 시스템의 무인로봇 운용 방법에 관한 기술이다.For reference, the technology of Patent Document 1 is a technology related to an unmanned robot operating method of a system that grants multiple tasks to a plurality of unmanned robots and operates the unmanned robots based on the assigned tasks. 그리고, 특허문헌 2의 기술은 터치 스크린을 이용하여 복수의 드론을 연동 제어하는 드론 시스템 기술 정도이다.And, the technology of Patent Document 2 is about a drone system technology for interlocking control of a plurality of drones using a touch screen.

개시된 내용은, 대기중으로 쉽게 증발되고, 광화학스모그를 유발하는 휘발성 유기화합물(VOCs)의 실시간 감지 및 처리를 할 수 있도록 하기 위해, 자율비행을 기반으로 하는 소형 무인항공기를 유해물질(가스) 감지 및 처리 목적에 맞게 제공할 수 있도록 하는 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기를 제공하고자 한다.In order to enable real-time detection and processing of volatile organic compounds (VOCs) that easily evaporate into the atmosphere and cause photochemical smog, a small unmanned aerial vehicle based on autonomous flight is used to detect harmful substances (gas) and It is intended to provide a special-purpose small UAV for monitoring and removal of air pollutants that can be provided according to the purpose of treatment.

실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기는,A special-purpose small unmanned aerial vehicle for monitoring and removing air pollutants according to an embodiment,

비행시에 감시대상을 촬영하는 카메라 모듈과, 상기 카메라 모듈에 의해 촬영된 결과를 디지털 신호 처리하는 DSP부, 상기 비행이 될 경우에, 대기오염물질을 감지하는 제 1 센서부, 비행상태를 감지하는 센서를 적어도 하나 이상 포함한 제 2 센서부 및, 상기 제 2 센서부에 의해 감지된 비행상태 결과를 조합하여 비행상태를 추정하는 센서 융합기를 포함한다.A camera module for photographing an object to be monitored during flight, a DSP unit for digital signal processing the results captured by the camera module, a first sensor unit for detecting air pollutants when the flight occurs, and a flight state detection and a second sensor unit including at least one or more sensors, and a sensor fusion device for estimating the flight state by combining the result of the flight state sensed by the second sensor unit.

그리고, 상기 카메라 모듈에 의해 촬영된 결과와 상기 제 1 센서부에 의해 감지된 결과를 기반으로 대기오염물질을 감시해서 미리 등록된 GCS(Ground Control System)에 제공하고, 상기 센서 융합기에 의해 추정된 비행상태에 따라 비행동작을 제어하는 PLC를 포함해서, 이러한 PLC의 제어에 의해 상기 비행동작을 구동하는 구동부를 가진다.Then, based on the result captured by the camera module and the result sensed by the first sensor unit, air pollutants are monitored and provided to a pre-registered Ground Control System (GCS), which is estimated by the sensor fusion device. Including a PLC for controlling the flight operation according to the flight state, it has a driving unit for driving the flight operation by the control of the PLC.

이러한 경우, 또한 상기 PLC는 상기 대기오염물질의 감시 결과에 대해서 상기 GCS와 IOT데이터로서 통신하는 IOT모듈을 포함하는 것을 특징으로 한다.In this case, the PLC also includes an IOT module that communicates with the GCS as IOT data for the monitoring result of the air pollutants.

실시예들에 의하면, 대기중으로 쉽게 증발되고, 광화학스모그를 유발하는 휘발성 유기화합물의 실시간 감지 및 처리를 할 수 있도록 하기 위해, 자율비행을 기반으로 하는 소형 무인항공기를 유해물질(가스) 감지 및 처리 목적에 맞게 제공함으로써, 산업현장이나 재난현장에서 유해가스나 대기오염물질의 감지 및 제거와, 모니터링 공정을 구현한다.According to the embodiments, in order to enable real-time detection and processing of volatile organic compounds that are easily evaporated into the atmosphere and cause photochemical smog, a small unmanned aerial vehicle based on autonomous flight is used to detect and process harmful substances (gas). By providing it according to the purpose, it realizes the detection and removal of harmful gases or air pollutants and the monitoring process at industrial sites or disaster sites.

도 1은 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기가 적용된 개념도
도 2는 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기가 적용된 시스템을 전체적으로 도시한 도면
도 3은 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기의 구성을 도시한 블록도
도 4는 도 3의 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기에 적용된 PLC의 구성을 도시한 블록도
도 5는 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기에 적용된 지상 제어 시스템의 사용 화면을 나타낸 도면
도 6은 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기에 적용된 상세 운행상태 표출 동작을 설명하기 위한 도면
도 7은 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기에 적용된 정밀 항법 및 비행제어 흐름을 나타낸 도면
1 is a conceptual diagram to which a special-purpose small unmanned aerial vehicle is applied for monitoring and removing air pollutants according to an embodiment;
2 is a view showing the overall system to which a special-purpose small unmanned aerial vehicle is applied for monitoring and removing air pollutants according to an embodiment;
3 is a block diagram illustrating the configuration of a special-purpose small unmanned aerial vehicle for monitoring and removing air pollutants according to an embodiment;
4 is a block diagram showing the configuration of the PLC applied to the special-purpose small unmanned aerial vehicle for monitoring and removing air pollutants of FIG.
5 is a view showing a screen of use of a ground control system applied to a special-purpose small unmanned aerial vehicle for monitoring and removing air pollutants according to an embodiment;
6 is a view for explaining a detailed operation state expression operation applied to a special purpose small unmanned aerial vehicle for monitoring and removing air pollutants according to an embodiment
7 is a view showing the flow of precision navigation and flight control applied to a special-purpose small unmanned aerial vehicle for monitoring and removing air pollutants according to an embodiment;

도 1은 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기가 적용된 개념도이다.1 is a conceptual diagram to which a special-purpose small unmanned aerial vehicle is applied for monitoring and removing air pollutants according to an embodiment.

도 1에 도시된 바와 같이, 일실시예에 따른 개념은 예를 들어, 대기중으로 쉽게 증발되고, 광화학스모그를 유발하는 휘발성 유기화합물의 실시간 감지 및 처리를 할 수 있도록 하기 위해, 자율비행을 기반으로 하는 소형 무인항공기를 유해물질(가스) 감지 및 처리 목적에 맞게 제공하여, 산업현장이나 재난현장에서 유해가스나 대기오염물질의 감지 및 제거와, 모니터링 공정을 구현한다.As shown in FIG. 1 , the concept according to one embodiment is based on autonomous flight, for example, to enable real-time detection and processing of volatile organic compounds that easily evaporate into the atmosphere and cause photochemical smog. By providing a small unmanned aerial vehicle that is suitable for the purpose of detecting and processing harmful substances (gas), the detection and removal of harmful gases or air pollutants and monitoring processes are implemented at industrial sites or disaster sites.

이를 위해, 여기에서는 첫 번째로 대기오염물질 감시 및 제거를 위한 특수목적형 무인비행체 운용시스템을 제공한다. 즉, 산업현장 특성에 맞는 무인비행체를 제작하고, 대기오염물질 측정 및 제거장치의 처리 정보와 운영 상태 정보를 안정적으로 실시간 전송하고, 해상용 무인비행체의 촬영 정보 보관을 위한 지상국 시스템을 운용한다.To this end, first, a special purpose unmanned aerial vehicle operation system for monitoring and removing air pollutants is provided. In other words, it manufactures an unmanned aerial vehicle suitable for the characteristics of an industrial site, and stably transmits the processing information and operation state information of the air pollutant measurement and removal device in real time, and operates a ground station system for storing the shooting information of the unmanned aerial vehicle for the sea.

두 번째로, 운영 환경에 적응적인 자동비행제어 및 자동항법 기술을 개발한다. 구체적으로, 지리적 보정 기능을 활용한 자동 이착륙 기능 및 지정경로 비행 기능을 제공하고, 대기오염물질 감지 및 제거를 위한 특정 위치에서의 비행제어 및 항로제어 기능을 제공한다. 그리고, 이에 더하여 대기오염물질 감지 및 제거, 기체 운영정보 전송 기술을 제공한다.Second, we develop automatic flight control and automatic navigation technology that is adaptive to the operating environment. Specifically, it provides an automatic take-off and landing function using a geographical correction function and a flight function on a designated route, and provides a flight control and route control function at a specific location for detecting and removing air pollutants. And, in addition to this, it provides air pollutant detection and removal, and gas operation information transmission technology.

세 번째로, 다양한 대기 환경에서 운영 가능한 장거리 무인비행체를 개발한다. 이를 위해, 무인비행체의 구성품 내부식성 분석 및 강인한 재질 부품을 구성하고, 추락에 대비한 안전장치 및 GPS 기반 위치추적, 임무장비를 보호 장착하고, 무인비행체를 식별할 수 있는 자체 등화 부품을 탑재한다.Third, develop long-range unmanned aerial vehicles that can operate in various atmospheric environments. To this end, it analyzes the corrosion resistance of the unmanned aerial vehicle's components and composes strong material parts, protects and mounts safety devices and GPS-based location tracking for fall, and mission equipment, and is equipped with self-lighting components that can identify the unmanned aerial vehicle. .

네 번째로, 진공자외선 광촉매 분해기술을 활용한 실시간 유해물질 제거 장치 및 기술을 개발한다. 구체적으로는, 진공자외선 광촉매 분해기술을 개발하고, VUV 광촉매 기반 공기정화장치를 개발한다.Fourth, develop a real-time harmful substance removal device and technology using vacuum UV photocatalytic decomposition technology. Specifically, a vacuum ultraviolet photocatalyst decomposition technology is developed, and a VUV photocatalyst-based air purification device is developed.

도 2는 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기가 적용된 시스템을 전체적으로 도시한 도면이다.2 is a view showing the overall system to which a special-purpose small unmanned aerial vehicle for monitoring and removing air pollutants according to an embodiment is applied.

도 2에 도시된 바와 같이, 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기가 적용된 시스템은 대기오염물질 감시 및 제거를 위한 다수의 특수목적형 소형무인기(100-1,100-2,…, 100-n)와, 다수의 특수목적형 소형무인기(100-1,100-2,…, 100-n)와 통신하며 다수의 특수목적형 소형무인기(100-1,100-2,…, 100-n) 중 어느 하나 이상의 소형무인기를 선택하여 비행을 조절하고, 운행현황을 모니터링하는 GCS(200)를 포함한다.As shown in FIG. 2, the system to which a special-purpose small unmanned aerial vehicle is applied for monitoring and removing air pollutants according to an embodiment includes a number of special-purpose small unmanned aerial vehicles (100-1, 100-2, 100-1, 100-2, …, 100-n) and a number of special-purpose small UAVs (100-1,100-2,…, 100-n) and among a number of special-purpose small UAVs (100-1,100-2,…, 100-n) It includes a GCS (200) for selecting one or more small unmanned aerial vehicles to control the flight and monitor the operation status.

이러한 경우, 상기한 특수목적형 소형무인기(100-1,100-2,…, 100-n)는 예를 들어, 공중을 비행하며 임무를 수행하는 다수의 드론이다.In this case, the special-purpose small unmanned aerial vehicle (100-1, 100-2, ..., 100-n) is, for example, a plurality of drones that perform missions while flying in the air.

참고적으로, 본 명세서에서 설명하는 자율 임무는, 정해진 시간에 정해진 비행 정보에 따라 자율비행으로 자율적으로 임무를 수행하는 것을 말한다. 그리고, 수동 임무는 관리자에 의해 드론의 출동과 비행 정보 및 임무수행 정보를 입력받아 수동으로 출동하여 임무를 수행하는 것을 말하며, 자율 임무와 수동 임무는 주어진 정보에 의해 자동비행모드로 비행하는 것을 의미한다.For reference, the autonomous mission described herein refers to autonomously performing a mission by autonomous flight according to predetermined flight information at a predetermined time. In addition, the manual mission refers to manually dispatching the drone after receiving the dispatch and flight information and mission performance information input by the administrator, and the autonomous mission and manual mission refer to flying in automatic flight mode according to the given information. do.

상기한 특수목적형 소형무인기(100-1,100-2,…, 100-n)는 대기오염을 감시할 경우, 관리자가 원하는 영역에서 미세먼지 등의 대기오염물질을 무인 자율 비행에 의한 감시 및 제거함으로써, 산업현장이나 재난현장에서 유해가스나 대기오염물질의 감지 및 제거와, 모니터링 공정을 구현할 수 있도록 한다.The above-mentioned special-purpose small unmanned aerial vehicle (100-1, 100-2, ..., 100-n) monitors and removes air pollutants such as fine dust in an area desired by the manager by unmanned autonomous flight when monitoring air pollution, It enables the detection and removal of harmful gases or air pollutants and monitoring processes at industrial sites or disaster sites.

상기 GCS(200)는 이러한 특수목적형 소형무인기(100-1,100-2,…, 100-n) 중 어느 하나 이상의 소형무인기를 선택하고, 선택된 소형무인기의 조작 명령을 입력하거나 소형무인기의 운행상태를 출력하는 모니터링 장치(210)와, 모니터링 장치(210)로부터 입력된 조작 명령을 받아 선택된 소형무인기에 보낼 제어 신호를 생성하는 메인 컨트롤부(220), 메인 컨트롤부(220)에서 생성된 제어 신호를 선택된 소형무인기에 전송하고, 다수의 특수목적형 소형무인기(100-1,100-2,…, 100-n)로부터 운행 정보를 수신하는 송수신부(230)를 포함한다.The GCS 200 selects any one or more small UAVs among these special-purpose small UAVs 100-1, 100-2, ..., 100-n, and inputs an operation command of the selected small UAV or outputs the operation state of the small UAV. a monitoring device 210 that receives the operation command input from the monitoring device 210, the main control unit 220 that generates a control signal to be sent to the selected small unmanned aerial vehicle, and the control signal generated by the main control unit 220 is selected It transmits to the small UAV and includes a transceiver 230 for receiving operation information from a plurality of special-purpose small UAVs (100-1, 100-2, ..., 100-n).

이러한 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기가 적용된 시스템의 실질적인 예는 아래와 같다.A practical example of a system to which a special-purpose small unmanned aerial vehicle is applied for monitoring and removing air pollutants according to one embodiment is as follows.

즉, 도심이나 강변, 공원이나 등산로, 도서 산간지역 등등 고정형 CCTV만으로 감시가 어려운 지역에 랜딩스테이션을 설치한다.In other words, a landing station is installed in an area where it is difficult to monitor only with a fixed CCTV, such as a city center, a riverside, a park, a hiking trail, or an island or mountainous area.

그리고, 각각 드론을 격납시켜둔 경우, 위와 같이 자율 임무나 수동 임무를 수행할 수 있고, 특히나 예를 들어 사고 발생시 현장까지 드론을 운반하지 않고서 원격지의 관제센터에서 수동 임무 명령을 내려 사고현장으로 드론을 비행시켜 현장 영상을 취득할 수 있다.And, when each drone is stored, autonomous or manual missions can be performed as above, and in particular, in the event of an accident, for example, the drone is sent to the accident site by issuing a manual mission command from the remote control center without transporting the drone to the scene. can be flown to acquire field images.

예컨대, 도심에서의 유해가스 재난현장이나, 다른 예로 화재와 고속도로의 사고현장, 수상 사고현장, 산불 사고현장 등등의 사고 현장에 드론을 출격시켜 현장의 드론 촬영 영상을 취득할 수 있는 것이다.For example, it is possible to acquire drone footage of the scene by scrambled to the site of a hazardous gas disaster in the city, or, for example, a fire and highway accident site, a water accident site, a forest fire accident site, and the like.

그리고, 현장 출동시 음성 입출력장치를 통해 관제소의 현장 안내 음성을 출력하거나 현장의 음성을 수신받아 들을 수 있어서 안전사고 관리에 이용할 수 있는 것이다.In addition, it is possible to output the on-site guidance voice of the control center or receive and listen to the on-site voice through the voice input/output device when dispatching to the field, so that it can be used for safety accident management.

추가적으로, 일실시예에서 카메라 제어 명령은 카메라를 좌, 우, 상, 하로 회전하거나, 줌인(zoom in) 줌아웃(zoom out), 촬영되는 영상 내의 특정 객체를 추적하는 것이 된다. Additionally, in one embodiment, the camera control command is to rotate the camera left, right, up, or down, or to zoom in and out, and to track a specific object in a photographed image.

그리고, 조작 명령은 선택된 소형무인기의 전원을 켜거나 끄게 하는 전원 명령, 선택된 소형무인기의 카메라를 제어하는 카메라 제어 명령, 선택된 소형무인기의 이동 방향, 이동속도, 이동범위 중 어느 하나 이상을 제어하는 이동 제어 명령 중 어느 하나 이상을 포함한다.And, the operation command is a power command to turn on or off the power of the selected small UAV, a camera control command to control the camera of the selected small UAV, a movement to control any one or more of the movement direction, movement speed, and movement range of the selected small UAV It includes any one or more of control commands.

이동 제어 명령은 소형무인기가 이동할 위치 좌표를 설정하거나, 이동할 위치 좌표, 필수적으로 거쳐야하는 지점을 설정하여 특정 코스에 따라 운행하도록 설정한다. 또 다른 예에서 이동 제어 명령은 현재 위치에서 동쪽으로 200m이동, 북서쪽으로 100m 이동 등과 같이 특정 방향으로 일정간격 이동하도록 설정한다. The movement control command sets the position coordinates to which the small unmanned aerial vehicle will move, or sets the position coordinates to move, and the point that must be passed, so that it operates according to a specific course. In another example, the movement control command is set to move at regular intervals in a specific direction, such as moving 200 m to the east or moving 100 m to the northwest from the current location.

일실시예에서 모니터링 장치(210)는 터치스크린을 포함한 태블릿 PC, 스마트폰 등을 사용할 수 있고, 다른 실시 예에서는 입출력 장치가 분리된 PC, 노트북 등을 사용할 수도 있다.In one embodiment, the monitoring device 210 may use a tablet PC including a touch screen, a smart phone, or the like, and in another embodiment, a PC or a notebook computer having a separate input/output device may be used.

그리고, 터치스크린을 포함한 모니터링 장치(210)에서 터치 입력을 통해 제어하는 방법은, 사용자에 의해 발생한 터치 입력된 부분의 위치를 확인하는 단계, 터치 입력된 위치의 명령을 활성화하는 단계, 활성화 된 명령을 실행하는 단계를 포함한다.And, the method of controlling through a touch input in the monitoring device 210 including a touch screen includes the steps of confirming the position of the touch input part generated by the user, activating the command of the touch input position, the activated command including the step of executing

도 3은 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기(100)의 구성을 도시한 블록도이다.3 is a block diagram illustrating the configuration of a special-purpose small unmanned aerial vehicle 100 for monitoring and removing air pollutants according to an embodiment.

도 3에 도시된 바와 같이, 일실시예에 따른 소형무인기(100)는 카메라 모듈(110)과, DSP부(120), 대기오염물질을 감지하는 제 1 센서부(130), 비행상태를 감지하는 제 2 센서부(140), 상기 비행상태의 감지결과로 비행상태를 추정하는 센서 융합기(150), 각 부를 제어하는 PLC(160)를 포함한다.As shown in FIG. 3 , the small unmanned aerial vehicle 100 according to an embodiment detects a camera module 110 , a DSP unit 120 , a first sensor unit 130 for detecting air pollutants, and a flight state. and a second sensor unit 140, a sensor fusion device 150 for estimating a flight state based on the detection result of the flight state, and a PLC 160 for controlling each unit.

이러한 경우, 상기 PLC(160)는 상기 카메라 모듈(110)의 촬영된 결과와 상기 대기오염물질의 감지된 결과를 기반으로 대기오염물질을 감지한 경우에 IOT데이터로서 상기 GCS와 통신하는 IOT모듈을 포함한다.In this case, when the PLC 160 detects air pollutants based on the captured results of the camera module 110 and the detected results of the air pollutants, the IOT module communicates with the GCS as IOT data. include

상기 카메라 모듈(110)은 비행시에 감시대상을 예를 들어, 관리자가 원하는 영역 또는 , 지역 등의 대기 환경을 촬영한다.The camera module 110 captures an area to be monitored during flight, for example, an area desired by an administrator, or an atmospheric environment such as an area.

상기 DSP부(120)는 상기 카메라 모듈(110)에 의해 촬영된 결과를 디지털 신호 처리한다.The DSP unit 120 digitally processes the result captured by the camera module 110 .

상기 제 1 센서부(130)는 상기 비행이 될 경우, 대기오염물질을 감지한다. 이러한 경우, 상기 제 1 센서부(130)는 미세 먼지 아날로그 센서와 태양광 디지털 센서 등을 포함함으로써, 대기오염물질의 감지가 이루어지도록 한다.The first sensor unit 130 detects air pollutants when the flight occurs. In this case, the first sensor unit 130 includes a fine dust analog sensor and a solar digital sensor, so that air pollutants are detected.

상기 제 2 센서부(140)는 상기 비행이 될 경우, 비행상태를 감지하는 센서를 적어도 하나 이상 포함한다. 이러한 경우, 상기 제 2 센서부(140)는 풍속 센서, 기압 센서, GPS, 3축 가속도 센서, 3축 자이로 센서, 지자기 센서 중 어느 하나 이상을 포함하여 비행, 임무 수행에 필요한 데이터를 측정한다.The second sensor unit 140 includes at least one sensor for detecting a flight state when the flight occurs. In this case, the second sensor unit 140 includes any one or more of a wind speed sensor, a barometric pressure sensor, a GPS, a 3-axis acceleration sensor, a 3-axis gyro sensor, and a geomagnetic sensor to measure data necessary for flight and mission performance.

상기 센서 융합기(150)는 상기 제 2 센서부(140)에 의해 감지된 비행상태 결과를 조합하여 비행상태를 추정하는 것이다. 예를 들어, 비행시의 풍속, 기압, 가속도 등을 조합하여 연산함으로써, 비행상태를 추정한다. The sensor fusion unit 150 is to estimate the flight state by combining the flight state results detected by the second sensor unit 140 . For example, the flight state is estimated by calculating the combination of wind speed, air pressure, acceleration, etc. during flight.

상기 PLC(160)는 상기 카메라 모듈(110)에 의해 촬영된 결과와 상기 제 1 센서부(130)에 의해 감지된 결과를 기반으로 대기오염물질을 감시해서 미리 등록된 GCS에 제공하고, 상기 센서 융합기(150)에 의해 추정된 비행상태에 따라 비행동작을 제어하는 것이다. 이러한 경우, 상기 PLC(160)는 상기 대기오염물질의 감시 결과에 대해서 상기 GCS와 IOT데이터로서 통신하는 IOT모듈을 포함하여 이루어진다.The PLC 160 monitors air pollutants based on the results captured by the camera module 110 and the results detected by the first sensor unit 130 and provides them to a pre-registered GCS, and the sensor The flight operation is controlled according to the flight state estimated by the fusion device 150 . In this case, the PLC 160 includes an IOT module that communicates with the GCS as IOT data for the monitoring result of the air pollutants.

상기 구동부(170)는 상기 PLC(160)의 제어에 의해 예를 들어, 상기 PLC(160)의 PWM제어에 의해 상기 비행동작을 구동한다. 이때, 상기 구동부(170)는 변속기, 모터, 프로펠러를 포함하여 이루어져서, 상기 추정된 비행 상태에 따라 상이하게 회전속도와 회전방향 등을 달리하여 비행 동작을 구동한다.The driving unit 170 drives the flight operation by the control of the PLC 160 , for example, by the PWM control of the PLC 160 . At this time, the driving unit 170 includes a transmission, a motor, and a propeller, and drives the flight operation by differently changing the rotation speed and rotation direction according to the estimated flight state.

도 4는 도 3의 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기에 적용된 PLC(160)의 구성을 도시한 블록도이다.FIG. 4 is a block diagram illustrating the configuration of the PLC 160 applied to the special-purpose small UAV for monitoring and removing air pollutants of FIG. 3 .

도 4에 도시된 바와 같이, 일실시예에 따른 특수목적형 소형무인기에 적용된 PLC(160)는 상기 제 1 센서부(130)와 제 2 센서부(140)의 신호 입출력을 위한 부분과 신호 처리를 위한 부분, GCS와의 통신을 위한 부분을 모두 포함하도록 이루어진다.As shown in FIG. 4 , the PLC 160 applied to the special-purpose small unmanned aerial vehicle according to an embodiment performs signal processing and a part for signal input/output of the first sensor unit 130 and the second sensor unit 140 . It is made to include all the part for communication with the GCS.

이를 위해, 일실시예에 따른 PLC(160)는 전원모듈과, 시리얼통신모듈, 상기 제 1 센서부와 제 2 센서부의 신호 입출력과 신호 처리를 위한 A/D모듈과, D/A모듈, D/I모듈, D/O모듈, GCS와의 통신을 위한 IOT모듈 및, 상기 각 모듈을 제어하는 CPU모듈을 모두 포함한다.To this end, the PLC 160 according to an embodiment includes a power module, a serial communication module, an A/D module for signal input/output and signal processing of the first sensor unit and the second sensor unit, a D/A module, and a D It includes /I module, D/O module, IOT module for communication with GCS, and CPU module for controlling each module.

상기 전원모듈은 상기 PLC 자체에 전원을 공급한다.The power module supplies power to the PLC itself.

상기 시리얼통신모듈은 상기 PLC 이외의 제어유닛과 통신을 예를 들어, SPI통신 또는 I2C통신 등을 한다.The serial communication module communicates with a control unit other than the PLC, for example, SPI communication or I 2 C communication.

상기 A/D모듈은 상기 제 1 센서부(130)에 의한 미세 먼지 등의 아날로그 대기오염물질의 감지 결과와 상기 센서 융합기(150)에 의한 가속도와 지자기 등의 아날로그 비행상태 감지 결과를 포함한 아날로그 정보를 각기 디지털 변환하는 것이다.The A/D module is analog including the detection result of analog air pollutants such as fine dust by the first sensor unit 130 and the analog flight state detection result such as acceleration and geomagnetism by the sensor fusion device 150 . It is the digital transformation of information.

상기 D/A모듈은 디지털 유닛에 의한 디지털 정보를 아날로그 변환하는 것이다.The D/A module converts digital information by a digital unit to analog.

상기 D/I모듈은 상기 제 1 센서부(130)에 의한 태양광 등의 디지털 대기오염물질의 감지 결과와 상기 센서 융합기(150)에 의한 디지털 비행상태 감지 결과를 포함한 디지털 정보를 입력받는다.The D/I module receives digital information including a detection result of digital air pollutants such as sunlight by the first sensor unit 130 and a digital flight state detection result by the sensor fusion device 150 .

상기 D/O모듈은 상기 제 1 센서부(130)에 의한 디지털 대기오염물질의 감지 결과를 포함한 디지털 정보를 출력하는 것이다.The D/O module outputs digital information including the detection result of digital air pollutants by the first sensor unit 130 .

상기 IOT모듈은 상기 대기오염물질의 감시 결과에 대해서 상기 GCS와 IOT데이터로서 통신하는 것이다. 이러한 경우, 상기 IOT모듈은 자체 유/무선 통신모듈을 예를 들어, LoRa 모듈을 구비하여 지상의 GCS로 대기오염물질 감시 결과를 제공한다.The IOT module communicates with the GCS as IOT data for the monitoring result of the air pollutants. In this case, the IOT module provides its own wired/wireless communication module, for example, a LoRa module, and provides air pollutant monitoring results to the GCS on the ground.

상기 CPU모듈은 PLC의 기본적인 CPU모듈로서, 상기 각 모듈을 제어한다. 구체적으로, 상기 CPU모듈은 상기 카메라 모듈에 의해 촬영되어 DSP부를 통해 변환되어 나온 결과와 상기 제 1 센서부(130)와 상기 센서 융합기(150)에 의해 감지되어 A/D모듈과 D/A모듈, D/I모듈에 의해 처리된 결과를 기반으로 대기오염물질을 감시해서 IOT모듈에 의해 미리 등록된 GCS에 제공한다. 그리고, 상기 CPU모듈은 상기 센서 융합기(150)에 의해 추정되어 A/D변환모듈에 의해 변환된 비행상태에 따라 구동부의 비행동작 구동 동작을 제어함으로써, 비행동작을 제어한다. 그래서, 이를 통해 대기오염물질 감시가 이루어지고, 더 나아가서 대기오염물질에 대한 제거도 이루어진다.The CPU module is a basic CPU module of the PLC, and controls each module. Specifically, the CPU module is captured by the camera module and converted through the DSP unit, and the result is detected by the first sensor unit 130 and the sensor fusion unit 150, and the A/D module and the D/A Based on the results processed by the module and D/I module, air pollutants are monitored and provided to the GCS registered in advance by the IOT module. And, the CPU module controls the flight operation by controlling the flight operation driving operation of the driving unit according to the flight state estimated by the sensor fusion device 150 and converted by the A/D conversion module. Therefore, air pollutants are monitored through this, and further, air pollutants are removed.

부가적으로, 이와 관련하여 부연설명을 하면 다양한 환경에서 사용되는 기존의 PLC 시스템에 대해서는 여러 기능을 가진 모듈이 필요하며, 이에 따라서 PLC 제조 업체는 사용자의 요구사항을 만족하는 다양한 모듈을 제공한다.In addition, if it is further explained in this regard, modules with various functions are required for the existing PLC system used in various environments, and accordingly, PLC manufacturers provide various modules that satisfy the requirements of users.

예를 들어, 디지털 입출력 모듈, 아날로그 입출력모듈, 통신 모듈 등 여러 기능을 가진 모듈이 PLC 시스템에 사용되고, 이러한 다양한 모듈을 통해서 사용자가 원하는 시스템이 구축된다.For example, a module having various functions, such as a digital input/output module, an analog input/output module, and a communication module, is used in a PLC system, and a system desired by a user is built through these various modules.

예를 들어, 특허문헌 KR101778333 Y1의 기술은 이러한 기술로서 등록받은 발명이며, 구체적으로는 PLC의 출력모듈의 동작상 결함 여부를 진단하기 위한 진단모듈을 구비하는 PLC 시스템에 관한 것이다.For example, the technology of Patent Document KR101778333 Y1 is an invention registered as such a technology, and specifically relates to a PLC system having a diagnostic module for diagnosing whether an output module of the PLC is defective in operation.

일실시예에 따른 전술한 IOT 모듈은 이러한 점들을 이용해서, 전술한 IOT모듈로부터 IOT 기능을 제공하는 PLC를 제공하고, 이를 통해 더 나아가 장치측면에서 쉽게 최적화된 감시와 제어 등이 이루어지도록 한 것이다.The above-described IOT module according to an embodiment uses these points to provide a PLC that provides an IOT function from the above-described IOT module, and through this, further optimized monitoring and control from the device side is made easy. .

이에 따라, 일실시예에 따른 상기한 PLC(160)는 기본적으로 각종 디지털과 아날로그 등의 센서부로부터 신호를 모두 입력받는 입력모듈과, 중앙제어부인 CPU모듈, 제어대상으로 제어신호를 출력하는 출력모듈을 포함한다.Accordingly, the PLC 160 according to an embodiment basically includes an input module that receives all signals from various digital and analog sensor units, a CPU module that is a central control unit, and an output that outputs a control signal to a control target. contains modules.

그리고, 상기 PLC(160)는 이때 추가적으로 PLC 자체에서 IOT 기능을 수행하는 IOT모듈을 구비해서, 상기 CPU모듈이 이러한 IOT모듈에 의해 상기 입/출력 모듈과 연동하여 해당되는 제어로직으로부터 IOT 기능을 수행하도록 함으로써, 지상의 GCS와 통신한다.In addition, the PLC 160 is provided with an IOT module that additionally performs an IOT function in the PLC itself, so that the CPU module interworks with the input/output module by such an IOT module to perform an IOT function from the corresponding control logic. By doing so, it communicates with the GCS on the ground.

추가적으로, 이러한 PLC(160)는 전술한 바에 더해, 수집된 데이터에 대해 지정된 음성으로 알람 등을 한다.Additionally, in addition to the above, the PLC 160 issues an alarm or the like with a voice designated for the collected data.

이를 위해, 상기 IOT모듈은 자체 TTS엔진을 구비하여 PLC의 입력모듈로부터 수집된 데이터에 대해 미리 설정된 데이터별 음성정보에 따라 예를 들어, 음성멘트에 따라 상이하게 음성으로 알람한다.To this end, the IOT module is equipped with its own TTS engine, and according to the voice information for each data preset for the data collected from the input module of the PLC, for example, according to the voice message, the voice alarm is different.

구체적으로는, 상기 IOT모듈은 자체 TTS엔진을 구비하여 상기 제 1 센서부(130)의 대기오염물질 감지 결과별로 대응하는 음성정보에 따라 음성 알람을 한다.Specifically, the IOT module has its own TTS engine to generate a voice alarm according to the voice information corresponding to each air pollutant detection result of the first sensor unit 130 .

이러한 경우, 상기 음성멘트는 예를 들어, IOT 모듈 자체에 구비된 플래시 음성메모리에 등록함으로써 된다.In this case, the voice message is registered, for example, in a flash voice memory provided in the IOT module itself.

그래서, 이를 통해 수집된 데이터 등에 대해 예를 들어, 지상의 GCS에서 지정된 음성으로 알람을 함으로써, 관리자에게 편리하게 대기오염물질의 감시 결과를 제공한다.So, for the data collected through this, for example, by giving an alarm with a designated voice from the GCS on the ground, it provides a convenient monitoring result of air pollutants to the manager.

또한, 이에 더하여 이러한 PLC(140)는 외부 음성에 대해 노이즈 캔슬링 기능을 수행한다.Also, in addition to this, the PLC 140 performs a noise canceling function for an external voice.

구체적으로, 상기 IOT모듈은 지상의 GCS 등에서 외부 음성을 입력받아 노이즈 캔슬링을 수행하고 오디오 출력을 함으로써 오디오 IOT기능을 수행한다.Specifically, the IOT module performs an audio IOT function by receiving an external voice input from a GCS on the ground, performing noise cancellation, and outputting audio.

예를 들어, 이러한 경우 외부 오디오 입력을 받아 노이즈 캔슬링을 수행하고 IOT 모듈 자체에 구비된 오디오 앰프를 통해 오디오 출력을 함으로써 오디오 IOT기능을 수행한다.For example, in this case, an audio IOT function is performed by receiving an external audio input, performing noise cancellation, and outputting audio through an audio amplifier provided in the IOT module itself.

이하, 이러한 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기의 동작을 설명한다(도 3 참조).Hereinafter, the operation of the special-purpose small unmanned aerial vehicle for monitoring and removing air pollutants according to one embodiment will be described (see FIG. 3 ).

일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기는 먼저 상기 카메라 모듈이 비행시에 관리자가 원하는 영역 또는 지역 등의 감시대상을 촬영한다.The special-purpose small unmanned aerial vehicle for monitoring and removing air pollutants according to an embodiment first captures a monitoring target such as an area or region desired by an administrator when the camera module is in flight.

그리고, 상기 DSP부는 이렇게 카메라 모듈에 의해 촬영된 결과를 디지털 신호 처리한다.And, the DSP unit digitally processes the result captured by the camera module in this way.

이때, 상기 제 1 센서부는 상기 비행이 될 경우, 미세먼지와 태양광 등의 대기오염물질을 감지한다.At this time, the first sensor unit detects air pollutants such as fine dust and sunlight when the flight occurs.

또한, 상기 제 2 센서부는 이러한 비행이 될 경우, 비행상태를 감지하는 센서를 적어도 하나 이상 포함함으로써, 비행상태를 종합적으로 감지하고, 상기 센서 융합기는 이렇게 감지된 비행상태 결과를 조합하여 비행상태를 추정한다.In addition, when the second sensor unit is such a flight, by including at least one sensor for detecting the flight state, the flight state is comprehensively sensed, and the sensor fusion device combines the result of the detected flight state to determine the flight state. estimate

그러면, 상기 PLC는 상기 카메라 모듈에 의해 촬영된 결과와 상기 제 1 센서부에 의해 감지된 결과를 기반으로 대기오염물질을 감시해서 미리 등록된 GCS에 제공한다.Then, the PLC monitors air pollutants based on the results captured by the camera module and the results detected by the first sensor unit and provides them to the pre-registered GCS.

예를 들어, 상기 PLC는 상기 카메라 모듈에 의해 촬영된 특정 지역의 상기 제 1 센서부에 의한 미세먼지 감지결과가 미리 설정된 미세먼지농도를 초과하는 경우, 이상상태로 판별하여 GCS에 알람한다.For example, when the fine dust detection result by the first sensor unit in a specific area photographed by the camera module exceeds a preset fine dust concentration, the PLC determines an abnormal state and alarms the GCS.

이러한 경우, 상기 PLC는 상기 대기오염물질의 감시 결과에 대해서 상기 GCS와 IOT데이터로서 통신하는 IOT모듈을 구비함으로써, 이러한 IOT모듈에 의해 대기오염물질의 감시 결과에 대해서 지상의 GCS와 통신한다.In this case, the PLC includes an IOT module that communicates with the GCS as IOT data for the air pollutant monitoring result, and communicates with the GCS on the ground for the air pollutant monitoring result by the IOT module.

이에 더하여, 이러한 PLC는 상기 센서 융합기에 의해 추정된 비행상태에 따라 비행동작을 제어한다.In addition, this PLC controls the flight operation according to the flight state estimated by the sensor fusion device.

이때, 상기 구동부는 상기 PLC의 제어에 의해 모터 등을 통해 프로펠러의 동작을 제어함으로써, 상기 비행동작을 추정된 비행상태에 맞게 구동한다.At this time, by controlling the operation of the propeller through a motor or the like under the control of the PLC, the driving unit drives the flight operation according to the estimated flight state.

따라서, 이를 통해 대기중으로 쉽게 증발되고, 광화학스모그를 유발하는 휘발성 유기화합물의 실시간 감지 및 처리를 할 수 있도록 하기 위해, 자율비행을 기반으로 하는 소형 무인항공기를 유해물질(가스) 감지 및 처리 목적에 맞게 제공함으로써, 산업현장이나 재난현장에서 유해가스나 대기오염물질의 감지 및 제거와, 모니터링 공정을 구현한다.Therefore, in order to enable real-time detection and processing of volatile organic compounds that easily evaporate into the atmosphere and cause photochemical smog, a small unmanned aerial vehicle based on autonomous flight is used for the purpose of detecting and processing harmful substances (gas). By providing it appropriately, the detection and removal of harmful gases or air pollutants and monitoring processes are implemented at industrial sites or disaster sites.

이상과 같이, 일실시예는 비행시에 감시대상을 촬영하는 카메라 모듈과, 상기 카메라 모듈에 의해 촬영된 결과를 디지털 신호 처리하는 DSP부, 상기 비행이 될 경우에, 대기오염물질을 감지하는 제 1 센서부, 비행상태를 감지하는 센서를 적어도 하나 이상 포함한 제 2 센서부 및, 상기 제 2 센서부에 의해 감지된 비행상태 결과를 조합하여 비행상태를 추정하는 센서 융합기를 포함한다.As described above, one embodiment includes a camera module for photographing an object to be monitored during flight, a DSP unit for digital signal processing a result photographed by the camera module, and a system for detecting air pollutants in the case of flight 1 sensor unit, a second sensor unit including at least one sensor for detecting a flight state, and a sensor fusion device for estimating a flight state by combining the result of the flight state detected by the second sensor unit.

그리고, 상기 카메라 모듈에 의해 촬영된 결과와 상기 제 1 센서부에 의해 감지된 결과를 기반으로 대기오염물질을 감시해서 미리 등록된 GCS(Ground Control System)에 제공하고, 상기 센서 융합기에 의해 추정된 비행상태에 따라 비행동작을 제어하는 PLC를 포함해서, 이러한 PLC의 제어에 의해 상기 비행동작을 구동하는 구동부를 가진다.Then, based on the result captured by the camera module and the result sensed by the first sensor unit, air pollutants are monitored and provided to a pre-registered Ground Control System (GCS), which is estimated by the sensor fusion device. Including a PLC for controlling the flight operation according to the flight state, it has a driving unit for driving the flight operation by the control of the PLC.

이러한 경우, 또한 상기 PLC는 상기 대기오염물질의 감시 결과에 대해서 상기 GCS와 IOT데이터로서 통신하는 IOT모듈을 포함한다.In this case, the PLC also includes an IOT module that communicates with the GCS as IOT data for the monitoring result of the air pollutants.

따라서, 이를 통해 대기중으로 쉽게 증발되고, 광화학스모그를 유발하는 휘발성 유기화합물의 실시간 감지 및 처리를 할 수 있도록 하기 위해, 자율비행을 기반으로 하는 소형 무인항공기를 유해물질(가스) 감지 및 처리 목적에 맞게 제공함으로써, 산업현장이나 재난현장에서 유해가스나 대기오염물질의 감지 및 제거와, 모니터링 공정을 구현한다.Therefore, in order to enable real-time detection and processing of volatile organic compounds that easily evaporate into the atmosphere and cause photochemical smog, a small unmanned aerial vehicle based on autonomous flight is used for the purpose of detecting and processing harmful substances (gas). By providing it appropriately, the detection and removal of harmful gases or air pollutants and monitoring processes are implemented at industrial sites or disaster sites.

도 5는 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기에 적용된 지상 제어 시스템의 사용 화면을 나타낸 도면이다.5 is a view showing a screen of use of a ground control system applied to a special-purpose small unmanned aerial vehicle for monitoring and removing air pollutants according to an embodiment.

도 5에 도시된 바와 같이, 일실시예에 따른 지상 제어 시스템의 모니터링 장치(210)에 나타나는 사용 화면은 지도에 다수의 소형무인기 즉, 드론의 각 위치, 운행 여부를 표시한다.As shown in FIG. 5 , the use screen displayed on the monitoring device 210 of the ground control system according to an embodiment displays each location and operation status of a plurality of small UAVs on a map.

그리고, 사용자가 상기 다수의 드론 중 특정 드론이 위치한 부분을 터치하면 상기 특정 드론의 상세 운행 상태와, 상기 특정 드론을 조작할 수 있는 조작 입력창이 표출되며, 상기 상세 운행 상태는 속도, 잔여 배터리, 운행 지속 시간, 고도 등을 포함하며, 조작 입력창은 카메라 이동, 비행 위치 이동, 이륙, 착륙, 전원 버튼이 표출된다.In addition, when the user touches a portion where a specific drone is located among the plurality of drones, the detailed operating state of the specific drone and a manipulation input window for operating the specific drone are displayed, and the detailed operating status includes speed, remaining battery, It includes operation duration, altitude, etc., and the operation input window displays camera movement, flight position movement, takeoff, landing, and power button.

또한, 모니터링 장치(210)와 특정 드론이 연결되지 않은 상태에서 사용자가 화면 일부를 터치하면, 해당 위치에 드론이 있는지 판단하고, 드론이 있는 것으로 판단되면 해당 드론의 상세 운행상태를 표시한다. 사용자가 이후 다른 드론을 선택하면 다른 드론의 상세 운행상태를 표시하고, 사용자가 오른쪽 상부에 형성된 Connect(연결) 버튼을 터치하면, 상세 운행상태가 표시되던 드론과 연결된다.In addition, when the user touches a part of the screen while the monitoring device 210 and a specific drone are not connected, it is determined whether there is a drone at the corresponding location, and when it is determined that there is a drone, the detailed operation state of the corresponding drone is displayed. If the user selects another drone after that, the detailed operation status of the other drone is displayed.

모니터링 장치(210)와 특정 드론이 연결된 상태에서 사용자가 화면 일부를 터치하면, 터치한 위치에 카메라 이동, 비행 위치 이동, 이륙, 착륙, 전원등을 제어하기 위한 버튼부가 있는지 판단하고, 버튼부가 있다고 판단되면 해당 버튼에 해당하는 명령을 활성화 한다.When the user touches a part of the screen while the monitoring device 210 and a specific drone are connected, it is determined whether there is a button part for controlling the camera movement, flight position movement, takeoff, landing, power supply, etc. at the touched position, and there is a button part If it is determined, the command corresponding to the button is activated.

또한, 모니터링 장치(210)는 드론(100)의 잔여 배터리가 일정값 이하로 떨어지면, 경고 팝업을 형성하거나, 잔여 배터리가 일정값 이하로 떨어진 드론(100)을 그렇지 않은 드론과 다른 색으로 표시하여 사용자에게 배터리가 부족하다는 것을 알린다.In addition, the monitoring device 210 forms a warning pop-up when the remaining battery of the drone 100 falls below a predetermined value, or displays the drone 100 with the remaining battery below a predetermined value in a different color from that of the other drones. Notifies the user that the battery is low.

도 6은 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기에 적용된 상세 운행상태 표출 동작을 설명하기 위한 도면이다.6 is a view for explaining a detailed operation state expression operation applied to a special-purpose small UAV for monitoring and removing air pollutants according to an embodiment.

도 6에 도시된 바와 같이, 일실시예에 따른 상세 운행상태 표출 동작은 일실시예에 따른 소형무인기가 비행을 할 경우, 이러한 소형무인기에 대한 운행상태를 상세하게 표출함으로써, 관리자 등이 알 수 있도록 한다.As shown in FIG. 6 , the detailed operation state display operation according to an embodiment can be known by an administrator, etc. let it be

이러한 경우, 일실시예에 따른 상세 운행상태 표출 동작은 소형무인기가 비행할 시의 배터리 잔여상태와, GCS와의 연결정보, GPS 정보, 소형무인기에 대한 롤(Roll), 피치(Pitch), 요(Yaw) 등과, 모드 유형, 속도 등을 포함하도록 이루어진다.In this case, the detailed operation state display operation according to an embodiment includes the battery remaining state when the small UAV is flying, connection information with GCS, GPS information, and roll, pitch, and yaw (Roll), pitch, and yaw ( Yaw), etc., mode type, speed, and the like.

그리고, 이때 이러한 상세 운행상태 표출 동작은 예를 들어, 다수의 상이한 소형무인기별로 개별적으로 이루어지며, 이러한 경우 각각의 소형무인기에 대해 미리 설정된 인덱스를 부여한다.And, at this time, this detailed operation state expression operation is performed individually for, for example, a plurality of different small UAVs, and in this case, a preset index is given to each small UAV.

도 7은 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기에 적용된 정밀 항법 및 비행제어 흐름을 나타낸 도면이다.7 is a view showing the flow of precision navigation and flight control applied to a special-purpose small unmanned aerial vehicle for monitoring and removing air pollutants according to an embodiment.

도 7에 도시된 바와 같이, 일실시예에 따른 특수목적형 소형무인기에 적용된 정밀 항법 및 비행제어 흐름은 대기오염물질의 감시에 적합한 운영 환경에 적응적인 자동비행제어 및 자동항법 기술을 제공할 수 있도록 한다.As shown in Fig. 7, the precise navigation and flight control flow applied to the special-purpose small unmanned aerial vehicle according to an embodiment can provide automatic flight control and automatic navigation technology adaptive to the operating environment suitable for monitoring air pollutants. do.

구체적으로, 일실시예에 따른 특수목적형 소형무인기에 적용된 정밀 항법 및 비행제어 흐름은 지리적 보정 기능을 활용한 자동 이착륙 기능 및 지정경로 비행 기능을 제공하고, 대기오염물질 감지 및 제거를 위한 특정 위치에서의 비행제어 및 항로제어 기능을 제공할 수 있도록 한다.Specifically, the precise navigation and flight control flow applied to the special-purpose small unmanned aerial vehicle according to an embodiment provides an automatic take-off and landing function and a designated route flight function using a geographical correction function, to provide flight control and route control functions of

그리고, 이러한 특수목적형 소형무인기에 적용된 정밀 항법 및 비행제어 흐름은 이에 더하여 대기오염물질및 제거, 기체 운영정보 전송 기술을 제공할 수 있도록 한다.And, the precise navigation and flight control flow applied to these special-purpose small unmanned aerial vehicles makes it possible to provide air pollutants and removal, and aircraft operation information transmission technology in addition to this.

이를 위해, 이러한 특수목적형 소형무인기에 적용된 정밀 항법 및 비행제어 흐름은 임무를 계획하여 설정하고, 이에 따른 비행시에 센서 예를 들어, 풍속, 기압, 자이로, 지자기 등의 데이터 값을 분석하여 속도/방향/높이 제어를 수행함으로써, 자동 이착륙 기능 및 지정경로 비행 기능을 제공한다.To this end, the precise navigation and flight control flow applied to these special-purpose small unmanned aerial vehicles is set up by planning the mission, and the speed / By performing direction/height control, it provides an automatic take-off and landing function and a designated route flight function.

그리고, 특수목적형 소형무인기에 적용된 정밀 항법 및 비행제어 흐름은 또한 DGPS 좌표값 분석을 통해 미션을 수행하도록 함으로써, 특정 위치에서의 비행제어 및 항로제어 기능을 제공한다.And, the precise navigation and flight control flow applied to the special-purpose small UAV also provides flight control and route control functions at a specific location by allowing missions to be performed through DGPS coordinate value analysis.

추가적으로, 알람 기능을 구현해서 드론의 상태를 체크하여, 이렇게 체크된 결과에 따라 시동 또는 재점검을 한다.Additionally, by implementing an alarm function, the status of the drone is checked, and the start or re-inspection is performed according to the checked result.

추가적으로, 다른 실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기는 전술한 PLC와는 다른 형태로서, 외부 입출력 포트, 즉, 디지털 입력(Digital Input), 디지털 출력(Digital Output), 아날로그 입력(Analoge Input:4-20mA입력 등) 통신포트를 RS-485 통신포트, RS-232 통신포트, 랜(LAN)포트, 오디오포트 등을 소형무인기 자체에서 직접 처리할 수 있는 감시 시스템을 제공할 수 있도록 한다.Additionally, the special-purpose small unmanned aerial vehicle for monitoring and removing air pollutants according to another embodiment is different from the aforementioned PLC, and has an external input/output port, that is, a digital input, a digital output, an analog input. (Analoge Input: 4-20mA input, etc.) It is possible to provide a monitoring system that can directly handle communication ports such as RS-485 communication port, RS-232 communication port, LAN port, audio port, etc. let it be

이를 위해, 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기는 외부 계측 기기로부터 각각 아날로그 데이터와 디지털 데이터를 수신하는 데이터 수집부와, 이에 따른 상용의 CPU를 포함한다.To this end, the special-purpose small UAV for monitoring and removing air pollutants according to an embodiment includes a data collection unit that receives analog data and digital data from an external measurement device, respectively, and a commercial CPU accordingly.

상기 데이터 수집부는 아날로그 센서의 신호를 디지털 신호로 변환하는 ADC 컨버터와, 뷰어소프트웨어와 연동되어 전기적 입력을 받거나 출력으로 외부 센서를 제어하기 위한 GPIO 포트와, 상기 외부 계측기기로부터 디지털 데이터를 수신하기 위한 RS485 포트와, 상기 데이터 처리부와의 통신과 상기 뷰어소프트웨어와의 통신을 위한 RS232 포트 및 상기 ADC 컨버터, GPIO 포트, RS485 포트, RS232 포트와 연결되어 데이터를 처리하고 뷰어소프트웨어의 제어 명령을 수행하는 MCU를 포함할 수 있다.The data collection unit includes an ADC converter that converts a signal of an analog sensor into a digital signal, a GPIO port for receiving an electrical input or output to control an external sensor by interworking with viewer software, and digital data from the external measuring device. An RS485 port, an RS232 port for communication with the data processing unit and communication with the viewer software, and an MCU connected to the ADC converter, GPIO port, RS485 port, and RS232 port to process data and execute control commands of the viewer software may include.

따라서, 이를 통해 외부 입출력 포트, 즉, 디지털 입력(Digital Input), 디지털 출력(Digital Output), 아날로그 입력(Analoge Input:4-20mA입력 등), RS-485 통신포트, RS232 통신포트, 랜(LAN)포트, 오디오(Audio) 포트 등을 소형무인기 자체에서 직접 처리하도록 하여 NVR회사마다 다른 사양을 협의할 필요가 없는 효과가 있다.Therefore, through this, external input/output ports, that is, digital input, digital output, analog input (Analoge Input: 4-20mA input, etc.), RS-485 communication port, RS232 communication port, LAN (LAN) ) port, audio port, etc. are handled directly by the small UAV itself, so there is no need to discuss different specifications with each NVR company.

또한, 외부 계측 기기를 제어하기 위한 데이터출력(D/O(data out)), 접점 출력, 알람 등을 제어하기 위한 포트, 데이터 입력(D/I(data in)), 아날로그 입력(Analog Input:4-20mA입력 등)은 MCU에서 전처리하여 CPU에 전달하고, RS-485 통신 포트, 랜(LAN)포트, 오디오 포트 등을 두고, 다양한 포트에서 받아들인 외부 입력 데이터를 카In addition, data output (D/O (data out)) for controlling external measuring devices, contact output, port for controlling alarm, etc., data input (D/I (data in)), analog input (Analog Input: 4-20mA input, etc.) is pre-processed by the MCU and delivered to the CPU, RS-485 communication port, LAN port, audio port, etc.

메라에서 직접 데이터 트렌드화 하여 관리자가 쉽게 수위, 압력, 온도와 같은 데이터를 파악할 수 있으며, 이를 통하여 외부 시스템를 효율적으로 제어하는 방법을 제공하는 효과가 있다.By trending data directly from Mera, administrators can easily grasp data such as water level, pressure, and temperature, and this has the effect of providing a method to efficiently control external systems.

그리고, 이러한 경우 일실시예에 따른 외부 입출력 포트에 입력된 데이터를 카메대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기는 소형무인기 자체의 메모리에 직접적으로 데이터베이스(DATABASE)화하여 이를 모니터에 영상으로 표출시 그래프 형식의 데이터 트렌드가 함께 표출되도록 한다.And, in this case, the special-purpose small unmanned aerial vehicle for monitoring and removing the data input to the external input/output port according to an embodiment of the present invention converts the data directly into the memory of the small unmanned aerial vehicle (DATABASE) and displays it as an image on the monitor. When displaying, data trend in graph format should be displayed together.

이를 위해, 일실시예에 따른 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기는 감시구역 또는, 감시지역의 수집된 영상과 함께 처리된 미세먼지 등의 아날로그 또는 디지털 데이터는 SD에 데이터베이스로 저장되어 영상과 함께 데이터베이스가 문자 또는 그래프 형식의 데이터 트렌드로 중앙관제센터의 화면에 표시될 수 있다.To this end, the special-purpose small UAV for monitoring and removing air pollutants according to an embodiment is a monitoring area or analog or digital data such as fine dust processed together with the collected images of the monitoring area are stored as a database in the SD. The database along with the image can be displayed on the screen of the central control center as data trends in text or graph format.

화면에 표시되는 내용은 미세먼지 등의 각종 상황에 대한 데이터베이The content displayed on the screen is a database of various conditions such as fine dust.

스가 영상과 함께 표출되며, 영상에 문자가 표출 될 시 글자의 문구, 문구 값의 단위, 문구의 화면 상 위치, 폰트, 색상 등으로 설정될 수 있다.Suga is displayed together with the video, and when text is displayed on the video, it can be set as the text of the text, the unit of the text value, the location of the text on the screen, font, color, etc.

그리고, 경고 시, 표출 문구는 지정된 색으로 깜빡 깜빡거리거나, 글자는 지정된 색으로 가만히 있고 화면 전체가 컬러 또는 흑백의 지정된 색으로 깜빡 깜빡거리는 플리커링(flickering)의 경우 중 어느 하나로 표시된다.And, at the time of warning, the expression text is displayed in one of the cases of flickering in a specified color, or text is still in a specified color and the entire screen flickers in a specified color or black and white.

또한, 영상에 각종 상황에 대한 데이터베이스를 그래프 형식의 데이터 트렌드로 표출 할 시 데이터의 문구, 단위, 색깔을 관리자가 설정한대로 표출할 수 있다.In addition, when displaying the database for various situations in the image as a data trend in graph format, the text, unit, and color of the data can be displayed as set by the administrator.

그리고, 또한 영상에 표출된 트렌드의 바를 원하는 시간에 이동하면 이동된 바가 위치한 트렌드의 시간의 값이 나타나고, 데이터의 확인 후 이동바 위에 위치한 데이터 값은 자동으로 사라지며, 경고 시, 표출 문구는 지정된 색으로 깜빡 깜빡거리거나, 글자는 지정된 색으로 가만히 있고 화면 전체가 컬러 또는 흑백의 지정된 색으로 깜빡 깜빡거리는 플리커링(flickering)의 경우 중 어느 하나로 표시되는 기능을 포함한다.And, also, if the trend bar displayed on the video is moved at the desired time, the time value of the trend where the moved bar is located appears. After checking the data, the data value located on the moving bar automatically disappears. It includes a function to be displayed in either case of flickering in color or in the case of flickering in which the text is still in a specified color and the entire screen is flickering in a specified color in color or black and white.

상기 영상에 데이터 문자 및 그래프 형식의 데이터 트렌트를 표출 시 표출 방법을 설정하는 프로그램의 방법은 제너럴, 데이터아날로그(Data Analog), 데이터 디지털 입력(Digital Input), 디지털 출력(Digital Output)으로 구성된다.The method of the program for setting the expression method when expressing the data trend in the form of data characters and graphs on the image consists of general, data analog, data digital input, and digital output.

제너럴에서 일반적인 설정을 하며, 카메라부는 연결된 카메라부의 종류를 선택하는 것이고, 주소(Address)는 선택된 카메라부의 네트워크 주소, 프로토콜(Protocol)은 LS산전, 모드버스(Modbus), 프로피버스(Profibus) 등 카메라부(50)와 맞는 것으로 선택할 수 있다.General settings are made in general, and the camera unit is to select the type of the connected camera unit, the address is the network address of the selected camera unit, and the protocol is the camera such as LSIS, Modbus, Profibus It can be selected to match the part 50 .

그리고, 통신(Communication)은 RS-232, RS485, 랜 통신 중 선택을 할 수 있다. 이러한 경우, 통신포트(Comm. Port)는 통신포트(Common Port) 단자 선택(COM1, COM2, ... , COM10), IP주소는 카메라의 IP 주소, 히스토리(History)의 트렌드(Trend)는 Live 또는 저장된 이전 데이터를 검색할 히스토리(History) 중 선택, 히스토리는 이전 데이터 검색의 날짜 선택, 주기(Period)는 검색 날짜 기간을 선택할 수 있다.And, communication (Communication) can be selected among RS-232, RS485, and LAN communication. In this case, the communication port (Comm. Port) selects the communication port (COM1, COM2, ... , COM10), the IP address is the IP address of the camera, and the trend of the history is Live Alternatively, it is possible to select from the history to search the stored previous data, the history to select the date of the previous data search, and the period to select the search date period.

Analog에서는, 인에이블(Enable)은 표출 데이터의 사용 유무, 스트링(String)은 데이터 명칭, 메저(Measure)은 데이터 단위, X축은 화면에 문자를 표시할 X축의 좌표, Y축은 화면에 문자를 표시할 Y축의 좌표, 사이즈(Size)는 문자의 크기, 컬러(Color)는 문자의 색깔, 디스플레이상태(Display Status)는 Text 또는 트렌드(Trend) 중 선택, 최소범위(Range Min)은 데이터의 최소 수치, 최대범위(Range Max)는 데이터의 최고 수치, 디스플레이시간(Display Time)은 트렌드(Trend) 표출 시 트렌드(Trend) 좌표 중 시간 영역 X좌표를 설정한 시간으로 표출한다.In Analog, Enable means whether the displayed data is used or not, String is the name of the data, Measure is the data unit, X-axis is the coordinates of the X-axis to display text on the screen, Y-axis displays the text on the screen The coordinates of the Y-axis to be used, Size is the size of the character, Color is the color of the character, Display Status is either Text or Trend, and the Minimum Range is the minimum value of data. , Range Max is the highest value of data, and Display Time is the time when the X coordinate of the time domain is set among the trend coordinates when displaying a trend.

디지털 입력(Digital Input)의 인에이블(Enable)은 표출 데이터의 사용 유무, 스트링(String)은 데이터 명칭, X축은 화면에 문자를 표시할 X축의 좌표, Y축은 화면에 문자를 표시할 Y축의 좌표, 사이즈(Size)는 문자의 크기, 컬러(Color)는 문자의 색깔, 이펙트(Effect)는 경보의 방법(글자의 빠른 깜빡임, 느린 깜빡임, 화면 깜빡임)을Enable of Digital Input indicates whether the displayed data is used or not, String is the name of the data, X-axis is the X-axis coordinate to display text on the screen, Y-axis is the Y-axis coordinate to display text on the screen , Size is the size of the text, Color is the color of the text, and Effect is the alarm method (fast blinking, slow blinking, screen blinking).

설정하고, 디스플레이상태(Display Status)는 Text 또는 트렌드(Trend) 중 선택, 디스플레이시간(DisplayTime)은 트렌드(Trend) 표출 시 트렌드(Trend) 좌표 중 시간 영역 X좌표를 설정한 시간으로 표출한다.Set, Display Status is selected from Text or Trend, and DisplayTime is displayed as the set time among trend coordinates in the time domain when displaying a trend.

디지털 출력(Digital Output)의 인에이블(Enable)은 표출 데이터의 사용 유무, 스트링(String)은 데이터 명칭, X축은 화면에 문자를 표시할 X축의 좌표, Y축은 화면에 문자를 표시할 Y축의 좌표, 사이즈(Size)는 문자의 크기, 컬러(Color)는 문자의 색깔, 이펙트(Effect)는 경보의 방법(글자의 빠른 깜빡임, 느린 깜빡임, 화면 깜빡임)을 설정하고, 제어상태(Control Status)는 제어시스템의 제어를 온/오프(ON/OFF) 중 선택하는 프로그램을 관리자 임의로 설정할 수 있는 기능을 포함한다.Enable of Digital Output is whether the displayed data is used or not, String is the name of the data, X-axis is the X-axis coordinate to display text on the screen, Y-axis is the Y-axis coordinate to display text on the screen , Size is the size of text, Color is the color of text, Effect sets the alarm method (character fast blinking, slow blinking, screen blinking), and Control Status is It includes a function that allows administrators to arbitrarily set a program that selects ON/OFF control of the control system.

부가적으로, 이하, 실시예에 적용된 자동 비행 제어 방법을 상세하게 설명하면Additionally, when the automatic flight control method applied to the embodiment is described in detail below,

아래와 같다.It is as below.

먼저, 예를 들어 유도 장치는 무인 드론으로부터 수신한 유도 요청 신호를 근거로 무인 드론의 자동 비행 유도 및 자동 위치 유도를 위한 유도 신호를 송출한다.First, for example, the guidance device transmits a guidance signal for automatic flight guidance and automatic position guidance of the unmanned drone based on a guidance request signal received from the unmanned drone.

이를 보다 상세하게 설명하면 아래와 같다.This will be described in more detail as follows.

무인 드론은 자동 비행 유도 및 자동 위치 유도를 요청하기 위해 유도 요청 신호를 송출한다.The unmanned drone sends a guidance request signal to request automatic flight guidance and automatic positioning guidance.

유도 장치는 무인 드론에서 송출되는 유도 요청 신호를 수신한다.The guidance device receives the guidance request signal transmitted from the unmanned drone.

이때, 유도 장치는 저주파수 신호, Z-Wavw 신호, BLE 신호 중에 하나로 송출되는 유도 요청 신호를 수신한다.At this time, the induction device receives an induction request signal transmitted as one of a low frequency signal, a Z-Wavw signal, and a BLE signal.

유도 장치는 수신한 유도 요청 신호에 대한 적합성 검사를 수행한다.The guidance device performs a conformance check on the received guidance request signal.

그리고, 유도 장치는 유도 요청 신호에 포함된 인증정보(예를 들면, 비밀번호)를 검출한다.Then, the induction device detects authentication information (eg, password) included in the induction request signal.

유도 장치는 검출한 인증정보와 미리 설정된 인증정보와의 일치 여부를 근거로 유도 요청 신호의 적합성을 검사한다.The guidance device checks the suitability of the guidance request signal based on whether the detected authentication information matches the preset authentication information.

이때, 두 인증정보가 일치하여 유도 요청 신호가 적합한 것으로 판단하면, 유도 장치는 유도 요청 신호를 근거로 이동체와 무인 드론 간의 거리를 산출한다.At this time, if it is determined that the guidance request signal is suitable because the two authentication information matches, the guidance device calculates the distance between the mobile body and the unmanned drone based on the guidance request signal.

즉, 유도 장치는 유도 요청 신호에 포함된 출력 신호 세기를 검출한다.That is, the induction device detects the intensity of the output signal included in the guidance request signal.

그리고, 유도 장치는 유도 요청 신호의 수신 신호 세기를 측정한다.And, the guidance device measures the received signal strength of the guidance request signal.

유도 장치는 검출한 출력 신호 세기 및 측정한 수신 신호 세기를 근거로 이동체와 무인 드론 간의 거리를 산출한다.The guidance device calculates the distance between the moving object and the unmanned drone based on the detected output signal strength and the measured received signal strength.

그러면, 유도 장치는 이동체와 무인 드론 간의 거리를 근거로 유도 신호의 송출범위를 설정한다.Then, the guidance device sets the transmission range of the guidance signal based on the distance between the moving object and the unmanned drone.

즉, 유도 장치는 기산출한 이동체와 무인 드론 간의 거리를 근거로 유도 신호의 송출범위를 설정한다.That is, the guidance device sets the transmission range of the guidance signal based on the calculated distance between the moving object and the unmanned drone.

이때, 유도 장치는 유도 신호에 대한 응답신호 수신 여부를 근거로 송출범위를 가변할 수도 있다.In this case, the induction device may vary the transmission range based on whether or not a response signal to the induction signal is received.

즉, 유도 장치는 기설정된 송출범위에 따라 유도 신호가 송출된 후 설정 시간 내에 무인 드론으로부터 응답 신호가 수신되지 않으면 송출범위를 증가시키고, 설정 시간 내에 응답 신호가 수신되면 송출범위를 감소시킨다.That is, the guidance device increases the transmission range if a response signal is not received from the unmanned drone within a set time after the guidance signal is transmitted according to the preset transmission range, and decreases the transmission range if the response signal is received within the set time.

유도 장치는 이동체의 위치정보를 생성한다.The guidance device generates position information of the moving object.

즉, 유도 장치는 3차원 좌표(x,y,z), 가속도 등의 위치정보를 감지하는 G 센서를 통해, 이동체의 현재 위치 좌표(x,y,z), 가속도 중에 적어도 하나를 감지한다.That is, the induction device senses at least one of the current position coordinates (x, y, z) and acceleration of the moving object through the G sensor that detects position information such as three-dimensional coordinates (x, y, z) and acceleration.

그리고, 유도 장치는 감지한 현재 위치 좌표, 가속도 중에 적어도 하나를 포함하는 위치정보를 생성한다.Then, the induction device generates position information including at least one of the sensed current position coordinates and acceleration.

또한, 유도 장치는 생성한 이동체의 위치정보 및 송출범위를 근거로 자동 비행 유도 신호를 생성한다.In addition, the guidance device generates an automatic flight guidance signal based on the position information and the transmission range of the generated moving object.

즉, 유도 장치는 생성한 위치정보를 포함하는 자동 비행 유도 신호를 생성한다.That is, the guidance device generates an automatic flight guidance signal including the generated position information.

이때, 유도장치는 이동체와 무인 드론 간의 거리를 근거로 저주파수 신호 또는 고주파수신호(예를 들면, Z-Wave 주파수 신호, BLE 주파수 신호)로 자동 비행 유도 신호를 생성한다.At this time, the guidance device generates an automatic flight guidance signal as a low-frequency signal or a high-frequency signal (eg, Z-Wave frequency signal, BLE frequency signal) based on the distance between the moving object and the unmanned drone.

즉, 유도 장치는 이동체와 무인 드론 간의 거리가 기준값(예를 들면, 10m) 이하이면 저주파수의 자동 비행 유도 신호를 생성한다.That is, the guidance device generates a low-frequency automatic flight guidance signal when the distance between the moving object and the unmanned drone is less than or equal to a reference value (eg, 10 m).

그리고, 유도 장치는 이동체와 무인 드론 간의 거리가 기준값을 초과하면 고주파수의 자동 비행 유도 신호를 생성한다.And, when the distance between the moving object and the unmanned drone exceeds the reference value, the guidance device generates a high-frequency automatic flight guidance signal.

한편, 유도 장치는 송출범위 및 유도 신호의 출력 세기를 근거로 자동 위치 유도 신호를 생성한다.On the other hand, the guidance device generates an automatic position guidance signal based on the transmission range and the output strength of the guidance signal.

즉, 유도 장치는 인증정보 및 출력 신호 세기를 포함하는 자동 위치 유도 신호를 생성한다.That is, the guidance device generates an automatic position guidance signal including authentication information and output signal strength.

이때, 유도 장치는 기설정된 송출범위에 따른 자동 위치 유도 신호의 출력 세기를 자동 위치 유도 신호에 포함된 출력 신호 세기로 설정한다.At this time, the induction device sets the output strength of the automatic position guidance signal according to the preset transmission range to the output signal strength included in the automatic position guidance signal.

이때, 유도 장치는 기설정된 송출범위를 근거로 저주파수 신호 또는 고주파수 신호(예를 들면, Z-Wave 주파수 신호, BLE 주파수 신호)로 자동 위치 유도 신호를 생성한다.At this time, the guidance device generates an automatic position guidance signal as a low-frequency signal or a high-frequency signal (eg, Z-Wave frequency signal, BLE frequency signal) based on a preset transmission range.

즉, 유도 장치는 송출범위가 기준값(예를 들면, 10m) 이하이면 저주파수의 자동 위치 유도 신호를 생성한다.That is, if the transmission range is less than a reference value (eg, 10m), the guidance device generates an automatic position guidance signal of a low frequency.

유도 장치는 송출범위가 기준값을 초과하면 고주파수의 자동 위치 유도 신호를 생성한다.The guidance device generates a high-frequency automatic position guidance signal when the transmission range exceeds the reference value.

그리고, 유도 장치는 생성한 유도 신호를 송출한다.Then, the induction device transmits the generated guide signal.

즉, 유도 장치는 생성한 자동 비행 유도 신호 및 생성한 자동 위치 유도 신호를 무인 드론에게로 송출한다.That is, the guidance device transmits the generated automatic flight guidance signal and the generated automatic position guidance signal to the unmanned drone.

이때, 유도 장치는 기설정된 송출범위로 유도 신호를 송출한다.At this time, the induction device transmits the induction signal in a preset transmission range.

여기서, 유도 장치는 자동 비행 유도 신호 및 자동위치 유도 신호를 동시에 송출하는 것으로 기재하고 있으나, 두 유도 신호 중 하나만을 송출할 수도 있다.Here, the guidance device is described as transmitting the automatic flight guidance signal and the automatic position guidance signal at the same time, but may transmit only one of the two guidance signals.

무인 드론은 유도 장치에서 송출되는 유도 신호를 수신한다.The unmanned drone receives the guidance signal transmitted from the guidance device.

무인 드론은 유도 신호에 대한 응답 신호를 유도 장치로 송출한다.The unmanned drone transmits a response signal to the guidance signal to the guidance device.

이때, 수신한 유도 신호가 자동 비행 유도 신호이면, 무인 드론은 자동 비행 유도 신호를 근거로 무인 드론의 이동속도 및 이동방향을 설정한다.At this time, if the received guidance signal is an automatic flight guidance signal, the unmanned drone sets the movement speed and movement direction of the unmanned drone based on the automatic flight guidance signal.

그리고, 무인 드론은 수신한 자동 비행 유도 신호 및 무인 드론의 위치정보를 근거로 무인 드론의 자동 비행 제어값을 설정한다.Then, the unmanned drone sets an automatic flight control value of the unmanned drone based on the received automatic flight guidance signal and the location information of the unmanned drone.

이때, 무인 드론은 이동속도 및 이동방향을 포함하는 자동 비행 제어값을 설정한다.At this time, the unmanned drone sets an automatic flight control value including the moving speed and the moving direction.

이를 설명하면 아래와 같다.This is explained as follows.

무인 드론은 수신한 자동 비행 유도 신호로부터 이동체의 위치정보를 검출한다.The unmanned drone detects the location information of the moving object from the received automatic flight guidance signal.

즉, 무인 드론은 자동 비행 유도 신호로부터 현재 위치 좌표 및 가속도를 포함하는 이동체의 위치정보를 검출한다.That is, the unmanned drone detects the position information of the moving object including the current position coordinates and the acceleration from the automatic flight guidance signal.

무인 드론은 위치정보를 생성한다.Unmanned drones generate location information.

즉, 무인 드론은 3차원 좌표(x,y,z), 가속도 등의 위치정보를 감지하는 G 센서를 통해, 현재 위치 좌표(x,y,z), 가속도 중에 적어도 하나를 감지한다.That is, the unmanned drone senses at least one of the current position coordinates (x, y, z) and acceleration through a G sensor that detects position information such as three-dimensional coordinates (x, y, z) and acceleration.

무인 드론은 감지한 현재 위치 좌표, 가속도 중에 적어도 하나를 포함하는 위치정보를 생성한다.The unmanned drone generates location information including at least one of the detected current location coordinates and acceleration.

무인 드론은 위치정보들을 근거로 이동체와 무인 드론 간의 거리를 산출한다.The unmanned drone calculates the distance between the moving object and the unmanned drone based on the location information.

즉, 무인 드론은 자동 비행 유도 신호에 포함된 현재 위치 좌표와 감지한 위치정보의 현재 위치 좌표를 근거로 이동체와 무인 드론 간의 거리를 산출한다.That is, the unmanned drone calculates the distance between the moving object and the unmanned drone based on the current location coordinates included in the automatic flight guidance signal and the current location coordinates of the detected location information.

산출한 이동체와 무인 드론 간의 거리가 설정값 이하이면, 무인 드론은 이동체의If the calculated distance between the moving object and the unmanned drone is less than the set value, the unmanned drone

위치정보에 포함된 속도를 무인 드론의 이동속도로 설정한다.The speed included in the location information is set as the moving speed of the unmanned drone.

즉, 무인 드론은 산출한 거리가 미리 설정된 설정값 즉, 이동체와 무인 드론 간의 거리 설정값 이하이면 자동 비행 유도 신호의 가속도에 포함된 속도를 이동속도로 설정한다.That is, the unmanned drone sets the speed included in the acceleration of the automatic flight guidance signal as the moving speed when the calculated distance is less than or equal to a preset value, that is, the distance between the moving object and the unmanned drone.

한편, 무인 드론은 이동체와 무인 드론 간의 거리가 설정값을 초과하면 이동체의 위치정보에 포함된 속도보다 빠른 속도를 이동속도로 설정한다.On the other hand, when the distance between the moving object and the unmanned drone exceeds a set value, the unmanned drone sets a speed higher than the speed included in the location information of the moving object as the moving speed.

즉, 무인 드론은 산출한 거리가 미리 설정된 설정값을 초과하면 자동 비행 유도 신호의 가속도에 포함된 속도보다 빠른 이동속도를 설정한다.That is, when the calculated distance exceeds a preset value, the unmanned drone sets a movement speed faster than the speed included in the acceleration of the automatic flight guidance signal.

여기서, 무인 드론은 이동체와의 거리에 따라 이동속도의 빠름 정도를 설정한다.Here, the unmanned drone sets the degree of speed of the movement speed according to the distance from the moving object.

무인 드론은 이동체의 위치정보에 포함된 방향을 이동방향으로 설정한다.The unmanned drone sets the direction included in the location information of the moving object as the moving direction.

즉, 무인 드론은 자동 비행 유도 신호의 가속도에 포함된 방향을 이동방향을 설정한다.That is, the unmanned drone sets the moving direction to the direction included in the acceleration of the automatic flight guidance signal.

무인 드론은 설정된 이동속도 및 이동방향을 근거로 자동 비행한다.The unmanned drone automatically flies based on the set movement speed and direction.

즉, 무인 드론은 설정된 이동속도로 설정된 이동방향으로 비행한다.That is, the unmanned drone flies in the set moving direction at the set moving speed.

한편, 유도 신호가 자동 위치 유도 신호이면, 무인 드론은 자동 비행 유도 신호를 근거로 자동위치를 설정한다.On the other hand, if the guidance signal is an automatic position guidance signal, the unmanned drone sets an automatic position based on the automatic flight guidance signal.

이를 설명하면 아래와 같다.This is explained as follows.

무인 드론은 수신한 자동 비행 유도 신호로부터 3방향 유도 신호를 검출한다.The unmanned drone detects a three-way guidance signal from the received automatic flight guidance signal.

즉, 무인 드론은 자동 위치 유도 신호로부터 X방향(X축) 신호, Y방향(Y축) 신호 및 Z방향(Z축) 신호를 검출한다.That is, the unmanned drone detects an X-direction (X-axis) signal, a Y-direction (Y-axis) signal, and a Z-direction (Z-axis) signal from the automatic position guidance signal.

무인 드론은 검출한 3방향 유도 신호의 신호 세기를 감지한다.The unmanned drone senses the signal strength of the detected three-way guidance signal.

즉, 무인 드론은 검출한 각 방향 유도 신호에 대한 신호 세기(즉, X 방향 RSSI Y 방향 RSSI, Z 방향 RSSI)를 감지한다.That is, the unmanned drone detects the signal strength (ie, X-direction RSSI, Y-direction RSSI, Z-direction RSSI) for each detected direction guidance signal.

그리고, 무인 드론은 수신한 자동 비행 유도 신호로부터 출력 신호 세기를 검출한다.And, the unmanned drone detects the output signal strength from the received automatic flight guidance signal.

즉, 무인 드론은 자동 위치 유도 신호로부터 유도 신호의 출력 신호 세기를 검출한다.That is, the unmanned drone detects the output signal strength of the guidance signal from the automatic position guidance signal.

무인 드론은 3방향 유도 신호의 신호 세기 및 출력 신호 세기를 근거로 3방향 거리를 산출한다.The unmanned drone calculates the 3-way distance based on the signal strength of the 3-way guidance signal and the output signal strength.

즉, 무인 드론은 각 방향의 유도 신호의 신호 세기와 출력 신호 세기의 비율을 근거로 3방향 거리를 산출한다.That is, the unmanned drone calculates the three-way distance based on the ratio of the signal strength of the guidance signal in each direction to the output signal strength.

이때, 무인 드론은 이동체에 설치된 유도 장치와 무인 드론의 현재 위치 간의 X방향 거리, Y방향 거리 및 Z방향 거리를 의미하는 3방향 거리, 또는 유도 장치와 이동체와 소정 거리를 유지하는 위치와 무인 드론의 현재 위치 간의 X방향 거리, Y방향 거리 및 Z방향 거리를 의미하는 3방향 거리를 산출한다.In this case, the unmanned drone is a three-way distance, which means the X-direction distance, the Y-direction distance, and the Z-direction distance, between the guidance device installed on the moving object and the current location of the unmanned drone, or a position that maintains a predetermined distance between the guidance device and the moving object and the unmanned drone Calculate the three-way distance, which means the X-direction distance, the Y-direction distance, and the Z-direction distance between the current locations of .

무인 드론은 산출한 3방향 거리를 포함하는 자동 위치 설정값을 설정한다.The unmanned drone sets an automatic positioning value including the calculated three-way distance.

즉, 무인 드론은 산출한 3방향 거리를 포함하는 자동 위치 설정값을 설정한다.That is, the unmanned drone sets an automatic positioning value including the calculated three-way distance.

무인 드론은 설정된 자동 위치로 비행한다. 즉, 무인 드론은 자동 위치 설정값에 포함된 3방향 거리를 근거로 비행하여 설정된 이동체 또는 이동체와 소정 거리를 유지하는 위치로 이동한다.The unmanned drone flies to the set automatic position. That is, the unmanned drone flies based on the three-way distance included in the automatic positioning value and moves to a set moving object or a position maintaining a predetermined distance from the moving object.

상술한 바와 같이, 무인 드론의 자동 비행 제어 시스템 및 방법은 이동체에 설치되는 유도 장치에서 유도 신호를 송출하고, 무인 드론에서 유도 신호를 근거로 자동 비행함으로써, 무인 드론이 이동체와 일정 거리를 유지하면서 비행할 수 있는 효과가 있다.As described above, the automatic flight control system and method of an unmanned drone transmits a guide signal from a guide device installed on a moving object and automatically flies based on the guide signal from the unmanned drone, so that the unmanned drone maintains a certain distance from the moving object while maintaining a certain distance. It has the effect of being able to fly.

100 : 카메라 장치 200 : 중앙관제센터
110 : 카메라 모듈 120 : DSP부
130 : 센서부 140 : PLC
100: camera device 200: central control center
110: camera module 120: DSP unit
130: sensor unit 140: PLC

Claims (2)

비행시에 감시대상을 촬영하는 카메라 모듈;
상기 카메라 모듈에 의해 촬영된 결과를 디지털 신호 처리하는 DSP부;
상기 비행이 될 경우, 대기오염물질을 감지하는 제 1 센서부;
상기 비행이 될 경우, 비행상태를 감지하는 센서를 적어도 하나 이상 포함한 제 2 센서부;
상기 제 2 센서부에 의해 감지된 비행상태 결과를 조합하여 비행상태를 추정하는 센서 융합기;
상기 카메라 모듈에 의해 촬영된 결과와 상기 제 1 센서부에 의해 감지된 결과를 기반으로 대기오염물질을 감시해서 미리 등록된 GCS(Ground Control System)에 제공하고, 상기 센서 융합기에 의해 추정된 비행상태에 따라 비행동작을 제어하는 PLC; 및
상기 PLC의 제어에 의해 상기 비행동작을 구동하는 구동부; 를 포함하고 있으며,
상기 PLC는 상기 대기오염물질의 감시 결과에 대해서 상기 GCS와 IOT데이터로서 통신하는 IOT모듈; 을 포함하고 있으며,
상기 PLC는,
상기 PLC 자체에 전원을 공급하는 전원모듈;
상기 PLC 이외의 제어유닛과 통신을 하는 시리얼통신모듈;
상기 제 1 센서부에 의한 아날로그 대기오염물질의 감지 결과와 상기 센서 융합기에 의한 아날로그 비행상태 감지 결과를 포함한 아날로그 정보를 각기 디지털 변환하는 A/D모듈;
디지털 유닛에 의한 디지털 정보를 아날로그 변환하는 D/A모듈;
상기 제 1 센서부에 의한 디지털 대기오염물질의 감지 결과와 상기 센서 융합기에 의한 디지털 비행상태 감지 결과를 포함한 디지털 정보를 입력받는 D/I모듈;
상기 제 1 센서부에 의한 디지털 대기오염물질의 감지 결과를 포함한 디지털 정보를 출력하는 D/O모듈;
상기 대기오염물질의 감시 결과에 대해서 상기 GCS와 IOT데이터로서 통신하는 IOT모듈; 및
상기 각 모듈을 제어하는 CPU모듈; 을 포함하고,
상기 CPU모듈은,
a) 상기 카메라 모듈에 의한 영상 신호와 상기 제 1 센서부에 의한 감지 신호가 입력될 경우, 자체의 메모리에 직접적으로 데이터베이스화하여 모니터에 영상으로 표출시에 그래프 형식의 데이터 트렌드가 함께 표출하도록 하고,
b) 상기 데이터 트렌드가 표출될 경우에, 감시구역 또는, 감시지역의 수집된 영상과 함께 처리된 미세먼지를 포함한 아날로그 또는 디지털 데이터는 SD에 데이터베이스로 저장되어 문자 또는 그래프 형식의 데이터 트렌드로 표시되도록 하고,
c) 상기 미세먼지를 포함한 데이터베이스가 영상과 함께 문자로 표출될 때에는, 영상의 데이터베이스를 데이터의 문구와, 단위, 색깔을 관리자설정에 따라 표출하고, 해당하는 영상에 글자의 문구와, 문구 값의 단위, 문구의 화면 상 위치, 폰트, 색상 등으로 설정해서 표출하며,
상기 IOT모듈은,
자체 TTS엔진을 구비하여 상기 제 1 센서부의 대기오염물질 감지 결과에 의한 음성정보에 따라 상이하게 음성 알람을 하며,
대기오염물질 감시 및 제거와 관련된 외부 음성을 입력받아 노이즈 캔슬링을 수행하고 오디오 출력을 하고,

상기 CPU모듈은,
다수의 상이한 소형무인기의 임무(Mission)와 제어사양별로 대응하는 요구 동작 값과 목표 출력 값의 변환 관계를 정의한 모터 맵 테이블에 의해 사용 중인 소형무인기의 임무와 제어사양에 대응하여 캘리브레이션해서 상기 구동부의 비행동작 구동 동작을 제어하고,
상기 IOT모듈은,
다수의 상이한 GCS장치와 주변환경별로 대응하는 통신유형별로 통신모듈을 구비하고,
상기 CPU모듈은,
상기 통신모듈 중에서, 사용 중인 GCS장치와 주변환경에 대응하는 통신유형에 따라 상이하게 어느 하나를 설정해서 적용하며,
다수의 상이한 주변환경별로 대응하는 고유한 GCS로부터의 RSSI특성을 매핑해서, 현재 주변환경을 감지하는 것; 을 특징으로 하는 대기오염물질 감시 및 제거를 위한 특수목적형 소형무인기.
A camera module for photographing a monitoring target during flight;
DSP unit for digital signal processing the result photographed by the camera module;
When the flight, a first sensor unit for detecting air pollutants;
a second sensor unit including at least one sensor for detecting a flight state when the flight is performed;
a sensor fusion device for estimating a flight state by combining the flight state results sensed by the second sensor unit;
Based on the result captured by the camera module and the result detected by the first sensor unit, air pollutants are monitored and provided to a pre-registered Ground Control System (GCS), and the flight state estimated by the sensor fusion device PLC that controls the flight operation according to; and
a driving unit for driving the flight operation under the control of the PLC; contains,
The PLC includes an IOT module that communicates with the GCS as IOT data for the monitoring result of the air pollutants; contains,
The PLC is
a power module for supplying power to the PLC itself;
a serial communication module for communicating with a control unit other than the PLC;
an A/D module for digitally converting analog information including an analog air pollutant detection result by the first sensor unit and an analog flight state detection result by the sensor fusion device;
D/A module for converting digital information by digital unit to analog;
a D/I module for receiving digital information including a digital air pollutant detection result by the first sensor unit and a digital flight state detection result by the sensor fusion device;
a D/O module for outputting digital information including a detection result of digital air pollutants by the first sensor unit;
an IOT module that communicates with the GCS as IOT data for the monitoring result of the air pollutants; and
CPU module for controlling each module; including,
The CPU module is
a) When the image signal by the camera module and the detection signal by the first sensor unit are input, the database is directly stored in its own memory so that the graph-type data trend is displayed together when it is displayed as an image on the monitor, ,
b) When the data trend is expressed, analog or digital data including fine dust processed together with the collected images of the monitoring area or the monitoring area are stored as a database in SD and displayed as a data trend in text or graph format. do,
c) When the database containing the fine dust is displayed as text along with the image, the text, unit, and color of the image are displayed in the database according to the administrator setting, and the text of the text and the text value are displayed in the corresponding image. It is expressed by setting the unit, the position of the text on the screen, the font, the color, etc.
The IOT module is
Equipped with its own TTS engine, different voice alarms are made according to the voice information based on the air pollutant detection result of the first sensor unit,
It receives external voices related to monitoring and removal of air pollutants, performs noise cancellation, and outputs audio.

The CPU module is
The drive unit is calibrated according to the mission and control specifications of the small UAV in use by a motor map table that defines the conversion relationship between the required operation value and the target output value corresponding to each mission and control specification of a number of different small UAVs. control the flight motion driving motion,
The IOT module is
A communication module is provided for each communication type corresponding to a number of different GCS devices and surrounding environments,
The CPU module is
Among the communication modules, any one is set and applied differently depending on the communication type corresponding to the GCS device in use and the surrounding environment,
mapping RSSI characteristics from a unique GCS corresponding to a plurality of different surrounding environments to detect the current surrounding environment; Special purpose small unmanned aerial vehicle for monitoring and removing air pollutants characterized by
삭제delete
KR1020200029902A 2020-03-11 2020-03-11 Dron for unique object for monitoring and removing material of air pollution KR102297649B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200029902A KR102297649B1 (en) 2020-03-11 2020-03-11 Dron for unique object for monitoring and removing material of air pollution

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200029902A KR102297649B1 (en) 2020-03-11 2020-03-11 Dron for unique object for monitoring and removing material of air pollution

Publications (1)

Publication Number Publication Date
KR102297649B1 true KR102297649B1 (en) 2021-09-03

Family

ID=77784833

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200029902A KR102297649B1 (en) 2020-03-11 2020-03-11 Dron for unique object for monitoring and removing material of air pollution

Country Status (1)

Country Link
KR (1) KR102297649B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102413249B1 (en) * 2021-11-11 2022-06-27 채강석 System for rescuing emergency employing biometric techniques of solid space and hololens

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040015336A1 (en) * 2002-07-19 2004-01-22 Kulesz James J. Automatic detection and assessment of chemical, biological, radiological and nuclear threats
US8035734B2 (en) * 2007-04-02 2011-10-11 Kenneth R Jones Self-balancing remote sensing device and remote sensing system comprising same
US20160018532A1 (en) * 2013-03-11 2016-01-21 The University Of Bristol Radiation detection device and method
US20160304201A1 (en) * 2015-04-15 2016-10-20 International Business Machines Corporation Drone-based microbial analysis system
KR20170024300A (en) * 2015-08-25 2017-03-07 한국종합환경산업(주) Mobile multi-air quality measurement system using a drone
KR101733002B1 (en) 2015-03-05 2017-05-08 국방과학연구소 Unmmaned robot operation method of system assignning multiple missions to a plurality of unmmaned robots and operating the plurality of unmmaned robots based on the aggigned multiple missions
KR20180005341A (en) 2016-07-06 2018-01-16 (주)아이티로그 Drone system for controlling a plurality of drones
US20180281943A1 (en) * 2016-07-01 2018-10-04 Bell Helicopter Textron Inc. Transportation Services for Pod Assemblies

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040015336A1 (en) * 2002-07-19 2004-01-22 Kulesz James J. Automatic detection and assessment of chemical, biological, radiological and nuclear threats
US8035734B2 (en) * 2007-04-02 2011-10-11 Kenneth R Jones Self-balancing remote sensing device and remote sensing system comprising same
US20160018532A1 (en) * 2013-03-11 2016-01-21 The University Of Bristol Radiation detection device and method
KR101733002B1 (en) 2015-03-05 2017-05-08 국방과학연구소 Unmmaned robot operation method of system assignning multiple missions to a plurality of unmmaned robots and operating the plurality of unmmaned robots based on the aggigned multiple missions
US20160304201A1 (en) * 2015-04-15 2016-10-20 International Business Machines Corporation Drone-based microbial analysis system
KR20170024300A (en) * 2015-08-25 2017-03-07 한국종합환경산업(주) Mobile multi-air quality measurement system using a drone
US20180281943A1 (en) * 2016-07-01 2018-10-04 Bell Helicopter Textron Inc. Transportation Services for Pod Assemblies
KR20180005341A (en) 2016-07-06 2018-01-16 (주)아이티로그 Drone system for controlling a plurality of drones

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
그리고, 특허문헌 2의 기술은 터치 스크린을 이용하여 복수의 드론을 연동 제어하는 드론 시스템 기술 정도이다.
참고적으로, 이러한 특허문헌 1의 기술은 복수의 무인로봇들에 다중임무를 부여하고 부여된 임무에 근거하여 무인로봇들을 운용하는 시스템의 무인로봇 운용 방법에 관한 기술이다.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102413249B1 (en) * 2021-11-11 2022-06-27 채강석 System for rescuing emergency employing biometric techniques of solid space and hololens

Similar Documents

Publication Publication Date Title
Wang et al. Power line inspection with a flying robot
CN107209514B (en) Selective processing of sensor data
CN107735736B (en) Method for addressing functional modules of a movable object
JP6329642B2 (en) Sensor fusion
CN112904892A (en) System and method for monitoring with visual indicia
CN107065932A (en) A kind of the condition of a disaster detects the control method of four rotor wing unmanned aerial vehicles
JP2006082775A (en) Unmanned flying object controlling system and method
JP2006082774A (en) Unmanned flying object and its controlling method
CN111762136A (en) Apparatus and method for identifying or detecting obstacles
CN108369782B (en) Targeted restricted flight areas
CN103675609A (en) Power line patrol equipment and system
US11417223B2 (en) Flight altitude estimation systems and methods
CN107942348B (en) Road law enforcement system based on unmanned aerial vehicle and robot technique
WO2021237618A1 (en) Capture assistance method, ground command platform, unmanned aerial vehicle, system, and storage medium
JP2018156491A (en) Facility inspection system
CN108089241A (en) A kind of modularization meteorological detection system based on unmanned plane
CN108803633A (en) A kind of unmanned plane low latitude monitoring system based on mobile communications network
KR102297649B1 (en) Dron for unique object for monitoring and removing material of air pollution
KR20190097618A (en) Drone for firefighting
CN209372814U (en) A kind of Craft in Chemical Industrial Area EMS based on unmanned plane
CN109270957A (en) A kind of plant protection system and its flying vehicles control method and apparatus
KR20120036684A (en) An intelligent aviation robot using gps
Hong et al. Ground control station development for autonomous UAV
CN208000379U (en) A kind of road enforcement system based on unmanned plane and robot technology
KR20220129791A (en) System for monitoring an environmental pollution using drones

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant