KR102368734B1 - Drone and drone control methods - Google Patents
Drone and drone control methods Download PDFInfo
- Publication number
- KR102368734B1 KR102368734B1 KR1020210131642A KR20210131642A KR102368734B1 KR 102368734 B1 KR102368734 B1 KR 102368734B1 KR 1020210131642 A KR1020210131642 A KR 1020210131642A KR 20210131642 A KR20210131642 A KR 20210131642A KR 102368734 B1 KR102368734 B1 KR 102368734B1
- Authority
- KR
- South Korea
- Prior art keywords
- drone
- gps coordinates
- gps
- model
- change
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000004364 calculation method Methods 0.000 claims abstract description 14
- 230000008859 change Effects 0.000 claims description 55
- 238000013136 deep learning model Methods 0.000 claims description 38
- 230000001133 acceleration Effects 0.000 claims description 16
- 238000013140 knowledge distillation Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/14—Receivers specially adapted for specific applications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B64C2201/145—
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Automation & Control Theory (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
Abstract
Description
본 발명은 드론 및 드론 제어 방법에 관한 것으로서, 보다 상세하게는 드론의 GPS음영지역 또는 GPS수신이 어려운 상황에서도 자율 비행이 원활하게 수행되도록하는 드론 및 드론 제어 방법에 관한 것이다.The present invention relates to a drone and a drone control method, and more particularly, to a drone and a drone control method that enables autonomous flight to be smoothly performed even in a GPS shaded area of the drone or a situation in which GPS reception is difficult.
드론은 사람이 타지 않고 비행이 가능한 무인 비행체를 일컫는다. 2010년경부터 소재, 부품, 장비의 경량, 저가화로 무게 25kg 이하의 소형 드론이 활발하게 사용되었고, 이를 통해 사람이 도달하기 어려운 지역에서 드론의 활용요구가 급증하였다.A drone is an unmanned aerial vehicle that can fly without a human being. Since around 2010, small drones weighing less than 25 kg have been actively used due to the lightweight and low cost of materials, parts, and equipment, and through this, the demand for drone use in areas that are difficult for humans to reach has rapidly increased.
드론 연구 초기에는 GPS(Global Positioning System)가 수신되지 않는 환경에서의 항법에 관한 연구가 부족했기 때문에 모션캡처 시스템과 같은 외부 측위 장치의 도움을 받아 드론의 위치를 추정하는 측위 문제를 해결하고, 주로 비행 제어법칙과 경로계획에 관련한 연구가 많이 진행되었다.In the early days of drone research, research on navigation in an environment where GPS (Global Positioning System) was not received was lacking. A lot of research has been done on flight control laws and route planning.
연구가 발전하고 카메라, LiDAR(Light Detection and Ranging), IMU(Inertial Measurement Unit)와 같은 센서가 소형화됨에 따라 실내 좁은 공간에서만 사용 가능한 모션캡처 시스템의 한계를 벗어나기 위해 드론의 온보드 센서를 이용하여 항법을 구현하는 연구가 활발히 진행되었다.As research advances and sensors such as cameras, LiDAR (Light Detection and Ranging), and IMU (Inertial Measurement Unit) become miniaturized, to overcome the limitations of motion capture systems that can only be used in confined spaces indoors, navigation using the drone’s onboard sensors is improved. Implementation studies have been actively carried out.
이러한 항법 문제의 해결을 통하여 사람의 도움 없이 험지에서의 고속 수색, 정찰, 탐지를 임무로 하는 드론의 완전한 자율 비행과 관련한 기술 개발 연구가 활발히 진행되고 있다.Through the resolution of these navigational problems, research on technology development related to the fully autonomous flight of drones for high-speed search, reconnaissance, and detection in rough terrain without human assistance is being actively conducted.
종래 대한민국 공개특허공보 제10-2019-0101142호에 개시된 발명은 비행 설정값 범위내에서 원격 제어가 가능한 구성을 제시하고 있으나 이는 자율비행에 직접 적용하기에는 어려운 문제가 있었으며, GPS수신이 어려운 GPS수신 음영지역 또는 드론 재머(JAMMER)등의 외부 장치로 인해 전파방해가 발생할 경우, 자율비행이 어렵거나 자율비행자체가 가능하지 않다는 문제가 있었다.Although the invention disclosed in the prior Korean Patent Application Laid-Open No. 10-2019-0101142 suggests a configuration that allows remote control within the flight set value range, it has a problem that it is difficult to directly apply to autonomous flight, and the GPS reception shadow where GPS reception is difficult When radio interference occurs due to an external device such as a local or drone jammer, there is a problem that autonomous flight is difficult or autonomous flight itself is not possible.
따라서 이러한 문제점을 해결하기 위한 본 발명의 첫 번째 목적은 전파방해 및 GPS수신이 어려운 상황이 발생하더라도 안정적으로 자율비행이 가능하며, 자율비행을 하는 과정 또는 일반적인 원격제어 비행을 하는 과정에서 수신할 수 있는 고도, 각속도, 가속도 등의 드론 관련 데이터를 이용하여 딥러닝 기반 학습을 통해 드론 내부에서 GPS좌표를 계산함으로써, 실제 GPS좌표를 수신하지 않더라도 계산된 GPS좌표를 이용해 자율비행이 가능하도록 하는 드론을 제공하는 것이다.Therefore, the first object of the present invention to solve this problem is that it is possible to stably autonomously fly even when radio interference and GPS reception are difficult, and it can be received in the process of autonomous flight or general remote control flight. By calculating GPS coordinates inside the drone through deep learning-based learning using drone-related data such as altitude, angular velocity, and acceleration, a drone that enables autonomous flight using the calculated GPS coordinates even if the actual GPS coordinates are not received. will provide
그리고 본 발명의 두 번째 목적은 전파방해 및 GPS수신이 어려운 상황이 발생하더라도 안정적으로 자율비행이 가능하며, 자율비행을 하는 과정 또는 일반적인 원격제어 비행을 하는 과정에서 수신할 수 있는 고도, 각속도, 가속도 등의 드론 관련 데이터를 이용하여 딥러닝 기반 학습을 통해 드론 내부에서 GPS좌표를 계산함으로써, 실제 GPS좌표를 수신하지 않더라도 계산된 GPS좌표를 이용해 자율비행이 가능하도록 하는 드론 제어 방법을 제공하는 것이다.And the second object of the present invention is to enable stable autonomous flight even when radio wave interference and GPS reception are difficult, and to receive altitude, angular velocity, and acceleration in the course of autonomous flight or general remote control flight. It is to provide a drone control method that enables autonomous flight using the calculated GPS coordinates even if the actual GPS coordinates are not received by calculating the GPS coordinates inside the drone through deep learning-based learning using drone-related data such as those.
상기 첫 번째 목적을 달성하기 위하여 본 발명은 제1GPS좌표를 수신하는 GPS수신부, 센서 데이터를 수집하는 센서부, 상기 제1GPS좌표 변화에 대응한 상기 센서 데이터의 변화를 저장하는 저장부, 상기 제1GPS좌표 변화에 대응한 상기 센서 데이터의 변화를 이용하여 제2GPS좌표를 계산하는 GPS좌표 계산부 및 상기 제1GPS좌표 및 상기 제2GPS좌표를 이용하여 드론의 비행을 제어하는 제어부를 포함하되, 상기 센서 데이터는 상기 드론의 고도, 각속도, 가속도, 방향정보, 거리정보를 포함하고, 상기 거리정보는 상기 드론과 지면 간 거리 또는 상기 드론과 특정 물체와의 거리를 포함하는 드론을 제공한다.In order to achieve the first object, the present invention provides a GPS receiving unit for receiving first GPS coordinates, a sensor unit for collecting sensor data, a storage unit for storing changes in the sensor data corresponding to the change of the first GPS coordinates, and the first GPS A GPS coordinate calculator for calculating second GPS coordinates by using the change in the sensor data corresponding to the coordinate change, and a controller for controlling the flight of the drone using the first GPS coordinate and the second GPS coordinate, the sensor data comprising: includes altitude, angular velocity, acceleration, direction information, and distance information of the drone, and the distance information provides a drone including a distance between the drone and the ground or a distance between the drone and a specific object.
상기 GPS좌표 계산부는 상기 드론의 움직임에 따라 변화하는 상기 센서 데이터를 이용하여 데이터 셋을 구축하고, 상기 제1GPS좌표를 목표치로 하여 상기 데이터 셋을 이용해 제2GPS좌표를 계산하도록 하는 딥러닝 모델을 수행할 수 있다.The GPS coordinate calculation unit builds a data set using the sensor data that changes according to the movement of the drone, and calculates the second GPS coordinates using the data set with the first GPS coordinates as a target value. Perform a deep learning model. can do.
상기 제어부는 상기 제2GPS좌표와 상기 제1GPS좌표를 비교하여, 상기 제2GPS좌표가 기 설정된 오차범위 이내일 경우, 상기 드론의 자율비행 모드가 동작하도록 제어하는 드론.The control unit compares the second GPS coordinates with the first GPS coordinates, and controls the autonomous flight mode of the drone to operate when the second GPS coordinates are within a preset error range.
상기 두 번째 목적을 달성하기 위하여 본 발명은 GPS수신부가 제1GPS좌표를 수신하는 단계, 센서부가 센서 데이터를 수집하는 단계, 저장부가 상기 제1GPS좌표 변화에 대응한 상기 센서 데이터의 변화를 저장하는 단계, GPS좌표 계산부가 상기 제1GPS좌표 변화에 대응한 상기 센서 데이터의 변화를 이용하여 제2GPS좌표를 계산하는 단계 및 제어부가 상기 제1GPS좌표 및 상기 제2GPS좌표를 이용하여 드론의 비행을 제어하는 단계를 포함하되, 상기 센서 데이터는 상기 드론의 고도, 각속도, 가속도, 방향정보, 거리정보를 포함하고, 상기 거리정보는 상기 드론과 지면 간 거리 또는 상기 드론과 특정 물체와의 거리를 포함하는 드론 제어 방법을 제공한다.In order to achieve the second object, the present invention includes the steps of: receiving the first GPS coordinates by a GPS receiver; collecting sensor data by the sensor; storing changes in the sensor data corresponding to the first GPS coordinates change by the storage , a step of calculating, by a GPS coordinate calculator, a second GPS coordinate using a change in the sensor data corresponding to a change in the first GPS coordinate, and a control unit controlling the flight of the drone using the first GPS coordinate and the second GPS coordinate Including, wherein the sensor data includes altitude, angular velocity, acceleration, direction information, and distance information of the drone, and the distance information includes a distance between the drone and the ground or a distance between the drone and a specific object. provide a way
상기 GPS좌표 계산부가 상기 제1GPS좌표 변화에 대응한 상기 센서 데이터의 변화를 이용하여 제2GPS좌표를 계산하는 단계는 상기 GPS좌표 계산부가 상기 드론의 움직임에 따라 변화하는 상기 센서 데이터를 이용하여 데이터 셋을 구축하는 단계 및 상기 GPS좌표 계산부가 상기 제1GPS좌표를 목표치로 하여 상기 데이터 셋을 이용해 제2GPS좌표를 계산하도록 하는 딥러닝 모델을 수행하는 단계를 포함할 수 있다.The step of the GPS coordinate calculator calculating the second GPS coordinates by using the change of the sensor data corresponding to the change of the first GPS coordinates is a data set using the sensor data that the GPS coordinate calculator changes according to the movement of the drone. and performing a deep learning model in which the GPS coordinate calculator calculates second GPS coordinates using the data set using the first GPS coordinates as a target value.
상기 제어부가 상기 제1GPS좌표 및 상기 제2GPS좌표를 이용하여 드론의 비행을 제어하는 단계는 상기 제어부가 상기 제2GPS좌표와 상기 제1GPS좌표를 비교하여, 상기 제2GPS좌표가 기 설정된 오차범위 이내일 경우, 상기 드론의 자율비행 모드가 동작하도록 제어하는 단계를 포함할 수 있다.In the step of the controller controlling the flight of the drone using the first GPS coordinates and the second GPS coordinates, the controller compares the second GPS coordinates with the first GPS coordinates, and the second GPS coordinates are within a preset error range. In this case, the method may include controlling the autonomous flight mode of the drone to operate.
상기에서 설명한 드론 및 드론 제어 방법은 전파방해 및 GPS수신이 어려운 상황이 발생하더라도 안정적으로 자율비행이 가능하며, 자율비행을 하는 과정 또는 일반적인 원격제어 비행을 하는 과정에서 수신할 수 있는 고도, 각속도, 가속도 등의 드론 관련 데이터를 이용하여 딥러닝 기반 학습을 통해 드론 내부에서 GPS좌표를 계산함으로써, 실제 GPS좌표를 수신하지 않더라도 계산된 GPS좌표를 이용해 자율비행이 가능하도록 하는 효과가 있다.The drones and drone control methods described above can stably autonomously fly even when radio wave interference and GPS reception are difficult, and the altitude, angular velocity, and By calculating the GPS coordinates inside the drone through deep learning-based learning using drone-related data such as acceleration, it has the effect of enabling autonomous flight using the calculated GPS coordinates even if the actual GPS coordinates are not received.
도 1은 본 발명의 일 실시예인 드론의 개략적인 구성을 나타낸 도면이다.
도 2는 본 발명의 일 구성인 GPS좌표 계산부의 개략적인 구성을 나타낸 도면이다.
도 3은 본 발명의 일 실시예인 드론 제어 방법의 개략적인 흐름을 나타낸 도면이다.
도 4는 본 발명의 일 실시예인 드론의 움직임에 대한 설명을 하기 위해 나타낸 도면이다.1 is a view showing a schematic configuration of a drone according to an embodiment of the present invention.
2 is a diagram showing a schematic configuration of a GPS coordinate calculator, which is one configuration of the present invention.
3 is a diagram showing a schematic flow of a drone control method according to an embodiment of the present invention.
4 is a view for explaining the movement of a drone according to an embodiment of the present invention.
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되지 아니하며, 발명자는 그 사용자의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms or words used in the present specification and claims are not to be construed as limited in their ordinary or dictionary meanings, and on the principle that the inventor can appropriately define the concept of the term in order to best describe the user's invention. It should be interpreted as meaning and concept consistent with the technical idea of the present invention.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “…부”, “…기”, “…단”, “모듈”, “장치” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 및/또는 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, the “… wealth", "… energy", "… However, terms such as “module”, “device” and the like mean a unit that processes at least one function or operation, which may be implemented as a combination of hardware and/or software.
본 발명의 실시 예에서 사용되는 용어에 대해 간략히 설명하고, 본 실시 예들에 대해 구체적으로 설명하기로 한다.Terms used in the embodiments of the present invention will be briefly described, and the present embodiments will be described in detail.
본 발명의 실시 예에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시 예들의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 실시 예들에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 실시 예들의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the embodiments of the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, which may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, etc. . In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding embodiments. Therefore, the terms used in the present embodiments should be defined based on the meaning of the term and the overall contents of the present embodiments, rather than the simple name of the term.
본 발명의 실시 예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. In an embodiment of the present invention, terms including an ordinal number such as first, second, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.
또한, 본 발명의 실시 예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Also, in an embodiment of the present invention, the singular expression includes the plural expression unless the context clearly dictates otherwise.
또한, 본 발명의 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In addition, in the embodiments of the present invention, terms such as "comprises" or "have" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, but one It should be understood that it does not preclude the possibility of the presence or addition of or more other features or numbers, steps, operations, components, parts, or combinations thereof.
또한, 본 발명의 실시 예에서, '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의'모듈' 혹은 복수의'부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In addition, in an embodiment of the present invention, a 'module' or 'unit' performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software. In addition, a plurality of 'modules' or a plurality of 'units' may be integrated into at least one module and implemented by at least one processor, except for 'modules' or 'units' that need to be implemented with specific hardware.
또한, 본 발명의 실시 예에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.In addition, in an embodiment of the present invention, when a certain part is "connected" with another part, it is not only "directly connected" but also "electrically connected" with another element interposed therebetween. Including cases where there is
이하, 본 발명의 실시 예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예인 드론의 개략적인 구성을 나타낸 도면이고, 도 2는 본 발명의 일 구성인 GPS좌표 계산부의 개략적인 구성을 나타낸 도면이다.1 is a diagram showing a schematic configuration of a drone according to an embodiment of the present invention, and FIG. 2 is a diagram showing a schematic configuration of a GPS coordinate calculator, which is a configuration of the present invention.
도 1 및 도 2를 참고하면, 드론(100)은 GPS수신부(110), 센서부(120), 저장부(130), GPS좌표 계산부(140) 및 제어부(150)를 포함할 수 있고, GPS좌표 계산부(140)는 모델 학습 모듈(141), GPS좌표 예상 모듈(142), 모델 저장 모듈(143) 및 모델 경량화 수행 모듈(144)을 포함할 수 있다.1 and 2, the
보다 구체적으로 GPS수신부(110)는 제1GPS좌표를 수신할 수 있다. 여기서, 제1GPS좌표는 RTK(Real-Time Kinematic) GPS좌표일 수 있다.More specifically, the
그리고 센서부(120)는 센서 데이터를 수집할 수 있다.And the
여기서, 센서 데이터는 드론의 고도, 각속도, 가속도, 방향정보, 거리정보를 포함할 수 있고, 거리정보는 드론과 지면 간 거리 또는 드론과 특정 물체와의 거리를 포함할 수 있다.Here, the sensor data may include altitude, angular velocity, acceleration, direction information, and distance information of the drone, and the distance information may include a distance between the drone and the ground or a distance between the drone and a specific object.
그리고 센서부(120)가 수집하는 센서 데이터는 드론(100)의 구동부에 대한 정보(모터의 출력, 모터의 갯수, 모터의 움직임 등)을 포함할 수 있다.In addition, the sensor data collected by the
이를 위해, 센서부(120)는 가속도계, 컴퍼스 센서, IMU(inertial measurement unit: 관성측정저항장치) 등을 포함할 수 있다.To this end, the
또한, 저장부(130)는 제1GPS좌표 변화에 대응한 센서 데이터의 변화를 저장할 수 있다.Also, the
보다 구체적으로, 저장부(130)는 드론이 움직임에 따라 변화하는 제1GPS좌표 변화를 확인하고, 제1GPS좌표 변화에 대응하는 센서 데이터의 변화를 확인하여, 제1GPS좌표 변화에 대응하는 센서 데이터의 변화를 제1데이터 베이스로 구축할 수 있다.More specifically, the
여기서, 제1GPS좌표 변화는 드론의 비행 시작 시점에서의 제1GPS좌표에서 드론의 비행 종료 시점에서의 제1GPS좌표의 변화를 포함할 수 있다.Here, the change in the first GPS coordinates may include a change in the first GPS coordinates at the time when the flight ends of the drone from the first GPS coordinates at the time when the flight of the drone starts.
또한, 저장부(130)는 제1GPS 좌표 변화에 대응하는 센서 데이터의 변화를 제1데이터 베이스로 구축하는 과정에서 해당 드론의 하드웨어 스펙(모터의 갯수, 출력과 같은 구동부 스펙, 드론의 형상, 드론의 크기 및 무게 등)을 반영하여, 제2데이터 베이스를 구축할 수 있다.In addition, in the process of building the change of sensor data corresponding to the first GPS coordinate change as the first database, the
그리고 GPS좌표 계산부(140)는 제1GPS좌표 변화에 대응한 센서 데이터의 변화를 이용하여 제2GPS좌표를 계산할 수 있다.In addition, the GPS
또한, GPS좌표 계산부(140)는 드론의 움직임에 따라 변화하는 센서 데이터를 이용하여 데이터 셋을 구축할 수 있고, 제1GPS좌표를 목표치로 하여 데이터 셋을 이용해 제2GPS좌표를 계산하도록 하는 딥러닝 모델을 수행할 수 있다.In addition, the GPS
보다 구체적으로, 모델 학습 모듈(141)은 저장부(130)가 저장한 제1데이터 베이스 및 제2데이터 베이스 중 적어도 하나를 데이터 셋으로 구축할 수 있고, 제1GPS좌표를 목표치로 하여 데이터 셋을 이용해 제2GPS좌표를 계산하도록 하는 딥러닝 모델 학습을 수행할 수 있다. 여기서, 딥러닝 모델은 특정 딥러닝 모델로 한정되지 않는다.More specifically, the
보다 구체적으로, 모델 학습 모듈(141)은 제1데이터 베이스 및 제2데이터 베이스 중 적어도 하나를 데이터 셋으로 구축할 수 있고, 구축된 데이터 셋을 분석함으로써, 제1GPS 좌표 변화에 대응하는 센서 데이터의 변화를 역으로 확인할 수 있다.More specifically, the
즉, 모델 학습 모듈(141)은 센서 데이터의 변화를 기준으로 하여 이에 대응하는 GPS좌표를 예상할 수 있고, 예상 GPS좌표가 제1GPS좌표 대비 기 설정된 유사범위 내에 도달할 수 있도록 딥러닝 모델 학습을 수행할 수 있다.That is, the
여기서, 제1GPS 좌표 변화에 대응하는 센서 데이터의 변화를 역으로 확인하는 것을 보다 구체적으로 설명하자면, 드론이 비행하기 시작한 시점에서의 제1GPS좌표를 기준으로 하여 기준 제1GPS좌표 대비 드론의 고도, 각속도, 가속도, 방향정보 등의 변화가 발생한 이후 제1GPS좌표를 확인함으로써, 기준 제1GPS좌표에 특정 변화가 발생할 경우 어느정도 제1GPS좌표가 변화하였는지 확인할 수 있을 것이다.Here, to explain in more detail the reverse confirmation of the change in sensor data corresponding to the change of the first GPS coordinates, the altitude and angular velocity of the drone compared to the reference first GPS coordinates based on the first GPS coordinates at the time the drone starts flying By checking the first GPS coordinates after changes in , acceleration, direction information, etc. occur, it will be possible to check how much the first GPS coordinates have changed when a specific change occurs in the reference first GPS coordinates.
그렇다면, 기준 제1GPS좌표에서 특정 변화가 발생하였을 때는 당연히 해당 제1GPS좌표가 도출될 것으로 예상될 것인바, 이를 통해 센서 데이터의 변화에 따라 GPS좌표가 어떻게 변화할 것인지 예상할 수 있을 것이다.Then, when a specific change occurs in the reference first GPS coordinates, it is of course expected that the first GPS coordinates will be derived. Through this, it is possible to predict how the GPS coordinates will change according to changes in sensor data.
이러한 판단을 기준으로 하여 모델 학습 모듈(141)은 제1데이터 베이스 및 제2데이터 베이스 중 적어도 하나로 구축된 데이터 셋을 분석함으로써, 제1GPS 좌표 변화에 대응하는 센서 데이터의 변화를 역으로 확인할 수 있으며, 이를 통해 제1GPS좌표를 목표치로 하여 데이터 셋을 이용해 제2GPS좌표를 계산하도록 하는 딥러닝 모델 학습을 수행할 수 있을 것이다.Based on this determination, the
그리고 GPS좌표 예상 모듈(142)은 모델 학습 모듈(141)이 학습한 딥러닝 모델을 수행함으로써, 제2GPS좌표를 계산할 수 있다.In addition, the GPS coordinate
또한, 모델 저장 모듈(143)은 모델 학습 모듈(141)이 학습한 딥러닝 모델을 저장할 수 있다.In addition, the
그리고 모델 경량화 수행 모듈(144)은 모델 학습 모듈(141)이 저장한 딥러닝 모델을 대상으로 지식 증류(Knowledge Distillation)를 추가로 수행할 수 있다.In addition, the model
즉, 단순히 딥러닝 모델을 수행하여 자율비행을 위한 제2GPS좌표를 계산하기 위해서는 많은 양의 메모리, CPU, GPU 등이 필요하기 때문에 종래에는 촬영된 영상정보, 이미지 등을 맵핑함으로써, 특정 좌표를 생성하여 자율 비행을 수행하도록 기술을 개발하였다.That is, since a large amount of memory, CPU, GPU, etc. are required to calculate the 2nd GPS coordinates for autonomous flight by simply performing a deep learning model, specific coordinates are generated by mapping previously captured image information, images, etc. Thus, technology was developed to perform autonomous flight.
다만, 이는 필수적으로 영상정보 및 이미지 등을 맵핑해야 하는바, 기존 드론에서 사용되는 카메라보다 높은 수준의 카메라가 필요했으며, 영상정보 및 이미지 또한 메모리를 많이 필요로 하기 때문에 무한정 이용할 수 없었고, 영상정보 및 이미지 등을 이용하여 특정 좌표를 생성하기 위해서는 특정 지형 및 지물, 장애물과 같이 특정 형상 및 형태의 확인이 필요하다는 문제가 있었다.However, since it is essential to map image information and images, a higher level camera than the camera used in the existing drone was required, and since image information and images also require a lot of memory, they could not be used indefinitely, and image information And in order to generate specific coordinates using an image, etc., there is a problem in that it is necessary to check a specific shape and form such as a specific terrain, a feature, and an obstacle.
이러한 문제를 해결하기 위해 본 발명은 이미지 및 영상정보가 아닌 제1GPS좌표 변화에 대응하는 센서 데이터의 변화를 딥러닝 모델에 적용하여 제1GPS좌표를 목표로 하여 제2GPS좌표를 계산할 수 있도록 하였다.In order to solve this problem, the present invention applies a change in sensor data corresponding to a change in the first GPS coordinates, not image and image information, to a deep learning model so that the second GPS coordinates can be calculated by targeting the first GPS coordinates.
보다 구체적으로 설명하자면, 종래 영상정보 및 이미지 등을 이용하여 특정 좌표를 생성하기 위해서는 특정 지형 및 지물, 장애물과 같이 특정 형상 및 형태의 확인이 필요한 경우에는, 특정 공간, 실내에서는 자율 비행이 가능하였으나, 바다와 같이 특정 지형 및 지물, 장애물과 같은 특정 형상 및 형태의 확인이 불가할 경우 또는 지형 변화가 크기 않을 경우에는 자율 비행을 할 수 없었다.More specifically, when it is necessary to confirm a specific shape and form, such as a specific terrain, feature, or obstacle, in order to generate specific coordinates using conventional image information and images, autonomous flight was possible in a specific space or indoors. , autonomous flight was not possible when it was impossible to confirm specific terrain and features such as the sea, or specific shapes and forms such as obstacles, or when the terrain change was not significant.
따라서, 본 발명은 영상정보 및 이미지가 아닌 드론의 움직임에서 발생하는 드론의 고도, 각속도, 가속도, 방향정보, 거리정보 등의 변화와 제1GPS좌표의 변화를 대응한 데이터 셋을 구축할 수 있고, 제1GPS좌표를 목표치로 하여 데이터 셋을 이용해 제2GPS좌표를 계산하도록 하는 딥러닝 모델을 수행함으로써, 특정 지형 및 지물, 장애물과 같은 특정 형상 및 형태의 확인이 불가할 경우에도 자율 비행이 가능하도록 함으로써, 드론 비행 환경과 무관하게 GPS음영지역 및 드론 재머(JAMMER)등의 외부 장치로 인해 전파방해가 발생할 경우에도 성공적인 자율 비행을 수행할 수 있다.Accordingly, the present invention can construct a data set that responds to changes in the altitude, angular velocity, acceleration, direction information, distance information, etc. of the drone and changes in the first GPS coordinates that occur from the motion of the drone rather than image information and images. By performing a deep learning model that calculates the second GPS coordinates using the data set with the first GPS coordinates as the target, autonomous flight is possible even when it is impossible to confirm specific shapes and forms such as specific terrain, features, and obstacles. Regardless of the drone flight environment, successful autonomous flight can be performed even if radio wave interference occurs due to external devices such as GPS shadow areas and drone jammers.
즉, 모델 경량화 수행 모듈(144)은 모델 학습 모듈(141)이 저장한 딥러닝 모델을 대상으로 지식 증류(Knowledge Distillation)를 추가로 수행함으로써, GPS좌표 예상 모듈(142)이 경량된 딥러닝 모델을 수행할 수 있도록 하였으며, 이를 통해 기존 딥러닝 모델의 무거운 알고리듬은 드론이 비행 또는 자율 비행을 수행하지 않고 지상에서 전원을 충전하거나 대기 중에 있을 때, 수행함으로써, 딥러닝 모델 수행을 통한 제2GPS좌표 계산의 인식성 및 정확성 향상을 도모할 수 있다.That is, the model
또한, 드론이 비행 또는 자율 비행 중이더라도 추가적인 제2GPS좌표의 계산이 필요할 경우, 모델 경량화 수행 모듈(144)은 모델 학습 모듈(141)이 저장한 딥러닝 모델을 대상으로 지식 증류(Knowledge Distillation)를 추가로 수행하여 GPS좌표 예상 모듈(142)이 드론 자체 메모리, GPU, CPU 등에 최적화된 효율적인 딥러닝 모델 수행이 가능하도록 할 수 있다.In addition, when additional calculation of the second GPS coordinates is required even when the drone is flying or autonomously flying, the model
그리고 모델 경량화 수행 모듈(144)은 모델 학습 모듈(141)이 저장한 딥러닝 모델을 대상으로 자동머신러닝(Automated Machine Learning)을 적용하여, 딥러닝 모델의 추가 경량화를 도모함으로써, 드론 내부 메모리 등에 최적화된 딥러닝 모델 수행을 가능하도록 할 수 있다.And the model
또한, 모델 경량화 수행 모듈(144)은 모델 학습 모듈(141)이 저장한 딥러닝 모델을 대상으로 가지치기(Pruning)를 수행함으로써, GPS좌표 예상 모듈(142)이 기 저장된 딥러닝 모델을 수행하는 과정에서 제2GPS좌표 계산에 불필요한 네트워크를 제거시킴으로써, 드론 내부 임베디드 컴퓨팅 환경에서도 구동이 가능하도록 네트워크를 재구축할 수 있다.In addition, the model
즉, 모델 경량화 수행 모듈(144)은 GPS좌표 예상 모듈(142)이 기 학습된 딥러닝 모델을 수행함으로써, 제2GPS좌표를 계산하는 과정에서 결과에 영향을 주지 않는 뉴런을 제거 및 통합함으로써, 딥러닝 모델의 성능 저하를 최소화함과 동시에 모델의 사이즈를 축소시킬 수 있다.That is, the model weight
제어부(150)는 제1GPS좌표 및 제2GPS좌표를 이용하여 드론(100)의 비행을 제어할 수 있다. 또한, 제어부(150)는 제2GPS좌표와 제1GPS좌표를 비교하여, 비교결과, 제2GPS좌표가 제1GPS좌표 대비 기 설정된 오차범위 이내일 경우, 드론(100)의 자율비행 모드가 동작하도록 제어할 수 있다.The
그리고 이러한 제어부(150)는 FC(flight controller)를 포함할 수 있으며, 드론(100)과 같은 무인 비행체의 비행을 제어하기 위하여, 드론과 같은 무인 비행체를 조종하는 무선 조종기의 수신기와 ESC(Electronic Speed Conrols) 사이에 연결될 수 있다.In addition, the
도 3은 본 발명의 일 실시예인 드론 제어 방법의 개략적인 흐름을 나타낸 도면이다.3 is a diagram showing a schematic flow of a drone control method according to an embodiment of the present invention.
도 3을 참고하면, 드론 제어 방법은 GPS수신부(110)가 제1GPS좌표를 수신할 수 있다.(S330)Referring to FIG. 3 , in the drone control method, the
그리고 센서부(120)가 센서 데이터를 수집할 수 있다.(S331)And the
여기서, 센서 데이터는 드론(100)의 고도, 각속도, 가속도, 방향정보, 거리정보를 포함할 수 있고, 거리정보는 드론(100)과 지면 간 거리 또는 드론(100)과 특정 물체와의 거리를 포함할 수 있다.Here, the sensor data may include altitude, angular velocity, acceleration, direction information, and distance information of the
또한, 저장부(130)가 제1GPS좌표 변화에 대응한 센서 데이터의 변화를 저장할 수 있다.(S332)Also, the
그리고 GPS좌표 계산부(140)는 제1GPS좌표 변화에 대응한 센서 데이터의 변화를 이용하여 제2GPS좌표를 계산할 수 있다.(S333)In addition, the GPS coordinates
또한, GPS좌표 계산부(140)는 드론(100)의 움직임에 따라 변화하는 센서 데이터를 이용하여 데이터 셋을 구축할 수 있고, GPS좌표 계산부(140)는 제1GPS좌표를 목표치로 하여 데이터 셋을 이용해 제2GPS좌표를 계산하도록 하는 딥러닝 모델을 수행할 수 있다.In addition, the GPS coordinate
그리고 제어부(150)가 제1GPS좌표 및 제2GPS좌표를 이용하여 드론(100)의 비행을 제어할 수 있다.In addition, the
또한, 제어부(150)는 제2GPS좌표와 제1GPS좌표를 비교하여, 비교결과, 제2GPS좌표가 제1GPS좌표 대비 기 설정된 오차범위 이내일 경우, 드론(100)의 자율비행 모드가 동작하도록 제어할 수 있다.In addition, the
도 4는 본 발명의 일 실시예인 드론의 움직임에 대한 설명을 하기 위해 나타낸 도면이다.4 is a view for explaining the movement of a drone according to an embodiment of the present invention.
도 4를 참고하면, 드론(100)이 A지점에서 B지점으로 이동할 때, (1), (2) 및 (3)경로 중 어느 하나를 이용하여 할 수 있다.Referring to FIG. 4 , when the
그럼 여기서, A지점의 제1GPS좌표 및 B지점의 제1GPS좌표는 특정될 것이며, 드론(100)의 비행 경로인 (1), (2) 및 (3)경로의 경우, 각각 제1GPS좌표의 변화가 각각 상이할 것이며, 이 때의 센서 데이터 또한 마찬가지로 각각 상이할 것이다.Then, here, the first GPS coordinates of the point A and the first GPS coordinates of the point B will be specified, and in the case of the flight paths of the drone 100 (1), (2) and (3), the changes in the first GPS coordinates, respectively will be different from each other, and sensor data at this time will also be different from each other.
이를 반영하여, 도 1 내지 도 2를 참고해 설명하자면, 드론(100)이 비행하기 시작한 시점(A)에서의 제1GPS좌표를 기준으로 하여 기준 제1GPS좌표 대비 드론의 고도, 각속도, 가속도, 방향정보 등의 변화가 발생한 이후 제1GPS좌표를 확인함으로써, 기준 제1GPS좌표에 특정 변화가 발생할 경우 어느정도 제1GPS좌표가 변화하였는지 확인할 수 있을 것이다.Reflecting this, to explain with reference to FIGS. 1 and 2 , based on the first GPS coordinates at the time point (A) when the
이 경우, (1) 경로로 A에서 B로 움직일 때의 드론(100)의 고도, 각속도, 가속도, 방향정보 등의 변화와 (2) 경로로 A에서 B로 움직일 때의 드론(100)의 고도, 각속도, 가속도, 방향정보 등의 변화는 상이할 것이며, 마찬가지로 (3) 경로로 A에서 B로 움직일 때의 드론(100)의 고도, 각속도, 가속도, 방향정보 등의 변화도 상이할 것이다.In this case, (1) changes in the altitude, angular velocity, acceleration, direction information of the
역으로 봤을 때, A에서 B로 움직일 때의 드론(100)의 고도, 각속도, 가속도, 방향정보 등을 통해서 드론(100)의 경로를 예상할 수 있을 것이며, 이를 통해 드론(100)의 현재 GPS좌표를 예상할 수 있을 것이다.In retrospect, the path of the
이러한 학습을 지속적으로 반복함으로써, GPS좌표 계산부(140)는 드론의 움직임에 따라 변화하는 센서 데이터를 이용하여 데이터 셋을 구축할 수 있고, 제1GPS좌표를 목표치로 하여 데이터 셋을 이용해 제2GPS좌표를 계산하도록 하는 딥러닝 모델을 수행할 수 있을 것이다.By continuously repeating this learning, the GPS coordinate
상기와 같이 본 발명의 실시 예에 따른 드론 및 드론 제어 방법의 구성 및 동작이 이루어질 수 있으며, 한편 상기 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나 여러 가지 변형이 본 발명의 범위를 벗어나지 않고 실시될 수 있다.As described above, the configuration and operation of the drone and the drone control method according to the embodiment of the present invention can be made. Meanwhile, although specific embodiments have been described in the description of the present invention, various modifications are made without departing from the scope of the present invention. can be
이상에서 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 수정 및 변형이 가능함은 물론이다.Although the present invention has been described with reference to limited embodiments and drawings, the present invention is not limited thereto, and various modifications and variations are possible by those skilled in the art to which the present invention pertains.
본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.A person of ordinary skill in the art related to this embodiment will understand that it may be implemented in a modified form within a range that does not deviate from the essential characteristics of the above description. Therefore, the disclosed methods should be considered in an illustrative and not a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.
드론: 100 GPS수신부: 110
센서부: 120 저장부: 130
GPS좌표 계산부: 140 모델 학습 모듈:141
GPS좌표 예상 모듈: 142 모델 저장 모듈: 143
모델 경량화 수행 모듈: 144 제어부: 150Drone: 100 GPS receiver: 110
Sensor unit: 120 Storage unit: 130
GPS coordinate calculator: 140 Model learning module: 141
GPS Coordinate Estimation Module: 142 Model Storage Module: 143
Model lightweight performance module: 144 Control unit: 150
Claims (6)
센서 데이터를 수집하는 센서부;
상기 제1GPS좌표 변화에 대응한 상기 센서 데이터의 변화를 저장하며, 상기 제1GPS좌표 변화에 대응하는 상기 센서 데이터의 변화를 제1데이터 베이스로 구축하며, 상기 제1데이터 베이스에 드론의 하드웨어 스펙을 반영한 제2데이터 베이스를 구축하는 저장부;
상기 제1GPS좌표 변화에 대응한 상기 센서 데이터의 변화를 이용하여 제2GPS좌표를 계산하는 GPS좌표 계산부;및
상기 제1GPS좌표 및 상기 제2GPS좌표를 이용하여 드론의 비행을 제어하는 제어부;
를 포함하며,
상기 GPS좌표 계산부는
상기 제1데이터 베이스 및 상기 제2데이터 베이스 중 적어도 하나를 데이터 셋으로 구축하고, 상기 제1GPS좌표를 목표치로 하여 상기 데이터 셋을 이용해 상기 제2GPS좌표를 계산하도록 하는 딥러닝 모델 학습을 수행하는 모델 학습 모듈;
상기 모델 학습 모듈이 학습한 딥러닝 모델을 수행함으로써, 상기 제2GPS좌표를 계산하는 GPS좌표 예상 모듈;
상기 모델 학습 모듈이 학습한 딥러닝 모델을 저장하는 모델 저장 모듈;및
상기 모델 학습 모듈이 저장한 딥러닝 모델을 대상으로 지식 증류(Knowledge Distillation)를 수행하는 모델 경량화 수행 모듈;
을 포함하고,
상기 센서 데이터는
상기 드론의 고도, 각속도, 가속도, 방향정보, 거리정보를 포함하고, 상기 거리정보는 상기 드론과 지면 간 거리 또는 상기 드론과 특정 물체와의 거리를 포함하는 드론.GPS receiver for receiving the first GPS coordinates;
a sensor unit for collecting sensor data;
Stores the change of the sensor data corresponding to the first GPS coordinate change, the change of the sensor data corresponding to the first GPS coordinate change is built as a first database, and the hardware specification of the drone in the first database is stored a storage unit for constructing a reflected second database;
A GPS coordinate calculation unit for calculating a second GPS coordinate by using a change in the sensor data corresponding to the change in the first GPS coordinate; And
a controller for controlling the flight of the drone using the first GPS coordinates and the second GPS coordinates;
includes,
The GPS coordinate calculation unit
A model for performing deep learning model learning by constructing at least one of the first database and the second database as a data set, and calculating the second GPS coordinates using the data set with the first GPS coordinates as a target value learning module;
a GPS coordinate prediction module for calculating the second GPS coordinates by performing the deep learning model learned by the model learning module;
A model storage module for storing the deep learning model learned by the model learning module; And
a model lightweight performance module for performing knowledge distillation on the deep learning model stored by the model learning module;
including,
The sensor data is
The drone includes altitude, angular velocity, acceleration, direction information, and distance information of the drone, and the distance information includes a distance between the drone and the ground or a distance between the drone and a specific object.
상기 GPS좌표 예상 모듈은
상기 드론이 비행 또는 자율 비행 중에는 상기 경량화된 딥러닝 모델을 수행하여 상기 제2GPS좌표를 계산하는 드론.According to claim 1,
The GPS coordinate prediction module is
A drone that calculates the second GPS coordinates by performing the lightweight deep learning model while the drone is flying or autonomously flying.
상기 제어부는
상기 제2GPS좌표와 상기 제1GPS좌표를 비교하여, 상기 제2GPS좌표가 기 설정된 오차범위 이내일 경우, 상기 드론의 자율비행 모드가 동작하도록 제어하는 드론.According to claim 1,
the control unit
A drone that compares the second GPS coordinates with the first GPS coordinates, and controls the autonomous flight mode of the drone to operate when the second GPS coordinates are within a preset error range.
센서부가 센서 데이터를 수집하는 단계;
저장부가 상기 제1GPS좌표 변화에 대응한 상기 센서 데이터의 변화를 저장하는 단계;
GPS좌표 계산부가 상기 제1GPS좌표 변화에 대응한 상기 센서 데이터의 변화를 이용하여 제2GPS좌표를 계산하는 단계;및
제어부가 상기 제1GPS좌표 및 상기 제2GPS좌표를 이용하여 드론의 비행을 제어하는 단계;
를 포함하되,
상기 저장부가 상기 제1GPS좌표 변화에 대응한 상기 센서 데이터의 변화를 저장하는 단계는
상기 저장부가 상기 제1GPS좌표 변화에 대응하는 상기 센서 데이터의 변화를 제1데이터 베이스로 구축하는 단계;및
상기 저장부가 상기 제1데이터 베이스에 드론의 하드웨어 스펙을 반영한 제2데이터 베이스를 구축하는 단계;
를 포함하고,
상기 GPS좌표 계산부가 상기 제1GPS좌표 변화에 대응한 상기 센서 데이터의 변화를 이용하여 제2GPS좌표를 계산하는 단계는
모델 학습 모듈이 상기 제1데이터 베이스 및 상기 제2데이터 베이스 중 적어도 하나를 데이터 셋으로 구축하는 단계;
상기 모델 학습 모듈이 상기 제1GPS좌표를 목표치로 하여 상기 데이터 셋을 이용해 상기 제2GPS좌표를 계산하도록 하는 딥러닝 모델 학습을 수행하는 단계;
GPS좌표 예상 모듈이 상기 모델 학습 모듈이 학습한 딥러닝 모델을 수행함으로써, 상기 제2GPS좌표를 계산하는 단계;
모델 저장 모듈이 상기 모델 학습 모듈이 학습한 딥러닝 모델을 저장하는 단계;및
모델 경량화 수행 모듈이 상기 모델 학습 모듈이 저장한 딥러닝 모델을 대상으로 지식 증류(Knowledge Distillation)를 수행하는 단계;
를 포함하며,
상기 센서 데이터는
상기 드론의 고도, 각속도, 가속도, 방향정보, 거리정보를 포함하고, 상기 거리정보는 상기 드론과 지면 간 거리 또는 상기 드론과 특정 물체와의 거리를 포함하는 드론 제어 방법.receiving, by a GPS receiver, first GPS coordinates;
collecting sensor data by the sensor unit;
storing, by a storage unit, a change in the sensor data corresponding to a change in the first GPS coordinates;
calculating, by a GPS coordinate calculator, a second GPS coordinate using a change in the sensor data corresponding to a change in the first GPS coordinate; and
controlling, by a controller, the flight of the drone using the first GPS coordinates and the second GPS coordinates;
including,
Storing, by the storage unit, a change in the sensor data corresponding to the change in the first GPS coordinates
constructing, by the storage unit, a change in the sensor data corresponding to the change in the first GPS coordinates as a first database; and
constructing, by the storage unit, a second database reflecting the hardware specifications of the drone in the first database;
including,
The step of the GPS coordinate calculation unit calculating the second GPS coordinates by using the change of the sensor data corresponding to the change of the first GPS coordinates
constructing, by a model learning module, at least one of the first database and the second database as a data set;
performing deep learning model learning such that the model learning module calculates the second GPS coordinates using the data set with the first GPS coordinates as a target value;
calculating, by the GPS coordinate prediction module, the deep learning model learned by the model learning module, the second GPS coordinates;
Storing, by the model storage module, the deep learning model learned by the model learning module; And
performing, by the model lightweight performance module, knowledge distillation on the deep learning model stored by the model learning module;
includes,
The sensor data is
The drone control method includes altitude, angular velocity, acceleration, direction information, and distance information of the drone, and the distance information includes a distance between the drone and the ground or a distance between the drone and a specific object.
상기 모델 경량화 수행 모듈이 상기 모델 학습 모듈이 저장한 딥러닝 모델을 대상으로 지식 증류(Knowledge Distillation)를 수행하는 단계는
상기 드론이 비행 또는 자율 비행 중에는 상기 GPS좌표 예상 모듈이 상기 경량화된 딥러닝 모델을 수행하여 상기 제2GPS좌표를 계산하는 단계;
를 포함하는 드론 제어 방법.5. The method of claim 4,
The step of the model lightweight performing module performing knowledge distillation on the deep learning model stored by the model learning module is
calculating, by the GPS coordinate prediction module, the lightweight deep learning model while the drone is flying or autonomously flying, to calculate the second GPS coordinates;
A drone control method comprising a.
상기 제어부가 상기 제1GPS좌표 및 상기 제2GPS좌표를 이용하여 드론의 비행을 제어하는 단계는
상기 제어부가 상기 제2GPS좌표와 상기 제1GPS좌표를 비교하여, 상기 제2GPS좌표가 기 설정된 오차범위 이내일 경우, 상기 드론의 자율비행 모드가 동작하도록 제어하는 단계;
를 포함하는 드론 제어 방법.5. The method of claim 4,
The step of the control unit controlling the flight of the drone using the first GPS coordinates and the second GPS coordinates
comparing, by the controller, the second GPS coordinates with the first GPS coordinates, and controlling the autonomous flight mode of the drone to operate when the second GPS coordinates are within a preset error range;
A drone control method comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210131642A KR102368734B1 (en) | 2021-10-05 | 2021-10-05 | Drone and drone control methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210131642A KR102368734B1 (en) | 2021-10-05 | 2021-10-05 | Drone and drone control methods |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102368734B1 true KR102368734B1 (en) | 2022-02-25 |
Family
ID=80490193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210131642A KR102368734B1 (en) | 2021-10-05 | 2021-10-05 | Drone and drone control methods |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102368734B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024117602A1 (en) * | 2022-11-30 | 2024-06-06 | 주식회사 인투스카이 | Autonomous driving control device and operating method therefor |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140022051A1 (en) * | 2012-07-17 | 2014-01-23 | Elwha LLC, a limited liability company of the State of Delaware | Unmanned device interaction methods and systems |
US20150128597A1 (en) * | 2013-11-12 | 2015-05-14 | Daniel Keith Schlak | Sky condenser with vertical tube compression and pressurized water utilization |
US20160200437A1 (en) * | 2015-01-12 | 2016-07-14 | Mark Andrew Ryan | Tethered Flight Control System for Small Unmanned Aircraft |
WO2017152067A1 (en) * | 2016-03-04 | 2017-09-08 | Animusoft Llc | Drone and robot control systems and methods |
KR20190101142A (en) | 2018-02-22 | 2019-08-30 | 주식회사 씨엔엔테크 | Drone system and drone control method |
US20210084217A1 (en) * | 2017-01-23 | 2021-03-18 | Digital Global Systems, Inc. | Systems, methods, and devices for unmanned vehicle detection |
-
2021
- 2021-10-05 KR KR1020210131642A patent/KR102368734B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140022051A1 (en) * | 2012-07-17 | 2014-01-23 | Elwha LLC, a limited liability company of the State of Delaware | Unmanned device interaction methods and systems |
US20150128597A1 (en) * | 2013-11-12 | 2015-05-14 | Daniel Keith Schlak | Sky condenser with vertical tube compression and pressurized water utilization |
US20160200437A1 (en) * | 2015-01-12 | 2016-07-14 | Mark Andrew Ryan | Tethered Flight Control System for Small Unmanned Aircraft |
WO2016115155A1 (en) * | 2015-01-12 | 2016-07-21 | Ryan Mark A | Tethered flight control system for small unmanned aircraft |
WO2017152067A1 (en) * | 2016-03-04 | 2017-09-08 | Animusoft Llc | Drone and robot control systems and methods |
US20210084217A1 (en) * | 2017-01-23 | 2021-03-18 | Digital Global Systems, Inc. | Systems, methods, and devices for unmanned vehicle detection |
KR20190101142A (en) | 2018-02-22 | 2019-08-30 | 주식회사 씨엔엔테크 | Drone system and drone control method |
Non-Patent Citations (1)
Title |
---|
GPS-Denied Navigation Using Low-Cost Inertial Sensors and Recurrent Neural Networks(2021.09.10.)* * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024117602A1 (en) * | 2022-11-30 | 2024-06-06 | 주식회사 인투스카이 | Autonomous driving control device and operating method therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200354079A1 (en) | Systems and methods for dynamic planning and operation of autonomous systems using image observation and information theory | |
US20230289999A1 (en) | Methods and systems for joint pose and shape estimation of objects from sensor data | |
Caballero et al. | Vision-based odometry and SLAM for medium and high altitude flying UAVs | |
Odelga et al. | Obstacle detection, tracking and avoidance for a teleoperated UAV | |
CN110268356B (en) | Leading unmanned aerial vehicle's system | |
Paull et al. | Sensor-driven area coverage for an autonomous fixed-wing unmanned aerial vehicle | |
US11726501B2 (en) | System and method for perceptive navigation of automated vehicles | |
CN110226143B (en) | Method for leading unmanned aerial vehicle | |
CN112379681B (en) | Unmanned aerial vehicle obstacle avoidance flight method and device and unmanned aerial vehicle | |
CN104854428A (en) | Sensor fusion | |
CN112378397B (en) | Unmanned aerial vehicle target tracking method and device and unmanned aerial vehicle | |
CN112380933B (en) | Unmanned aerial vehicle target recognition method and device and unmanned aerial vehicle | |
Suzuki | Recent researches on innovative drone technologies in robotics field | |
Yu et al. | Observability-based local path planning and obstacle avoidance using bearing-only measurements | |
Nahavandi et al. | A comprehensive review on autonomous navigation | |
KR102461405B1 (en) | Drone and drone control methods that enable autonomous flight using spatial analysis | |
KR102368734B1 (en) | Drone and drone control methods | |
Marlow et al. | Local terrain mapping for obstacle avoidance using monocular vision | |
Bender et al. | Map-based drone homing using shortcuts | |
Aasish et al. | Navigation of UAV without GPS | |
Helble et al. | OATS: Oxford aerial tracking system | |
Di Castro et al. | An incremental slam algorithm for indoor autonomous navigation | |
KR20240035530A (en) | Apparatus, system and method for navigating mobile platforms | |
Talwandi et al. | An Automatic Navigation System for New Technical Advanced Drones for Different Alpplications | |
Cocaud et al. | SLAM-based navigation scheme for pinpoint landing on small celestial body |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |