KR102263892B1 - Navigation positioning system for multicopter adjacent power rail, in geomagnetic disturbance situation, and control method - Google Patents

Navigation positioning system for multicopter adjacent power rail, in geomagnetic disturbance situation, and control method Download PDF

Info

Publication number
KR102263892B1
KR102263892B1 KR1020200019200A KR20200019200A KR102263892B1 KR 102263892 B1 KR102263892 B1 KR 102263892B1 KR 1020200019200 A KR1020200019200 A KR 1020200019200A KR 20200019200 A KR20200019200 A KR 20200019200A KR 102263892 B1 KR102263892 B1 KR 102263892B1
Authority
KR
South Korea
Prior art keywords
information
multicopter
rail
heading
image
Prior art date
Application number
KR1020200019200A
Other languages
Korean (ko)
Inventor
윤혁진
김대현
김재희
조봉관
Original Assignee
한국철도기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국철도기술연구원 filed Critical 한국철도기술연구원
Priority to KR1020200019200A priority Critical patent/KR102263892B1/en
Application granted granted Critical
Publication of KR102263892B1 publication Critical patent/KR102263892B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • B61L23/04Control, warning or like safety means along the route or between vehicles or trains for monitoring the mechanical state of the route
    • B61L23/042Track changes detection
    • B61L23/044Broken rails
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • H04N5/23299
    • B64C2201/127
    • B64C2201/141
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

The present invention relates to a system for correcting navigation information based on a terrestrial magnetism disturbance when a multi-copter is adjacent to an electric railway line and a control method thereof. According to one aspect of the present invention, a navigation information correction method for a multi-copter includes: a first step in which at least one multi-copter photographs at least one rail laid on the ground by using a camera; a second step in which the at least one multi-copter calculates heading information by using an installation direction of the at least one rail; a third step in which the at least one multi-copter photographs the at least one rail while moving based on the calculated heading information; a fourth step in which the at least one multi-copter transmits the heading information and the photographed image information to a server; a fifth step in which the server matches the image information with pre-stored map information related with the at least one rail, based on the heading information; and a sixth step in which the server detects damage related with the at least one rail based on the matched map information and the matched image information.

Description

멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 시스템 및 그 제어방법 {Navigation positioning system for multicopter adjacent power rail, in geomagnetic disturbance situation, and control method}Navigation positioning system for multicopter adjacent power rail, in geomagnetic disturbance situation, and control method

본 발명은 멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 시스템 및 그 제어방법에 관한 것이다.The present invention relates to a system for correcting navigation information by geomagnetic disturbance when a multicopter approaches a catenary and a method for controlling the same.

무인비행기(UAV: Unmanned Aerial Vehicle)는 조종사가 탑승하지 않고 원격조종 또는 자율비행제어로 비행을 하여 정찰, 폭격, 화물 수송, 산불 감시, 방사능 감시 등 사람이 직접 수행하기가 힘들거나 직접 수행하기에 위험한 임무를 수행하는 비행기를 의미한다.Unmanned Aerial Vehicles (UAVs) fly by remote control or autonomous flight control without a pilot on board, so that it is difficult for humans to perform them directly, such as reconnaissance, bombing, cargo transportation, forest fire monitoring, and radiation monitoring. It means an airplane performing a dangerous mission.

무인비행기는 임무수행이 끝난 후 원하는 지점에 안전하게 착륙시키는 일이 중요한데, 조종사가 탑승하여 조종하지 않기 때문에 지상 혹은 착륙대에 착륙하는 과정에서 추락하지 않도록 정밀하게 착륙을 제어할 필요가 있다.It is important for an unmanned aerial vehicle to land safely at a desired point after completing its mission, but it is necessary to precisely control the landing so that it does not fall down during landing on the ground or on the landing pad because the pilot is not on board and controls it.

무인비행기의 착륙관련 항행시스템은 무인비행기 기종마다 다양하게 구현되고 있다. 일반적으로 무인비행기의 항행 또는 착륙 유도에는 GPS와 관성유도장치가 주로 사용되는데, 그 중에서도 GPS가 칩셋 가격이 저렴하고 크기가 소형이기 때문에 선호되는 경향이 있다. 예컨대, 무인기의 일종인 프레데터(Predator)와 같은 무인기의 경우에는 정밀접근 레이더 및 비디오 카메라 등을 이용하여 수동조종 착륙이 가능하도록 구현되어 있다.Landing-related navigation systems of unmanned aerial vehicles are being implemented in various ways for each type of unmanned aerial vehicle. In general, GPS and inertial guidance devices are mainly used for navigation or landing guidance of unmanned aerial vehicles. Among them, GPS tends to be preferred because of its low chipset price and small size. For example, in the case of an unmanned aerial vehicle such as a Predator, which is a kind of unmanned aerial vehicle, it is implemented to enable manually controlled landing using a precision approach radar and a video camera.

대표적인 무인 비행기로 멀티콥터를 들 수 있다.A typical example of an unmanned aerial vehicle is a multicopter.

멀티콥터(multicopter) 또는 멀티로터(multirotor)는 고정익 비행체와 대비되어 두 개 이상의 로터(rotor)를 이용하여 부양력을 얻는 비행체를 의미하며, 비행체의 운동은 각 로터의 상대적인 회전속도를 조정하여 이루어진다.A multicopter or multirotor refers to a vehicle that obtains buoyancy by using two or more rotors as opposed to a fixed-wing vehicle, and the movement of the vehicle is made by adjusting the relative rotational speed of each rotor.

최근, 멀티콥터는 주로 군사무기로만 활용되던 무인항공기로서 다양한 분야에서 새롭게 주목을 받고 있다. Recently, a multicopter is receiving new attention in various fields as an unmanned aerial vehicle that has been mainly used only as a military weapon.

예를 들어, 차세대 물류 배송수단으로 부각이 되는가 하면, 농업, 재난 구조, 방송, 레저 등과 같이 다양한 분야에서 활용되면서 무한한 가능성을 인정받고 있다.For example, it is emerging as a next-generation logistics delivery method, and its infinite potential is recognized as it is used in various fields such as agriculture, disaster relief, broadcasting, and leisure.

이러한 멀티콥터는 로터의 숫자에 따라서 4-, 6-, 8-로터 헬리콥터(helicopter), 드론 등으로 불리기도 한다.These multicopters are also called 4-, 6-, 8-rotor helicopters, drones, etc. depending on the number of rotors.

한편, 드론은 철도시설물 점검을 위해 활용될 수도 있는데, 이때, 철도환경에서 전차선에는 AC 25KV, DC 3000V의 큰 전압이 걸리며 열차가 지나가는 순간에 최대 300A까지 많은 전류가 흐른다. On the other hand, drones can also be used to inspect railway facilities. At this time, in a railway environment, large voltages of AC 25KV and DC 3000V are applied to the catenary, and a large current flows up to 300A at the moment the train passes.

따라서 전차선 주변에는 큰 자기장이 형성되어 드론의 항법센서 중 하나인 지자기 센서에 큰 영향을 미친다. Therefore, a large magnetic field is formed around the catenary, which greatly affects the geomagnetic sensor, which is one of the drone's navigation sensors.

반면, 열차가 운행하지 않을 때는 상대적으로 적은 전류가 흐르기 때문에 전차선 주변 자기장은 열차가 지나갈 때보다는 작은 편이나 항법센서에 영향을 준다. On the other hand, since relatively little current flows when the train is not running, the magnetic field around the catenary is smaller than when the train passes, but it affects the navigation sensor.

이와 같이 철도환경에서는 자기장의 변화가 심하며 이는 항법센서에 교란을 일으키므로, 철도환경에서 드론이 비행을 위해, 자기장의 변화에 대처하기 어렵다는 문제점이 있다.As such, there is a problem in that it is difficult to cope with the change in the magnetic field in the railway environment for the drone to fly in the railway environment because the change in the magnetic field is severe in the railway environment and it causes a disturbance in the navigation sensor.

즉, 멀티콥터는 GPS, 가속도계, 지자기센서, 고도계 등을 모두 활용하여 위치를 측위하고 항법을 수행하는데, 항법을 수행하기 위해서는 위치정보와 헤딩정보, 가속도 정보가 필요하고, 이 중 헤딩정보는 지자기센서로부터 취득하게 된다. In other words, the multicopter uses all of the GPS, accelerometer, geomagnetic sensor, and altimeter to position a location and perform navigation. In order to perform navigation, location information, heading information, and acceleration information are required, of which heading information is geomagnetic. obtained from the sensor.

이때, 지자기센서는 나침반처럼 지구의 자력을 감지하여 멀티 콥터가 어느 곳을 향하고 있는지 감지하는 센서이고, 멀티콥터가 전차선에 접근하게 되면 전차선에 흐르는 전류에 의해 발생된 자기장의 영향을 받게 된다. At this time, the geomagnetic sensor is a sensor that senses the magnetic force of the earth like a compass and detects where the multicopter is heading, and when the multicopter approaches the catenary, it is affected by the magnetic field generated by the current flowing in the catenary.

이때, 유도된 자기장은 멀티콥터에 장착된 지자기 센서의 헤딩 각도에 큰 오차를 발생시키게 되고, 헤딩을 인지하지 못한 멀티콥터는 추락할 수 있다는 문제점이 있다.At this time, the induced magnetic field causes a large error in the heading angle of the geomagnetic sensor mounted on the multicopter, and there is a problem that the multicopter that does not recognize the heading may fall.

등록특허 KR 10-1586188호Registered Patent KR 10-1586188

본 발명은 전술한 문제점을 해소하기 위해, 멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 시스템 및 그 제어방법을 제공하고자 한다.In order to solve the above-mentioned problems, the present invention is to provide a navigation information correction system and a control method therefor by geomagnetic disturbance when a multicopter's catenary approaches.

구체적으로 본 발명은 멀티콥터에 장착된 짐벌과 짐벌에 장착된 카메라 및 거리측정 센서, 카메라 정보와 거리측정 센서 정보를 받아서 처리하는 항법 컴퓨터로 구성된 시스템을 제공하고자 한다.Specifically, the present invention is to provide a system comprising a gimbal mounted on a multicopter, a camera mounted on the gimbal, a distance measuring sensor, and a navigation computer that receives and processes camera information and distance measuring sensor information.

또한, 본 발명은 레일을 추종하여 카메라의 방향을 자동으로 조정하는 방법을 사용자에게 제공하고자 한다.In addition, an object of the present invention is to provide a user with a method for automatically adjusting the direction of a camera by following a rail.

또한, 본 발명은 길이방향의 레일이 영상에서 틀어진 각도와 짐벌이 멀티콥터에서 틀어진 각도, 레일과의 거리정보를 이용하여 멀티콥터의 헤딩정보를 계산하는 시스템 및 방법을 사용자에게 제공하고자 한다.Another object of the present invention is to provide a user with a system and method for calculating heading information of a multicopter by using the angle at which the longitudinal rail is misaligned in the image, the angle at which the gimbal is misaligned in the multicopter, and distance information from the rail.

또한, 본 발명은 개발된 시스템과 GPS, 가속도계, 고도계를 이용한 멀티콥터 항법시스템 및 그 제어방법을 사용자에게 제공하고자 한다.In addition, the present invention is to provide a user with a multicopter navigation system using the developed system, GPS, accelerometer, and altimeter, and a method for controlling the same.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned are clearly to those of ordinary skill in the art to which the present invention belongs from the description below. can be understood

상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 멀티콥터의 항법정보 보정 방법은, 적어도 하나의 멀티콥터가, 카메라를 이용하여 지상에 부설된 적어도 하나의 레일을 촬영하는 제 1 단계; 상기 적어도 하나의 멀티콥터가, 상기 적어도 하나의 레일의 설치 방향을 이용하여 헤딩 정보를 산출하는 제 2 단계; 상기 적어도 하나의 멀티콥터가, 상기 산출한 헤딩 정보를 기초로 이동하면서, 상기 적어도 하나의 레일을 촬영하는 제 3 단계; 상기 적어도 하나의 멀티콥터가, 상기 헤딩 정보 및 상기 촬영한 영상 정보를 서버로 전송하는 제 4 단계; 상기 서버가, 상기 헤딩 정보를 기초로, 미리 저장된 상기 적어도 하나의 레일과 관련된 지도 정보와 상기 영상 정보를 매칭하는 제 5 단계; 및 상기 서버가, 상기 매칭된 지도 정보 및 상기 매칭된 영상 정보를 기초로, 상기 적어도 하나의 레일과 관련된 손상을 검지하는 제 6 단계;를 포함할 수 있다.A method of correcting navigation information of a multicopter according to an aspect of the present invention for achieving the above technical problem, the at least one multicopter, a first step of photographing at least one rail installed on the ground using a camera; a second step of calculating, by the at least one multicopter, heading information using an installation direction of the at least one rail; a third step of photographing, by the at least one multicopter, the at least one rail while moving based on the calculated heading information; a fourth step of transmitting, by the at least one multicopter, the heading information and the captured image information to a server; a fifth step of matching, by the server, the image information with map information related to the at least one rail stored in advance based on the heading information; and a sixth step of detecting, by the server, damage related to the at least one rail based on the matched map information and the matched image information.

또한, 상기 제 2 단계는, 상기 적어도 하나의 멀티콥터가, 상기 적어도 하나의 레일의 설치 방향을 추종하여 상기 카메라의 방향을 자동으로 조정하는 제 2-1 단계; 상기 적어도 하나의 멀티콥터가, 상기 촬영한 영상 내의 일정 지점을 기초로 상기 적어도 하나의 레일이 틀어진 제 1 각도 정보, 상기 카메라와 상기 적어도 하나의 멀티콥터 간을 연결하는 짐벌이 상기 멀티콥터를 기준으로 틀어진 제 2 각도 정보 및 거리 센서를 통해 상기 적어도 하나의 레일과 상기 적어도 하나의 멀티콥터 간의 이격 거리 정보를 획득하는 제 2-2 단계; 및 상기 제 1 각도 정보, 상기 제 2 각도 정보 및 상기 이격 거리 정보를 기초로 상기 헤딩 정보를 산출하는 제 2-3 단계; 를 포함할 수 있다.In addition, the second step, the at least one multicopter, a step 2-1 of automatically adjusting the direction of the camera by following the installation direction of the at least one rail; First angle information at which the at least one rail is twisted based on a predetermined point in the image taken by the at least one multicopter, and a gimbal connecting the camera and the at least one multicopter is based on the multicopter a step 2-2 of obtaining separation distance information between the at least one rail and the at least one multicopter through the second angle information and the distance sensor that are distorted; and step 2-3 of calculating the heading information based on the first angle information, the second angle information, and the separation distance information. may include.

또한, 상기 제 2 단계는, 미리 지정된 주기에 따라 수행되고, 상기 헤딩 정보는 변경 가능할 수 있다.In addition, the second step may be performed according to a predetermined period, and the heading information may be changeable.

또한, 상기 제 5 단계는, 상기 서버가, 상기 헤딩 정보를 기초로 상기 적어도 하나의 멀티콥터의 자세 좌표를 산출하는 제 5-1 단계; 상기 영상 정보 내의 상기 적어도 하나의 멀티콥터의 궤도 상에, 상기 영상 정보 촬영 당시의 상기 적어도 하나의 멀티콥터의 위치 및 상기 산출된 자세 좌표를 동기화시키는 제 5-2 단계; 및 상기 동기화 작업을 기초로, 상기 영상 정보의 위치가 상기 지도 정보 내의 궤도에서 어디에 위치한 것인지를 매칭하는 제 5-3 단계; 를 포함할 수 있다.In addition, the fifth step may include: a 5-1 step in which the server calculates the posture coordinates of the at least one multicopter based on the heading information; a 5-2 step of synchronizing the position of the at least one multicopter at the time of capturing the image information and the calculated posture coordinates on the trajectory of the at least one multicopter in the image information; and a 5-3 step of matching where the position of the image information is located in the trajectory in the map information based on the synchronization operation; may include.

또한, 상기 지도 정보는, 지리정보시스템(Geographic Information System, GIS)을 통한 정보일 수 있다.Also, the map information may be information through a Geographic Information System (GIS).

한편, 상기의 기술적 과제를 달성하기 위한 본 발명의 다른 양상인 적어도 하나의 멀티콥터 및 서버를 포함하는 멀티콥터의 항법정보 보정 시스템에 있어서, 상기 적어도 하나의 멀티콥터는, 카메라를 이용하여 지상에 부설된 적어도 하나의 레일을 촬영하고, 상기 적어도 하나의 레일의 설치 방향을 이용하여 헤딩 정보를 산출하며, 상기 산출한 헤딩 정보를 기초로 이동하면서, 상기 적어도 하나의 레일을 촬영하고, 상기 헤딩 정보 및 상기 촬영한 영상 정보를 서버로 전송하며, 상기 서버는, 상기 헤딩 정보를 기초로, 미리 저장된 상기 적어도 하나의 레일과 관련된 지도 정보와 상기 영상 정보를 매칭하고, 상기 매칭된 지도 정보 및 상기 매칭된 영상 정보를 기초로, 상기 적어도 하나의 레일과 관련된 손상을 검지할 수 있다.On the other hand, in the navigation information correction system of a multicopter including at least one multicopter and a server, which is another aspect of the present invention for achieving the above technical problem, the at least one multicopter is on the ground using a camera. Photographing the at least one installed rail, calculating heading information using the installation direction of the at least one rail, moving based on the calculated heading information, photographing the at least one rail, and the heading information and transmits the photographed image information to a server, wherein the server matches the image information with the map information related to the at least one rail stored in advance based on the heading information, and the matched map information and the matching Based on the obtained image information, it is possible to detect damage related to the at least one rail.

또한, 상기 적어도 하나의 멀티콥터는, 상기 적어도 하나의 레일의 설치 방향을 추종하여 상기 카메라의 방향을 자동으로 조정하고, 상기 촬영한 영상 내의 일정 지점을 기초로 상기 적어도 하나의 레일이 틀어진 제 1 각도 정보, 상기 카메라와 상기 적어도 하나의 멀티콥터 간을 연결하는 짐벌이 상기 멀티콥터를 기준으로 틀어진 제 2 각도 정보 및 거리 센서를 통해 상기 적어도 하나의 레일과 상기 적어도 하나의 멀티콥터 간의 이격 거리 정보를 획득하며, 상기 제 1 각도 정보, 상기 제 2 각도 정보 및 상기 이격 거리 정보를 기초로 상기 헤딩 정보를 산출할 수 있다.In addition, the at least one multicopter automatically adjusts the direction of the camera by following the installation direction of the at least one rail, and the at least one rail is twisted first based on a certain point in the captured image. Angle information, second angle information in which a gimbal connecting the camera and the at least one multicopter is twisted with respect to the multicopter, and separation distance information between the at least one rail and the at least one multicopter through a distance sensor , and the heading information may be calculated based on the first angle information, the second angle information, and the separation distance information.

또한, 상기 서버는, 상기 헤딩 정보를 기초로 상기 적어도 하나의 멀티콥터의 자세 좌표를 산출하고, 상기 영상 정보 내의 상기 적어도 하나의 멀티콥터의 궤도 상에, 상기 영상 정보 촬영 당시의 상기 적어도 하나의 멀티콥터의 위치 및 상기 산출된 자세 좌표를 동기화시키며, 상기 동기화 작업을 기초로, 상기 영상 정보의 위치가 상기 지도 정보 내의 궤도에서 어디에 위치한 것인지를 매칭할 수 있다.In addition, the server calculates the posture coordinates of the at least one multicopter based on the heading information, and on the trajectory of the at least one multicopter in the image information, the at least one It is possible to synchronize the position of the multicopter and the calculated posture coordinates, and match where the position of the image information is located in the trajectory in the map information based on the synchronization operation.

본 발명은 전술한 문제점을 해소하기 위해, 멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 시스템 및 그 제어방법을 제공할 수 있다.The present invention can provide a navigation information correction system and a control method therefor by geomagnetic disturbance when a multicopter approaches a catenary in order to solve the above problems.

구체적으로 본 발명은 멀티콥터에 장착된 짐벌과 짐벌에 장착된 카메라 및 거리측정 센서, 카메라 정보와 거리측정 센서 정보를 받아서 처리하는 항법 컴퓨터로 구성된 시스템을 제공할 수 있다.Specifically, the present invention can provide a system comprising a gimbal mounted on a multicopter, a camera mounted on the gimbal, a distance measurement sensor, and a navigation computer that receives and processes camera information and distance measurement sensor information.

또한, 본 발명은 레일을 추종하여 카메라의 방향을 자동으로 조정하는 방법을 사용자에게 제공할 수 있다.In addition, the present invention can provide a user with a method of automatically adjusting the direction of the camera by following the rail.

또한, 본 발명은 길이방향의 레일이 영상에서 틀어진 각도와 짐벌이 멀티콥터에서 틀어진 각도, 레일과의 거리정보를 이용하여 멀티콥터의 헤딩정보를 계산하는 시스템 및 방법을 사용자에게 제공할 수 있다.In addition, the present invention can provide the user with a system and method for calculating the heading information of the multicopter by using the angle at which the longitudinal rail is misaligned in the image, the angle at which the gimbal is misaligned in the multicopter, and distance information from the rail.

또한, 본 발명은 개발된 시스템과 GPS, 가속도계, 고도계를 이용한 멀티콥터 항법시스템 및 그 제어방법을 사용자에게 제공할 수 있다.In addition, the present invention can provide a user with a multicopter navigation system using the developed system, GPS, an accelerometer, and an altimeter, and a method for controlling the same.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able

도 1은 무인비행기의 일종인 쿼드콥터의 일반적인 평면 구성도의 일례를 도시한 것이다.
도 2는 본 발명과 관련된 일반적인 쿼드콥터의 작동 원리를 예시하여 보여주는 도면이다.
도 3은 본 발명이 제안하는 멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 시스템의 블록구성도 일례를 도시한 것이다.
도 4는 본 발명이 제안하는 시스템에 적용되는 드론의 블록구성도 일례를 도시한 것이다.
도 5는 본 발명과 관련하여, 멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 방법을 설명하는 순서도이다.
도 6은 본 발명과 관련하여, 레일의 방향을 인지하여 멀티콥터의 헤딩정보를 보정하는 방법을 설명하는 순서도이다.
도 7은 본 발명과 관련하여, 보정된 헤딩정보를 이용하여 궤도 영상과 GIS 도면의 영상을 매칭하는 방법을 설명하는 순서도이다.
1 shows an example of a general plan configuration of a quadcopter, which is a kind of unmanned aerial vehicle.
2 is a view showing an example of the operating principle of a general quadcopter related to the present invention.
3 shows an example of a block configuration diagram of a navigation information correction system by geomagnetic disturbance when the multicopter of the present invention approaches a catenary.
4 shows an example of a block diagram of a drone applied to the system proposed by the present invention.
5 is a flowchart illustrating a method of correcting navigation information by geomagnetic disturbance when a multicopter approaches a catenary in relation to the present invention.
6 is a flowchart illustrating a method of correcting heading information of a multicopter by recognizing the direction of a rail in relation to the present invention.
7 is a flowchart illustrating a method of matching an orbit image with an image of a GIS diagram using corrected heading information in relation to the present invention.

멀티 콥터(드론)Multicopter (Drone)

무인 항공기(unmanned aerial vehicle, UAV) 또는 단순히 드론(drone)은 조종사를 탑승하지 않고 지정된 임무를 수행할 수 있도록 제작한 비행체이다. An unmanned aerial vehicle (UAV), or simply a drone, is an air vehicle designed to perform a designated mission without a pilot.

무인 항공기의 다른 이름으로 벌이 윙윙거린다는 것에서 드론(drone)이라고도 불리기도 한다. Another name for unmanned aerial vehicles is the buzzing of bees, which is why they are also called drones.

기체에 사람이 타지 않은 것으로 지상에는 원격 조종하는 조종사가 존재하고 있다는 점을 강조해 Uninhabited Aerial(Air) Vehicle의 약어로 지칭하는 경우도 있다.It is sometimes referred to as an abbreviation of Uninhabited Aerial (Air) Vehicle, emphasizing the fact that there is a remote-controlled pilot on the ground as there are no people on the aircraft.

무인 항공기는 독립된 체계 또는 우주, 지상 체계들과 연동시켜 운용된다.Unmanned aerial vehicles operate as independent systems or in conjunction with space and ground systems.

활용분야에 따라 다양한 장비(광학, 적외선, 레이더 센서 등)를 탑재하여 감시, 정찰, 정밀공격무기의 유도, 통신/정보중계, EA/EP, Decoy 등의 임무를 수행하며, 폭약을 장전시켜 정밀무기 자체로도 개발되어 실용화되고 있어 향후 미래의 주요 군사력 수단으로도 주목을 받고 있다.Various equipment (optical, infrared, radar sensor, etc.) is loaded depending on the field of application to carry out missions such as monitoring, reconnaissance, induction of precision attack weapons, communication/information relay, EA/EP, and Decoy, and loading explosives to provide precision As a weapon itself has been developed and put to practical use, it is attracting attention as a major means of military power in the future.

대표적인 무인 비행기로 멀티콥터를 들 수 있다.A typical example of an unmanned aerial vehicle is a multicopter.

멀티콥터(multicopter) 또는 멀티로터(multirotor)는 고정익 비행체와 대비되어 두 개 이상의 로터(rotor)를 이용하여 부양력을 얻는 비행체를 의미하며, 비행체의 운동은 각 로터의 상대적인 회전속도를 조정하여 이루어진다.A multicopter or multirotor refers to a vehicle that obtains buoyancy by using two or more rotors as opposed to a fixed-wing vehicle, and the movement of the vehicle is made by adjusting the relative rotational speed of each rotor.

이하에서는 설명의 편의를 위해, 본 발명이 적용되는 무인 비행기의 종류가 쿼드콥터 인 것으로 가정하여 설명한다.Hereinafter, for convenience of description, it is assumed that the type of the unmanned aerial vehicle to which the present invention is applied is a quadcopter.

그러나 본 발명의 내용이 쿼드콥터에 제한되는 것은 아니고, 다른 종류의 무인 비행기에 적용될 수 있는 것은 자명하다.However, the content of the present invention is not limited to the quadcopter, it is obvious that it can be applied to other types of unmanned aerial vehicles.

도 1은 무인비행기의 일종인 쿼드콥터의 일반적인 평면 구성도의 일례를 도시한 것이다.1 shows an example of a general plan configuration of a quadcopter, which is a kind of unmanned aerial vehicle.

도 1을 참고하면, 쿼드콥터(100)는 몸체부(10)와, 몸체부(10)에서 방사형으로 고정되는 4개의 암(20)과, 각 암(20)에 마련된 모터(40)에 의해 회전 구동이 이루어지는 4개의 프로펠러(30)로 구성된다.Referring to FIG. 1 , the quadcopter 100 includes a body 10 , four arms 20 radially fixed to the body 10 , and a motor 40 provided on each arm 20 . It is composed of four propellers 30 that are rotationally driven.

이와 같이 구성된 쿼드콥터(100)는 각 프로펠러(30)의 회전속도를 제어하여 비행에 필요한 추력과 자세제어가 이루어진다.The quadcopter 100 configured in this way controls the rotation speed of each propeller 30 to perform thrust and attitude control necessary for flight.

또한, 도 2는 본 발명과 관련된 일반적인 쿼드콥터의 작동 원리를 예시하여 보여주는 도면이다.In addition, FIG. 2 is a view showing the operation principle of a general quadcopter related to the present invention.

도 2에서 각 프로펠러의 화살표는 회전 방향과 속도의 크기를 나타낸다.In FIG. 2, arrows of each propeller indicate the rotation direction and the magnitude of the speed.

도 2를 참고하면, 서로 대향하여 배치되는 제1프로펠러(31) 및 제3프로펠러(33)와, 제2프로펠러(32) 및 제4프로펠러(34)는 서로 반대 방향으로 동일한 회전속도로 회전이 이루어지는 경우에 회전 속도의 크기에 따라서 쿼드콥터는 평행한 자세로 높이 조정이 이루어지거나 호버링(hovering)이 이루어진다(a).Referring to FIG. 2 , the first propeller 31 and the third propeller 33 and the second propeller 32 and the fourth propeller 34 disposed to face each other rotate in opposite directions at the same rotational speed. In this case, the height of the quadcopter is adjusted in a parallel posture or hovering is made according to the size of the rotation speed (a).

또한, 4개의 프로펠러 중의 특정 프로펠러의 회전 속도를 변화시켜 요잉(yawing), 롤링(rolling) 및 피칭(pitching)이 이루어질 수 있다.In addition, yawing, rolling, and pitching can be performed by changing the rotational speed of a specific propeller among the four propellers.

예를 들어, 제1프로펠러(31) 및 제3프로펠러(33)와, 제2프로펠러(32) 및 제4프로펠러(34)의 회전 속도를 서로 다르게 제어함으로써, 비행체의 요잉 제어가 이루어질 수 있으며(b), 4개의 프로펠러 중에서 특정 프로펠러만의 회전 속도를 다르게 제어하여 비행체의 피칭 제어가 이루어질 수 있다.For example, by controlling the rotational speeds of the first propeller 31 and the third propeller 33 and the second propeller 32 and the fourth propeller 34 differently from each other, the yaw control of the aircraft can be achieved ( b), by controlling the rotation speed of only a specific propeller out of the four propellers differently, the pitching control of the aircraft can be made.

이와 같이 작동이 이루어지는 쿼드콥터는 특정 방향으로 이동하고자 하는 경우에는 피칭 제어를 통하여 이루어지며, 이는 프로펠러의 숫자와 무관하게 멀티콥터에서는 기본적인 작동 원리에 해당한다.When the quadcopter that operates in this way wants to move in a specific direction, it is done through pitching control, which corresponds to a basic operating principle in a multicopter regardless of the number of propellers.

종래기술의 문제점Problems of the prior art

드론은 철도시설물 점검을 위해 활용될 수도 있는데, 이때, 철도환경에서 전차선에는 AC 25KV, DC 3000V의 큰 전압이 걸리며 열차가 지나가는 순간에 최대 300A까지 많은 전류가 흐른다. Drones can also be used to inspect railway facilities. At this time, in a railway environment, large voltages of AC 25KV and DC 3000V are applied to the catenary, and a large current flows up to 300A at the moment the train passes.

따라서 전차선 주변에는 큰 자기장이 형성되어 드론의 항법센서 중 하나인 지자기 센서에 큰 영향을 미친다. Therefore, a large magnetic field is formed around the catenary, which greatly affects the geomagnetic sensor, which is one of the drone's navigation sensors.

반면, 열차가 운행하지 않을 때는 상대적으로 적은 전류가 흐르기 때문에 전차선 주변 자기장은 열차가 지나갈 때보다는 작은 편이나 항법센서에 영향을 준다. On the other hand, since relatively little current flows when the train is not running, the magnetic field around the catenary is smaller than when the train passes, but it affects the navigation sensor.

이와 같이 철도환경에서는 자기장의 변화가 심하며 이는 항법센서에 교란을 일으키므로, 철도환경에서 드론이 비행을 위해, 자기장의 변화에 대처하기 어렵다는 문제점이 있다.As such, there is a problem in that it is difficult to cope with the change in the magnetic field in the railway environment for the drone to fly in the railway environment because the change in the magnetic field is severe in the railway environment and it causes a disturbance in the navigation sensor.

즉, 멀티콥터는 GPS, 가속도계, 지자기센서, 고도계 등을 모두 활용하여 위치를 측위하고 항법을 수행하는데, 항법을 수행하기 위해서는 위치정보와 헤딩정보, 가속도 정보가 필요하고, 이 중 헤딩정보는 지자기센서로부터 취득하게 된다. In other words, the multicopter uses all of the GPS, accelerometer, geomagnetic sensor, and altimeter to position a location and perform navigation. In order to perform navigation, location information, heading information, and acceleration information are required, of which heading information is geomagnetic. obtained from the sensor.

이때, 지자기센서는 나침반처럼 지구의 자력을 감지하여 멀티 콥터가 어느 곳을 향하고 있는지 감지하는 센서이고, 멀티콥터가 전차선에 접근하게 되면 전차선에 흐르는 전류에 의해 발생된 자기장의 영향을 받게 된다. At this time, the geomagnetic sensor is a sensor that senses the magnetic force of the earth like a compass and detects where the multicopter is heading, and when the multicopter approaches the catenary, it is affected by the magnetic field generated by the current flowing in the catenary.

이때, 유도된 자기장은 멀티콥터에 장착된 지자기 센서의 헤딩 각도에 큰 오차를 발생시키게 되고, 헤딩을 인지하지 못한 멀티콥터는 추락할 수 있다는 문제점이 있다.At this time, the induced magnetic field causes a large error in the heading angle of the geomagnetic sensor mounted on the multicopter, and there is a problem that the multicopter that does not recognize the heading may fall.

따라서 본 발명은 전술한 문제점을 해소하기 위해, 멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 시스템 및 그 제어방법을 제공하고자 한다.Accordingly, in order to solve the above-described problems, the present invention is to provide a navigation information correction system and a control method therefor by geomagnetic disturbance when a multicopter approaches a catenary.

구체적으로 본 발명은 멀티콥터에 장착된 짐벌과 짐벌에 장착된 카메라 및 거리측정 센서, 카메라 정보와 거리측정 센서 정보를 받아서 처리하는 항법 컴퓨터로 구성된 시스템을 제공하고자 한다.Specifically, the present invention is to provide a system comprising a gimbal mounted on a multicopter, a camera mounted on the gimbal, a distance measuring sensor, and a navigation computer that receives and processes camera information and distance measuring sensor information.

또한, 본 발명은 레일을 추종하여 카메라의 방향을 자동으로 조정하는 방법을 사용자에게 제공하고자 한다.In addition, an object of the present invention is to provide a user with a method for automatically adjusting the direction of a camera by following a rail.

또한, 본 발명은 길이방향의 레일이 영상에서 틀어진 각도와 짐벌이 멀티콥터에서 틀어진 각도, 레일과의 거리정보를 이용하여 멀티콥터의 헤딩정보를 계산하는 시스템 및 방법을 사용자에게 제공하고자 한다.Another object of the present invention is to provide a user with a system and method for calculating heading information of a multicopter by using the angle at which the longitudinal rail is misaligned in the image, the angle at which the gimbal is misaligned in the multicopter, and distance information from the rail.

또한, 본 발명은 개발된 시스템과 GPS, 가속도계, 고도계를 이용한 멀티콥터 항법시스템 및 그 제어방법을 사용자에게 제공하고자 한다.In addition, the present invention is to provide a user with a multicopter navigation system using the developed system, GPS, accelerometer, and altimeter, and a method for controlling the same.

멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 시스템Navigation information correction system by geomagnetic disturbance when multicopter's catenary approaches

도 3은 본 발명이 제안하는 멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 시스템의 블록구성도 일례를 도시한 것이다.3 shows an example of a block configuration diagram of a navigation information correction system by geomagnetic disturbance when the multicopter of the present invention approaches a catenary.

도 3을 참조하면, 본 발명이 제안하는 멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 시스템은 전술한 복수의 드론(1000), 항법 관리부(10) 및 전차선(100)를 포함할 수 있다.Referring to FIG. 3 , the system for correcting navigation information by geomagnetic disturbance when the multicopter of the multicopter approaches the catenary according to the present invention may include the plurality of drones 1000, the navigation management unit 10 and the catenary 100 described above. .

여기서 항법 관리부(10)는 복수의 드론(1000)과 통신하여 전차선(100)과 관련된 정보를 수집하는 동작을 수행할 수 있다.Here, the navigation management unit 10 may communicate with the plurality of drones 1000 and perform an operation of collecting information related to the catenary 100 .

여기서, 복수의 드론(1000) 및 항법 관리부(10) 간에는 근거리 통신 또는 원거리 통신 방식이 적용될 수 있다.Here, a short-distance communication method or a long-distance communication method may be applied between the plurality of drones 1000 and the navigation management unit 10 .

여기서 근거리 통신은 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-Wideband), ZigBee, Wi-Fi (Wireless Fidelity) 기술을 포함할 수 있다.Here, the short-range communication may include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Wireless Fidelity (Wi-Fi) technologies.

또한, 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 기술을 포함할 수 있다.In addition, long-distance communication is CDMA (code division multiple access), FDMA (frequency division multiple access), TDMA (time division multiple access), OFDMA (orthogonal frequency division multiple access), SC-FDMA (single carrier frequency division multiple access) technology may include.

본 발명에 적용되는 멀티콥터Multicopter applied to the present invention

도 4는 본 발명이 제안하는 시스템에 적용되는 드론의 블록구성도 일례를 도시한 것이다.4 shows an example of a block diagram of a drone applied to the system proposed by the present invention.

도 4를 참조하면, 본 발명에 따른 드론(1000)은, 무선 통신부(1110), A/V(Audio/Video) 입력부(1120), 사용자 입력부(1130), 센싱부(1140), 출력부(1150), 메모리(1160), 인터페이스부(1170), 제어부(1180), 전원공급부(1190) 등을 포함할 수 있다. 4, the drone 1000 according to the present invention includes a wireless communication unit 1110, an A/V (Audio/Video) input unit 1120, a user input unit 1130, a sensing unit 1140, and an output unit ( 1150 ), a memory 1160 , an interface unit 1170 , a controller 1180 , a power supply unit 1190 , and the like.

도 4에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 기기가 구현될 수도 있다.Since the components shown in FIG. 4 are not essential, a device having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in turn.

무선 통신부(1110)는 드론(1000)와 무선 통신 시스템 사이 또는 드론(1000)와 드론(1000)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(1110)는 방송 수신 모듈(111), 이동통신 모듈(1112), 무선 인터넷 모듈(1113), 근거리 통신 모듈(1114) 및 위치정보 모듈(1115) 등을 포함할 수 있다.The wireless communication unit 1110 may include one or more modules that enable wireless communication between the drone 1000 and a wireless communication system or between the drone 1000 and a network in which the drone 1000 is located. For example, the wireless communication unit 1110 may include a broadcast reception module 111 , a mobile communication module 1112 , a wireless Internet module 1113 , a short-range communication module 1114 , and a location information module 1115 , etc. .

방송 수신 모듈(1111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast reception module 1111 receives a broadcast signal and/or broadcast related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 드론(1000)에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server that generates and transmits a broadcast signal and/or broadcast-related information or a server that receives a previously generated broadcast signal and/or broadcast-related information and transmits the received broadcast signal and/or broadcast-related information to the drone 1000 . The broadcast signal may include a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, as well as a TV broadcast signal or a broadcast signal in which a data broadcast signal is combined with a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(1112)에 의해 수신될 수 있다.The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast-related information may be provided through a mobile communication network. In this case, it may be received by the mobile communication module 1112 .

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, it may exist in the form of an Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or an Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(1111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), DVB-CBMS, OMA-BCAST, ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(1111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast reception module 1111 is, for example, Digital Multimedia Broadcasting-Terrestrial (DMB-T), Digital Multimedia Broadcasting-Satellite (DMB-S), Media Forward Link Only (MediaFLO), Digital Video Broadcast (DVB-H). -Handheld), DVB-CBMS, OMA-BCAST, ISDB-T (Integrated Services Digital Broadcast-Terrestrial), etc. digital broadcasting systems can be used to receive digital broadcasting signals. Of course, the broadcast reception module 1111 may be configured to be suitable not only for the above-described digital broadcast system but also for other broadcast systems.

방송 수신 모듈(1111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(1160)에 저장될 수 있다.A broadcast signal and/or broadcast related information received through the broadcast reception module 1111 may be stored in the memory 1160 .

이동통신 모듈(1112)은, 이동 통신망 상에서 기지국, 외부의 드론(1000), 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 신호, 화상 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 1112 transmits/receives wireless signals to and from at least one of a base station, an external drone 1000, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission/reception of an audio signal, an image signal, or a text/multimedia message.

무선 인터넷 모듈(1113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 드론(1000)에 내장되거나 외장될 수 있다.The wireless Internet module 1113 refers to a module for wireless Internet access, and may be built-in or external to the drone 1000 .

상기 무선 인터넷의 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.As the wireless Internet technology, WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), etc. may be used.

근거리 통신 모듈(1114)은 근거리 통신을 위한 모듈을 말한다. 상기 근거리 통신(short range communication)의 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 1114 refers to a module for short-range communication. As the short-range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.

위치 정보 모듈(1115)은 드론(1000)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(1115)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈(1115)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다. The location information module 1115 is a module for obtaining the location of the drone 1000 , and a representative example thereof is a Global Position System (GPS) module. According to the current technology, the GPS module 1115 calculates distance information and accurate time information from three or more satellites, and then applies trigonometry to the calculated information, thereby generating a three-dimensional current according to latitude, longitude, and altitude. Location information can be accurately calculated. Currently, a method of calculating position and time information using three satellites and correcting errors in the calculated position and time information using another one satellite is widely used. Also, the GPS module 1115 may calculate speed information by continuously calculating the current location in real time.

도 4를 참조하면, A/V(Audio/Video) 입력부(1120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1121)와 마이크(1122) 등이 포함될 수 있다. 카메라(1121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(1151)에 표시될 수 있다.Referring to FIG. 4 , the A/V (Audio/Video) input unit 1120 is for inputting an audio signal or a video signal, and may include a camera 1121 , a microphone 1122 , and the like. The camera 1121 processes an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a photographing mode. The processed image frame may be displayed on the display unit 1151 .

카메라(1121)에서 처리된 화상 프레임은 메모리(1160)에 저장되거나 무선 통신부(1110)를 통하여 외부로 전송될 수 있다. The image frame processed by the camera 1121 may be stored in the memory 1160 or transmitted to the outside through the wireless communication unit 1110 .

이때, 카메라(1121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.In this case, two or more cameras 1121 may be provided according to the use environment.

일 예로, 상기 카메라(1121)는 기기(100)의 디스플레이부(1151)가 구비된 반대면에 3D 영상 촬영을 위한 제1 및 제2 카메라(1121a, 1121b)가 구비될 수 있고, 상기 드론(1000)의 디스플레이부(1151)가 구비된 면의 일부 영역에 사용자의 셀프 촬영을 위한 제3 카메라(1121c)가 구비될 수 있다.For example, the camera 1121 may be provided with first and second cameras 1121a and 1121b for capturing a 3D image on the opposite surface of the device 100 on which the display unit 1151 is provided, and the drone ( A third camera 1121c for a user's self-photography may be provided in a portion of the surface on which the display unit 1151 of 1000 is provided.

이때, 제1 카메라(1121a)는 3D 영상의 소스 영상인 좌안 영상 촬영을 위한 것이고, 제2 카메라(1121b)는 우안 영상 촬영을 위한 것이 될 수 있다.In this case, the first camera 1121a may be for capturing a left eye image, which is a source image of a 3D image, and the second camera 1121b may be for capturing a right eye image.

또한, 연결부(1123)는 카메라(1121)와 드론(1000) 간을 연결하기 위한 구조물로, 대표적으로 하나의 축을 중심으로 물체가 회전할 수 있도록 만들어진 구조물인 짐벌 (Gimbal)이 연결부(1123)의 대표적인 일례이다.In addition, the connection unit 1123 is a structure for connecting the camera 1121 and the drone 1000. Typically, a gimbal, a structure made to rotate an object about one axis, is a structure of the connection unit 1123 . This is a typical example.

또한, 마이크(1122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(1122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.In addition, the microphone 1122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, and the like, and processes it as electrical voice data. The processed voice data may be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 in the call mode and output. Various noise removal algorithms for removing noise generated in the process of receiving an external sound signal may be implemented in the microphone 1122 .

사용자 입력부(1130)는 사용자가 드론(1000)의 동작 제어를 위한 입력 데이터를 발생시킨다. The user input unit 1130 generates input data for the user to control the operation of the drone 1000 .

사용자 입력부(1130)는 본 발명에 따라 표시되는 컨텐트들 중 두 개 이상의 컨텐트를 지정하는 신호를 사용자로부터 수신할 수 있다. 그리고, 두 개 이상의 컨텐트를 지정하는 신호는, 터치입력을 통하여 수신되거나, 하드키 및 소프트 키입력을 통하여 수신될 수 있다. The user input unit 1130 may receive, from the user, a signal for designating two or more contents among contents displayed according to the present invention. In addition, a signal for designating two or more contents may be received through a touch input or may be received through a hard key and a soft key input.

사용자 입력부(1130)는 상기 하나 또는 둘 이상의 컨텐트들을 선택하는 입력을 사용자로부터 수신할 수 있다. 또한, 사용자로부터 드론(1000)가 수행할 수 있는 기능과 관련된 아이콘을 생성하는 입력을 수신할 수 있다.The user input unit 1130 may receive an input for selecting the one or more contents from the user. Also, an input for generating an icon related to a function that the drone 1000 can perform may be received from a user.

상기와 같은, 사용자 입력부(1130)는 방향키, 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. As described above, the user input unit 1130 may include a direction key, a key pad, a dome switch, a touch pad (static pressure/capacitance), a jog wheel, a jog switch, and the like.

센싱부(140)는 드론(1000)의 개폐 상태, 드론(1000)의 위치, 사용자 접촉 유무, 기기의 방위, 기기의 가속/감속 등과 같이 드론(1000)의 현 상태를 감지하여 드론(1000)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 또한, 배터리(1190)의 전원 공급 여부, 인터페이스부(1170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(1140)는 근접 센서(1141)를 포함할 수 있다. The sensing unit 140 detects the current state of the drone 1000, such as the opening/closing state of the drone 1000, the location of the drone 1000, the presence or absence of user contact, the orientation of the device, and acceleration/deceleration of the device. A sensing signal is generated to control the operation of the In addition, it is also possible to sense whether power is supplied to the battery 1190 , whether the interface unit 1170 is coupled to an external device, and the like. Meanwhile, the sensing unit 1140 may include a proximity sensor 1141 .

특히, 센싱부(1140)는 가속도 센서(1142)를 포함할 수 있다.In particular, the sensing unit 1140 may include an acceleration sensor 1142 .

여기서 가속도 센서(1142)는 이동하는 물체의 가속도나 충격의 세기를 측정하는 센서를 뜻한다.Here, the acceleration sensor 1142 refers to a sensor that measures the acceleration of a moving object or the strength of an impact.

또한, 센싱부(1140)는 지자기 센서(1143)을 포함할 수 있다.Also, the sensing unit 1140 may include a geomagnetic sensor 1143 .

여기서 지자기 센서(1143)는 지자기를 검출하는 데 사용되는 센서를 말한다.Here, the geomagnetic sensor 1143 refers to a sensor used to detect geomagnetism.

또한, 센싱부(1140)는 고도 센서(1144)을 포함할 수 있다.Also, the sensing unit 1140 may include an altitude sensor 1144 .

여기서 고도 센서(1144)는 압력 센서의 일종으로서, 고도의 차이에 따라 기압의 변화를 감지하고 엔진에 흡입된 공기 밀도의 변화에 따라 공연비의 차이를 수정하기 위하여 사용되는 센서이다.Here, the altitude sensor 1144 is a type of pressure sensor, and is a sensor used to detect a change in atmospheric pressure according to a difference in altitude and correct a difference in air-fuel ratio according to a change in air density sucked into the engine.

또한, 센싱부(1140)는 거리측정 센서(1145)을 포함할 수 있다.Also, the sensing unit 1140 may include a distance measuring sensor 1145 .

여기서 거리측정 센서(1145)는 2점간의 거리를 측정하는 경우, 3각 측량방식(적외선 이용식, 자연광 이용식), 초음파 방식 등이 이용되는 센서이다.Here, when measuring the distance between two points, the distance measuring sensor 1145 is a sensor using a triangulation method (using infrared rays, natural light use), an ultrasonic method, or the like.

또한, 출력부(1150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(1151), 음향 출력 모듈(1152), 알람부(1153), 햅틱 모듈(154) 및 프로젝터 모듈(1155) 등이 포함될 수 있다.In addition, the output unit 1150 is for generating an output related to visual, auditory or tactile sense, and includes a display unit 1151 , a sound output module 1152 , an alarm unit 1153 , a haptic module 154 , and a projector. A module 1155 and the like may be included.

디스플레이부(1151)는 기기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 기기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 기기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 1151 displays (outputs) information processed by the device 100 . For example, when the device is in a call mode, a user interface (UI) or graphic user interface (GUI) related to a call is displayed. When the device 100 is in a video call mode or a shooting mode, a captured and/or received image, UI, or GUI is displayed.

또한, 본 발명에 따른 디스플레이부(1151)는 2D 및 3D 표시 모드를 지원한다.Also, the display unit 1151 according to the present invention supports 2D and 3D display modes.

즉, 본 발명에 따른 디스플레이부(1151)는 이하의 도 4에 도시된 바와 같이, 일반적인 디스플레이 장치(1151a)에 스위치 액정(1151b)을 조합하는 구성을 가질 수 있다. 그리고, 스위치 액정(1151b)을 이용하여 광학 시차 장벽(50)을 작동시켜 광의 진행 방향을 제어하여 좌우의 눈에 각기 다른 광이 도달하도록 분리할 수 있다. 때문에 우안용 영상과 좌안용 영상이 조합된 영상이 디스플레이 장치(1151a)에 표시되는 경우 사용자의 입장에서는 각각의 눈에 대응한 화상이 보여 마치 입체로 표시된 것처럼 느끼게 된다.That is, the display unit 1151 according to the present invention may have a configuration in which a switch liquid crystal 1151b is combined with a general display device 1151a as shown in FIG. 4 below. In addition, the optical parallax barrier 50 is operated using the switch liquid crystal 1151b to control the propagation direction of the light, so that different lights can be separated to reach the left and right eyes. For this reason, when the image in which the image for the right eye and the image for the left eye are combined is displayed on the display device 1151a, from the user's point of view, images corresponding to each eye are shown and feel as if displayed in three dimensions.

즉, 디스플레이부(1151)는 제어부(1180)의 제어에 따라, 2D 표시 모드인 상태에서는 상기 스위치 액정(1151b) 및 광학 시차 장벽(50)을 구동시키지 않고, 상기 디스플레이 장치(1151a)만을 구동시켜 일반적인 2D 표시 동작을 수행한다.That is, under the control of the controller 1180, the display unit 1151 drives only the display device 1151a without driving the switch liquid crystal 1151b and the optical parallax barrier 50 in the 2D display mode. Perform normal 2D display operations.

또한, 디스플레이부(1151)는 제어부(1180)의 제어에 따라, 3D 표시 모드인 상태에서는 상기 스위치 액정(1151b)과, 광학 시차 장벽(50) 및 디스플레이 장치(1151a)를 구동시켜 상기 디스플레이 장치(1151a)만을 구동시켜 3D 표시 동작을 수행한다.In addition, under the control of the controller 1180, the display unit 1151 drives the switch liquid crystal 1151b, the optical parallax barrier 50, and the display device 1151a in the 3D display mode to drive the display device ( 1151a) is driven to perform a 3D display operation.

한편, 상기와 같은 디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. Meanwhile, the display unit 151 as described above includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), and an organic light-emitting diode (OLED). , a flexible display, and a three-dimensional display (3D display) may include at least one.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(1151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 드론(1000) 바디의 디스플레이부(1151)가 차지하는 영역을 통해 드론(1000) 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be of a transparent type or a light-transmitting type so that the outside can be viewed through them. This may be referred to as a transparent display, and a typical example of the transparent display is a TOLED (Transparant OLED). The rear structure of the display unit 1151 may also be configured as a light-transmitting structure. With this structure, the user can see an object located at the rear of the body of the drone 1000 through the area occupied by the display unit 1151 of the body of the drone 1000 .

드론(1000)의 구현 형태에 따라 디스플레이부(1151)이 2개 이상 존재할 수 있다. 예를 들어, 기기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. Two or more display units 1151 may exist depending on the implementation form of the drone 1000 . For example, in the device 100 , a plurality of display units may be spaced apart from each other on one surface or may be integrally disposed, or may be respectively disposed on different surfaces.

디스플레이부(1151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(1151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit 1151 and the sensor for sensing a touch operation (hereinafter, referred to as a 'touch sensor') form a layered structure (hereinafter referred to as a 'touch screen'), the display unit 1151 may be used in addition to the output device. It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(1151)의 특정 부위에 가해진 압력 또는 디스플레이부(1151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 1151 or a change in capacitance generated at a specific portion of the display unit 1151 into an electrical input signal. The touch sensor may be configured to detect not only the touched position and area, but also the pressure at the time of the touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(미도시)로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(1180)로 전송한다. 이로써, 제어부(1180)는 디스플레이부(1151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.When there is a touch input to the touch sensor, a signal(s) corresponding thereto is sent to a touch controller (not shown). The touch controller processes the signal(s) and then transmits corresponding data to the controller 1180 . Accordingly, the controller 1180 can know which area of the display unit 1151 has been touched, and the like.

상기 근접 센서(1141)는 상기 터치스크린에 의해 감싸지는 기기의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 1141 may be disposed in an inner region of the device covered by the touch screen or near the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing in the vicinity without mechanical contact using the force of an electromagnetic field or infrared rays. Proximity sensors have a longer lifespan than contact sensors and their utility is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, and an infrared proximity sensor. When the touch screen is of a capacitive type, it is configured to detect the proximity of the pointer by a change in an electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of description, the act of bringing the pointer closer to the touch screen without making contact so that the pointer is recognized as being positioned on the touch screen is referred to as “proximity touch”, and the touch The act of actually touching the pointer on the screen is called "contact touch". The position at which a proximity touch is performed by the pointer on the touch screen means a position at which the pointer vertically corresponds to the touch screen when the pointer is touched in proximity.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (eg, proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch position, proximity touch movement state, etc.). Information corresponding to the sensed proximity touch operation and the proximity touch pattern may be output on the touch screen.

음향 출력 모듈(1152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(1110)로부터 수신되거나 메모리(1160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(1152)은 드론(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(1152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 1152 may output audio data received from the wireless communication unit 1110 or stored in the memory 1160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. The sound output module 1152 also outputs a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed by the drone 1000 . The sound output module 1152 may include a receiver, a speaker, a buzzer, and the like.

메모리(1160)는 제어부(1180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리(1160)에는 상기 데이터들 각각에 대한 사용 빈도도 함께 저장될 수 있다. 또한, 상기 메모리부(1160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 1160 may store a program for processing and control of the controller 1180 , and may perform a function for temporarily storing input/output data. The memory 1160 may also store the frequency of use of each of the data. In addition, the memory unit 1160 may store data related to vibrations and sounds of various patterns output when a touch input on the touch screen is input.

상기와 같은 메모리(1160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory 1160 as described above may include a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (eg, SD or XD memory, etc.). ), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic It may include at least one type of storage medium among a memory, a magnetic disk, and an optical disk.

인터페이스부(1170)는 드론(1000)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(1170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 드론(1000) 내부의 각 구성 요소에 전달하거나, 드론(1000) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 1170 serves as a passage with all external devices connected to the drone 1000 . The interface unit 1170 receives data from an external device, receives power and transmits it to each component inside the drone 1000 , or allows data inside the drone 1000 to be transmitted to an external device. For example, wired/wireless headset ports, external charger ports, wired/wireless data ports, memory card ports, ports for connecting devices equipped with identification modules, audio input/output (I/O) ports, A video I/O (Input/Output) port, an earphone port, etc. may be included in the interface unit 170 .

식별 모듈은 드론(1000)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 드론(1000)와 연결될 수 있다.The identification module is a chip storing various information for authenticating the use right of the drone 1000, and is a user identification module (UIM), a subscriber identification module (SIM), a universal user identification module (Universal). Subscriber Identity Module (USIM), and the like. A device equipped with an identification module (hereinafter, 'identification device') may be manufactured in the form of a smart card. Accordingly, the identification device may be connected to the drone 1000 through the port.

상기 인터페이스부는 드론(1000)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 드론(1000)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 기기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 기기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the drone 1000 is connected to an external cradle, the interface unit becomes a passage through which power from the cradle is supplied to the drone 1000, or various command signals input from the cradle by a user are transmitted to the device. can be a pathway to Various command signals or the power input from the cradle may be operated as signals for recognizing that the device is correctly mounted on the cradle.

제어부(controller)(1180)는 통상적으로 기기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(1180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(1181)을 구비할 수도 있다. 멀티미디어 모듈(1181)은 제어부(1180) 내에 구현될 수도 있고, 제어부(1180)와 별도로 구현될 수도 있다.The controller 1180 generally controls the overall operation of the device. For example, it performs related control and processing for voice calls, data communications, video calls, and the like. The controller 1180 may include a multimedia module 1181 for playing multimedia. The multimedia module 1181 may be implemented within the controller 1180 or may be implemented separately from the controller 1180 .

상기 제어부(1180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 1180 may perform a pattern recognition process capable of recognizing a handwriting input or a drawing input performed on the touch screen as characters and images, respectively.

한편, 제어부(1180)는 상기 디스플레이부(1151)가 유기 발광 다이오드(organic light-emitting diode, OLED) 또는 TOLED(Transparant OLED)로 구비될 경우, 본 발명에 따라, 카메라(121)를 통해 입력된 프리뷰 영상이 상기 유기 발광 다이오드(organic light-emitting diode, OLED) 또는 TOLED(Transparant OLED)의 화면 상에 풀업 표시된 상태에서, 사용자에 조작에 따라 상기 프리뷰 영상의 크기가 조절되면, 상기 화면 상에서 상기 크기가 조절된 프리뷰 영상이 표시된 제1 영역을 제외한 나머지 제2 영역 내의 화소들의 구동을 오프시킴으로써, 전원 공급부(1190)에서 상기 디스플레이부(151)로 공급되는 전원의 소모량을 줄일 수 있다.On the other hand, when the display unit 1151 is provided with an organic light-emitting diode (OLED) or a transparent OLED (TOLED), the controller 1180 controls the input through the camera 121 according to the present invention. When the size of the preview image is adjusted according to a user's manipulation while the preview image is pull-up displayed on the screen of the organic light-emitting diode (OLED) or the transparent OLED (TOLED), the size of the preview image is displayed on the screen By turning off driving of pixels in the remaining second area except for the first area in which the preview image is displayed, the consumption of power supplied from the power supply unit 1190 to the display unit 151 may be reduced.

전원 공급부(1190)는 제어부(1180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 1190 receives external power and internal power under the control of the control unit 1180 to supply power required for operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a computer-readable recording medium using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시례들이 제어부(1180) 자체로 구현될 수 있다.According to the hardware implementation, the embodiments described herein are ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and other electrical units for performing functions. The described embodiments may be implemented by the controller 1180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시례들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(1160)에 저장되고, 제어부(1180)에 의해 실행될 수 있다.According to the software implementation, embodiments such as the procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. The software code may be implemented as a software application written in a suitable programming language. The software code may be stored in the memory 1160 and executed by the controller 1180 .

멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 방법How to correct navigation information by geomagnetic disturbance when multicopter approaches catenary

전술한 본 시스템의 구성요소를 기초로, 본 발명이 제안하는 멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 방법에 대해 설명한다.Based on the above-described components of the present system, a method for correcting navigation information by geomagnetic disturbance when a multicopter's catenary approaches are described according to the present invention.

도 5는 본 발명과 관련하여, 멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 방법을 설명하는 순서도이다.5 is a flowchart illustrating a method of correcting navigation information by geomagnetic disturbance when a multicopter approaches a catenary in relation to the present invention.

도 5를 참조하면, 가장 먼저, 멀티콥터(1000)에 장착된 카메라(1121)와 거리측정 센서(1145)를 이용하여 지상에 부설된 레일(100)을 실시간으로 촬영하는 단계(S10)가 수행될 수 있다.Referring to FIG. 5 , first, using the camera 1121 and the distance measuring sensor 1145 mounted on the multicopter 1000 , the step S10 of photographing the rail 100 installed on the ground in real time is performed. can be

다음으로, 멀티콥터(1000)가 레일(100)의 방향을 인지하여 멀티콥터(1000)의 헤딩정보를 보정하는 단계(S20)가 수행된다.Next, the multicopter 1000 recognizes the direction of the rail 100 and corrects the heading information of the multicopter 1000 ( S20 ) is performed.

이후, 항법관리부(서버, 10)는 멀티콥터(1000)로부터 수신한 보정된 헤딩정보를 이용하여 궤도 영상과 GIS 도면의 영상을 매칭하는 단계(S30)를 수행한다.Thereafter, the navigation management unit (server, 10) performs a step (S30) of matching the orbit image with the image of the GIS drawing using the corrected heading information received from the multicopter 1000.

최종적으로, 항법관리부(서버, 10)는 매칭된 정보를 기초로, 궤도의 손상을 검지하는 단계(S40)를 진행한다.Finally, the navigation management unit (server, 10) proceeds to the step (S40) of detecting damage to the track based on the matched information.

즉, 본 발명에 따른 멀티콥터(1000)는 GPS(1115), 가속도계(1142), 지자기센서(1143), 고도계(1144) 등을 모두 활용하여 위치를 측위하고 항법을 수행한다. That is, the multicopter 1000 according to the present invention uses all of the GPS 1115 , the accelerometer 1142 , the geomagnetic sensor 1143 , the altimeter 1144 , and the like to position a location and perform navigation.

이때, 멀티콥터(1000)가 항법을 수행하기 위해서는 위치정보와 헤딩정보, 가속도 정보가 필요하게 되는데, 이 중 헤딩정보는 지자기센서(1143)로부터 취득한다.At this time, in order for the multicopter 1000 to perform navigation, location information, heading information, and acceleration information are required. Among them, the heading information is acquired from the geomagnetic sensor 1143 .

전술한 것과 같이, 멀티콥터(1000)가 전차선(100)에 접근하게 되면 전차선(100)에 흐르는 전류에 의해 발생된 자기장의 영향을 받게 되고, 유도된 자기장은 멀티콥터(1000)에 장착된 지자기 센서(1143)의 헤딩 각도에 큰 오차를 발생시키게 된다.As described above, when the multicopter 1000 approaches the catenary 100 , it is affected by a magnetic field generated by a current flowing in the catenary 100 , and the induced magnetic field is a geomagnetic field mounted on the multicopter 1000 . A large error is generated in the heading angle of the sensor 1143 .

따라서 헤딩을 인지하지 못한 멀티콥터(1000)는 추락할 수도 있으므로, 본 발명에서는 보조적으로 헤딩정보를 취득할 방법을 제안한다.Therefore, since the multicopter 1000 not recognizing the heading may fall, the present invention proposes a method for acquiring heading information auxiliary.

즉, 본 발명에서는 멀티콥터(1000)에 장착된 카메라(1121)와 거리측정 센서(1145)를 이용하여 지상에 부설된 레일(100)을 실시간으로 촬영하고, 레일(100)의 방향을 인지하여 멀티콥터(1000)의 헤딩정보를 보정하는 방법에 관한 것이다.That is, in the present invention, the rail 100 installed on the ground is photographed in real time using the camera 1121 and the distance measuring sensor 1145 mounted on the multicopter 1000, and the direction of the rail 100 is recognized. It relates to a method of correcting heading information of the multicopter (1000).

또한, 멀티콥터에서 촬영된 궤도 영상은 궤도의 손상 검지에 활용(S40)되므로, 이를 위해서는 촬영된 영상이 GIS기반으로 구축되어 있는 궤도 도면의 어디에 위치한 것인지를 자동으로 매칭하여야 한다. In addition, since the orbit image taken by the multicopter is used for detecting damage to the orbit (S40), it is necessary to automatically match where the captured image is located on the orbit diagram constructed based on GIS.

따라서 본 발명에서는 촬영된 궤도 영상에 이를 촬영할 당시의 멀티콥터(1000)의 위치 및 자세좌표를 동기화 시킴으로써, 영상을 GIS 공간에 위치시켜 궤도 도면상 어디인지를 명확히 알 수 있는 방법을 활용한다.Therefore, in the present invention, by synchronizing the position and posture coordinates of the multicopter 1000 at the time of taking the photographed orbital image to the photographed orbital image, the image is positioned in the GIS space and a method of clearly knowing where it is on the orbital drawing is utilized.

그러나 궤도는 전차선(100) 아래에 있어 멀티콥터가 전차선에 접근할 수밖에 없고, 이럴 경우 지자기센서의 헤딩정보 오류로 정확한 멀티콥터(1000)의 자세좌표를 얻을 수 없다. However, since the track is under the catenary 100, the multicopter has no choice but to approach the catenary, and in this case, the correct posture coordinates of the multicopter 1000 cannot be obtained due to an error in the heading information of the geomagnetic sensor.

따라서 본 발명에서는 전술한 보정된 헤딩정보를 가지고 자세좌표를 계산함으로써, 촬영된 궤도 영상의 정확한 위치, 자세정보를 얻을 수 있고, GIS기반의 궤도 도면상 정확한 위치를 자동으로 매칭시킬 수 있다.Therefore, in the present invention, by calculating the posture coordinates with the corrected heading information described above, the exact position and posture information of the captured trajectory image can be obtained, and the correct position on the GIS-based trajectory drawing can be automatically matched.

이하에서는, 멀티콥터(1000)가 레일(100)의 방향을 인지하여 멀티콥터(1000)의 헤딩정보를 보정하는 단계(S20)와 항법관리부(서버, 10)가 멀티콥터(1000)로부터 수신한 보정된 헤딩정보를 이용하여 궤도 영상과 GIS 도면의 영상을 매칭하는 단계(S30)에 대해 도면을 참조하여 구체적으로 설명한다.In the following, the multicopter 1000 recognizes the direction of the rail 100 and corrects the heading information of the multicopter 1000 ( S20 ) and the navigation management unit (server, 10 ) received from the multicopter 1000 . The step (S30) of matching the trajectory image and the image of the GIS drawing using the corrected heading information will be described in detail with reference to the drawings.

레일의 방향을 인지하여 멀티콥터의 헤딩정보를 보정하는 방법How to correct the heading information of the multicopter by recognizing the direction of the rail

이하에서는, 멀티콥터(1000)가 레일(100)의 방향을 인지하여 멀티콥터(1000)의 헤딩정보를 보정하는 단계(S20)에 대해 구체적으로 설명한다.Hereinafter, the step (S20) of the multicopter 1000 recognizing the direction of the rail 100 and correcting the heading information of the multicopter 1000 will be described in detail.

도 6은 본 발명과 관련하여, 레일의 방향을 인지하여 멀티콥터의 헤딩정보를 보정하는 방법을 설명하는 순서도이다.6 is a flowchart illustrating a method of correcting heading information of a multicopter by recognizing the direction of a rail in relation to the present invention.

도 6을 참조하면, 먼저, 멀티콥터(1000)가 레일(100)을 추종하여 카메라(1121)의 방향을 자동으로 조정하는 단계(S21)를 수행한다.Referring to FIG. 6 , first, the multicopter 1000 follows the rail 100 to automatically adjust the direction of the camera 1121 ( S21 ).

이후, 멀터콥터(1000)는 길이방향의 레일(100)이 영상에서 틀어진 각도, 짐벌(1123)이 멀티콥터(1000)에서 틀어진 각도, 레일(100)과의 거리정보를 획득하는 단계(S22)를 수행한다.After that, the multicopter 1000 obtains information about the angle at which the rail 100 in the longitudinal direction is misaligned in the image, the angle at which the gimbal 1123 is misaligned in the multicopter 1000, and distance information from the rail 100 (S22). carry out

S22 단계 이후, 획득한 정보를 기초로 멀티콥터(1000)의 헤딩정보를 계산하는 단계(S23)가 수행되고, 계산된 헤딩 정보에 따라 멀티콥터(1000)가 이동 및 촬영하는 단계(S24)가 진행된다.After step S22, a step (S23) of calculating heading information of the multicopter 1000 based on the obtained information is performed, and a step (S24) of moving and photographing the multicopter 1000 according to the calculated heading information (S24) proceeds

보정된 헤딩정보를 이용하여 궤도 영상과 GIS 도면의 영상을 매칭하는 방법A method of matching the trajectory image and the image of the GIS drawing using the corrected heading information

이하에서는, 항법관리부(서버, 10)가 멀티콥터(1000)로부터 수신한 보정된 헤딩정보를 이용하여 궤도 영상과 GIS 도면의 영상을 매칭하는 단계(S30)에 대해 구체적으로 설명한다.Hereinafter, the step (S30) of matching the trajectory image with the image of the GIS drawing by the navigation management unit (server, 10) using the corrected heading information received from the multicopter 1000 will be described in detail.

도 7은 본 발명과 관련하여, 보정된 헤딩정보를 이용하여 궤도 영상과 GIS 도면의 영상을 매칭하는 방법을 설명하는 순서도이다.7 is a flowchart illustrating a method of matching an orbit image with an image of a GIS diagram using corrected heading information in relation to the present invention.

도 7을 참조하면, 서버(10)가 보정된 헤딩정보를 기초로 멀티콥터(1000)의 자세좌표를 계산하는 단계(S31)가 진행된다.Referring to FIG. 7 , the server 10 calculates the posture coordinates of the multicopter 1000 based on the corrected heading information ( S31 ).

이후, 서버(10)는 촬영된 궤도 영상에 이를 촬영할 당시의 멀티콥터(1000)의 위치 및 계산된 자세좌표를 동기화 시키는 단계(S32)를 수행한다.Thereafter, the server 10 performs a step (S32) of synchronizing the position of the multicopter 1000 and the calculated posture coordinates at the time of photographing the captured trajectory image (S32).

S32 단계 이후, 서버(10)는 동기화 작업을 기초로 멀티콥터(1000)가 촬영한 영상이 지리정보시스템(Geographic Information System, GIS) 기반으로 구축되어 있는 궤도 도면의 어디에 위치한 것인지를 매칭하는 단계(S33)를 수행하게 된다.After step S32, the server 10 matches where the image taken by the multicopter 1000 is located on the orbit diagram constructed based on the geographic information system (GIS) based on the synchronization operation ( S33) is performed.

최종적으로, 항법관리부(서버, 10)는 매칭된 정보를 기초로, 궤도의 손상을 검지하는 단계(S40)를 진행할 수 있게 된다.Finally, the navigation management unit (server, 10) can proceed with the step (S40) of detecting damage to the track based on the matched information.

본 발명에 따른 효과Effects according to the present invention

본 발명은 전술한 문제점을 해소하기 위해, 멀티콥터의 전차선 근접시 지자기교란에 의한 항법정보 보정 시스템 및 그 제어방법을 제공할 수 있다.The present invention can provide a navigation information correction system and a control method therefor by geomagnetic disturbance when a multicopter approaches a catenary in order to solve the above problems.

구체적으로 본 발명은 멀티콥터에 장착된 짐벌과 짐벌에 장착된 카메라 및 거리측정 센서, 카메라 정보와 거리측정 센서 정보를 받아서 처리하는 항법 컴퓨터로 구성된 시스템을 제공할 수 있다.Specifically, the present invention can provide a system comprising a gimbal mounted on a multicopter, a camera mounted on the gimbal, a distance measurement sensor, and a navigation computer that receives and processes camera information and distance measurement sensor information.

또한, 본 발명은 레일을 추종하여 카메라의 방향을 자동으로 조정하는 방법을 사용자에게 제공할 수 있다.In addition, the present invention can provide a user with a method of automatically adjusting the direction of the camera by following the rail.

또한, 본 발명은 길이방향의 레일이 영상에서 틀어진 각도와 짐벌이 멀티콥터에서 틀어진 각도, 레일과의 거리정보를 이용하여 멀티콥터의 헤딩정보를 계산하는 시스템 및 방법을 사용자에게 제공할 수 있다.In addition, the present invention can provide the user with a system and method for calculating the heading information of the multicopter by using the angle at which the longitudinal rail is misaligned in the image, the angle at which the gimbal is misaligned in the multicopter, and distance information from the rail.

또한, 본 발명은 개발된 시스템과 GPS, 가속도계, 고도계를 이용한 멀티콥터 항법시스템 및 그 제어방법을 사용자에게 제공할 수 있다.In addition, the present invention can provide a user with a multicopter navigation system using the developed system, GPS, an accelerometer, and an altimeter, and a method for controlling the same.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able

상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.The above-described embodiments of the present invention may be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof. In case of implementation by hardware, the method according to embodiments of the present invention may include one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), and Programmable Logic Devices (PLDs). , FPGAs (Field Programmable Gate Arrays), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code may be stored in the memory unit and driven by the processor. The memory unit may be located inside or outside the processor, and may transmit and receive data to and from the processor by various known means.

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.The detailed description of the preferred embodiments of the present invention disclosed as described above is provided to enable any person skilled in the art to make and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, it will be understood by those skilled in the art that various modifications and changes can be made to the present invention without departing from the scope of the present invention. For example, those skilled in the art may use each configuration described in the above-described embodiments in a way in combination with each other. Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention. The present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that are not explicitly cited in the claims may be combined to form an embodiment, or may be included as new claims by amendment after filing.

Claims (8)

적어도 하나의 멀티콥터가, 카메라를 이용하여 지상에 부설된 적어도 하나의 레일을 촬영하는 제 1 단계;
상기 적어도 하나의 멀티콥터가, 상기 적어도 하나의 레일의 설치 방향을 이용하여 헤딩 정보를 산출하는 제 2 단계;
상기 적어도 하나의 멀티콥터가, 상기 산출한 헤딩 정보를 기초로 이동하면서, 상기 적어도 하나의 레일을 촬영하는 제 3 단계;
상기 적어도 하나의 멀티콥터가, 상기 헤딩 정보 및 상기 촬영한 영상 정보를 서버로 전송하는 제 4 단계;
상기 서버가, 상기 헤딩 정보를 기초로, 미리 저장된 상기 적어도 하나의 레일과 관련된 지도 정보와 상기 영상 정보를 매칭하는 제 5 단계; 및
상기 서버가, 상기 매칭된 지도 정보 및 상기 매칭된 영상 정보를 기초로, 상기 적어도 하나의 레일과 관련된 손상을 검지하는 제 6 단계;를 포함하고,

상기 제 2 단계는,
상기 적어도 하나의 멀티콥터가, 상기 적어도 하나의 레일의 설치 방향을 추종하여 상기 카메라의 방향을 자동으로 조정하는 제 2-1 단계;
상기 적어도 하나의 멀티콥터가, 상기 촬영한 영상 내의 일정 지점을 기초로 상기 적어도 하나의 레일이 틀어진 제 1 각도 정보, 상기 카메라와 상기 적어도 하나의 멀티콥터 간을 연결하는 짐벌이 상기 멀티콥터를 기준으로 틀어진 제 2 각도 정보 및 거리 센서를 통해 상기 적어도 하나의 레일과 상기 적어도 하나의 멀티콥터 간의 이격 거리 정보를 획득하는 제 2-2 단계; 및
상기 제 1 각도 정보, 상기 제 2 각도 정보 및 상기 이격 거리 정보를 기초로 상기 헤딩 정보를 산출하는 제 2-3 단계; 를 포함하는 것을 특징으로 하는 멀티콥터의 항법정보 보정 방법.
At least one multicopter, a first step of photographing at least one rail installed on the ground using a camera;
a second step of calculating, by the at least one multicopter, heading information using an installation direction of the at least one rail;
a third step of photographing, by the at least one multicopter, the at least one rail while moving based on the calculated heading information;
a fourth step of transmitting, by the at least one multicopter, the heading information and the captured image information to a server;
a fifth step of matching, by the server, the image information with map information related to the at least one rail stored in advance based on the heading information; and
A sixth step of detecting, by the server, damage related to the at least one rail based on the matched map information and the matched image information;

The second step is
a 2-1 step in which the at least one multicopter automatically adjusts the direction of the camera by following the installation direction of the at least one rail;
First angle information at which the at least one rail is twisted based on a predetermined point in the image taken by the at least one multicopter, and a gimbal connecting the camera and the at least one multicopter is based on the multicopter a step 2-2 of obtaining separation distance information between the at least one rail and the at least one multicopter through the second angle information and the distance sensor that are distorted; and
a 2-3 step of calculating the heading information based on the first angle information, the second angle information, and the separation distance information; Multicopter navigation information correction method comprising a.
삭제delete 제 1항에 있어서,
상기 제 2 단계는, 미리 지정된 주기에 따라 수행되고, 상기 헤딩 정보는 변경 가능한 것을 특징으로 하는 멀티콥터의 항법정보 보정 방법.
The method of claim 1,
The second step is performed according to a predetermined period, and the heading information is changeable.
제 1항에 있어서,
상기 제 5 단계는,
상기 서버가, 상기 헤딩 정보를 기초로 상기 적어도 하나의 멀티콥터의 자세 좌표를 산출하는 제 5-1 단계;
상기 영상 정보 내의 상기 적어도 하나의 멀티콥터의 궤도 상에, 상기 영상 정보 촬영 당시의 상기 적어도 하나의 멀티콥터의 위치 및 상기 산출된 자세 좌표를 동기화시키는 제 5-2 단계; 및
상기 동기화 작업을 기초로, 상기 영상 정보의 위치가 상기 지도 정보 내의 궤도에서 어디에 위치한 것인지를 매칭하는 제 5-3 단계; 를 포함하는 것을 특징으로 하는 멀티콥터의 항법정보 보정 방법.
The method of claim 1,
The fifth step is
a 5-1 step of calculating, by the server, the posture coordinates of the at least one multicopter based on the heading information;
a 5-2 step of synchronizing the position of the at least one multicopter at the time of capturing the image information and the calculated posture coordinates on the trajectory of the at least one multicopter in the image information; and
a 5-3 step of matching the position of the image information on the orbit in the map information based on the synchronization operation; A method of correcting navigation information of a multicopter, comprising a.
제 1항에 있어서,
상기 지도 정보는, 지리정보시스템(Geographic Information System, GIS)을 통한 정보인 것을 특징으로 하는 멀티콥터의 항법정보 보정 방법.
The method of claim 1,
The map information is a navigation information correction method of a multicopter, characterized in that the information through a geographic information system (Geographic Information System, GIS).
적어도 하나의 멀티콥터 및 서버를 포함하는 멀티콥터의 항법정보 보정 시스템에 있어서,
상기 적어도 하나의 멀티콥터는,
카메라를 이용하여 지상에 부설된 적어도 하나의 레일을 촬영하고,
상기 적어도 하나의 레일의 설치 방향을 이용하여 헤딩 정보를 산출하며,
상기 산출한 헤딩 정보를 기초로 이동하면서, 상기 적어도 하나의 레일을 촬영하고,
상기 헤딩 정보 및 상기 촬영한 영상 정보를 서버로 전송하며,
상기 서버는,
상기 헤딩 정보를 기초로, 미리 저장된 상기 적어도 하나의 레일과 관련된 지도 정보와 상기 영상 정보를 매칭하고,
상기 매칭된 지도 정보 및 상기 매칭된 영상 정보를 기초로, 상기 적어도 하나의 레일과 관련된 손상을 검지하며,

상기 적어도 하나의 멀티콥터는,
상기 적어도 하나의 레일의 설치 방향을 추종하여 상기 카메라의 방향을 자동으로 조정하고,
상기 촬영한 영상 내의 일정 지점을 기초로 상기 적어도 하나의 레일이 틀어진 제 1 각도 정보, 상기 카메라와 상기 적어도 하나의 멀티콥터 간을 연결하는 짐벌이 상기 멀티콥터를 기준으로 틀어진 제 2 각도 정보 및 거리 센서를 통해 상기 적어도 하나의 레일과 상기 적어도 하나의 멀티콥터 간의 이격 거리 정보를 획득하며,
상기 제 1 각도 정보, 상기 제 2 각도 정보 및 상기 이격 거리 정보를 기초로 상기 헤딩 정보를 산출하는 것을 특징으로 하는 멀티콥터의 항법정보 보정 시스템.
In the multicopter navigation information correction system comprising at least one multicopter and a server,
The at least one multicopter,
using a camera to photograph at least one rail laid on the ground,
Calculating heading information using the installation direction of the at least one rail,
While moving based on the calculated heading information, the at least one rail is photographed,
Transmitting the heading information and the captured image information to a server,
The server is
Match the image information with map information related to the at least one rail stored in advance based on the heading information,
Detect damage related to the at least one rail based on the matched map information and the matched image information,

The at least one multicopter,
automatically adjusts the direction of the camera by following the installation direction of the at least one rail,
First angle information at which the at least one rail is misaligned based on a certain point in the captured image, second angle information and distance in which a gimbal connecting the camera and the at least one multicopter is misaligned with respect to the multicopter Obtaining separation distance information between the at least one rail and the at least one multicopter through a sensor,
The multicopter navigation information correction system, characterized in that calculating the heading information based on the first angle information, the second angle information, and the separation distance information.
삭제delete 제 6항에 있어서,
상기 서버는,
상기 헤딩 정보를 기초로 상기 적어도 하나의 멀티콥터의 자세 좌표를 산출하고,
상기 영상 정보 내의 상기 적어도 하나의 멀티콥터의 궤도 상에, 상기 영상 정보 촬영 당시의 상기 적어도 하나의 멀티콥터의 위치 및 상기 산출된 자세 좌표를 동기화시키며,
상기 동기화 작업을 기초로, 상기 영상 정보의 위치가 상기 지도 정보 내의 궤도에서 어디에 위치한 것인지를 매칭하는 것을 특징으로 하는 멀티콥터의 항법정보 보정 시스템.
7. The method of claim 6,
The server is
calculating the posture coordinates of the at least one multicopter based on the heading information,
Synchronizing the position of the at least one multicopter at the time of capturing the image information and the calculated posture coordinates on the trajectory of the at least one multicopter in the image information,
Based on the synchronization operation, the multicopter navigation information correction system, characterized in that the position of the image information is matched with where it is located in the trajectory in the map information.
KR1020200019200A 2020-02-17 2020-02-17 Navigation positioning system for multicopter adjacent power rail, in geomagnetic disturbance situation, and control method KR102263892B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200019200A KR102263892B1 (en) 2020-02-17 2020-02-17 Navigation positioning system for multicopter adjacent power rail, in geomagnetic disturbance situation, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200019200A KR102263892B1 (en) 2020-02-17 2020-02-17 Navigation positioning system for multicopter adjacent power rail, in geomagnetic disturbance situation, and control method

Publications (1)

Publication Number Publication Date
KR102263892B1 true KR102263892B1 (en) 2021-06-15

Family

ID=76411795

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200019200A KR102263892B1 (en) 2020-02-17 2020-02-17 Navigation positioning system for multicopter adjacent power rail, in geomagnetic disturbance situation, and control method

Country Status (1)

Country Link
KR (1) KR102263892B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7421017B1 (en) 2022-12-20 2024-01-23 楽天グループ株式会社 Information processing device, unmanned aerial vehicle, and aircraft orientation detection method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101586188B1 (en) 2014-05-26 2016-01-21 퍼스텍주식회사 Apparatus and Method for Arranging Landing Location of Unmanned Aerial Vehicle and Ground System incoporating same Apparatus
US20160216304A1 (en) * 2015-01-28 2016-07-28 Lockheed Martin Corporation Rapid high-resolution magnetic field measurements for power line inspection
US20170227470A1 (en) * 2016-02-04 2017-08-10 Proxy Technologies, Inc. Autonomous vehicle, system and method for structural object assessment and manufacture thereof
US20180281829A1 (en) * 2017-04-04 2018-10-04 Georgetown Rail Equipment Company Railroad track guidance systems and methods
WO2019035960A1 (en) * 2017-08-15 2019-02-21 Bnsf Railway Company An unmanned aerial vehicle system for inspecting railroad assets
US20190106135A1 (en) * 2002-06-04 2019-04-11 General Electric Company Locomotive control system and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190106135A1 (en) * 2002-06-04 2019-04-11 General Electric Company Locomotive control system and method
KR101586188B1 (en) 2014-05-26 2016-01-21 퍼스텍주식회사 Apparatus and Method for Arranging Landing Location of Unmanned Aerial Vehicle and Ground System incoporating same Apparatus
US20160216304A1 (en) * 2015-01-28 2016-07-28 Lockheed Martin Corporation Rapid high-resolution magnetic field measurements for power line inspection
US20170227470A1 (en) * 2016-02-04 2017-08-10 Proxy Technologies, Inc. Autonomous vehicle, system and method for structural object assessment and manufacture thereof
US20180281829A1 (en) * 2017-04-04 2018-10-04 Georgetown Rail Equipment Company Railroad track guidance systems and methods
WO2019035960A1 (en) * 2017-08-15 2019-02-21 Bnsf Railway Company An unmanned aerial vehicle system for inspecting railroad assets

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7421017B1 (en) 2022-12-20 2024-01-23 楽天グループ株式会社 Information processing device, unmanned aerial vehicle, and aircraft orientation detection method

Similar Documents

Publication Publication Date Title
CN109460066B (en) Virtual reality system for an aircraft
US11064184B2 (en) Aerial vehicle imaging and targeting system
EP3447436B1 (en) Method for defending against threats
US20180046177A1 (en) Motion Sensing Flight Control System Based on Smart Terminal and Terminal Equipment
US8855846B2 (en) System and method for onboard vision processing
US8543265B2 (en) Systems and methods for unmanned aerial vehicle navigation
CN105974929A (en) Unmanned plane control method based on operation and control of intelligent device
US20180144644A1 (en) Method and system for managing flight plan for unmanned aerial vehicle
KR101701397B1 (en) vehicle control method using unmanned vehicle and system
US10429857B2 (en) Aircraft refueling with sun glare prevention
US11982758B2 (en) Relay point generation method and apparatus, and unmanned aerial vehicle
EP2142875B1 (en) Self-orienting reticle
KR20170139326A (en) Autonomous flight system and method of unmanned aerial vehicle
CN106094876A (en) A kind of unmanned plane target locking system and method thereof
CN106292799A (en) Unmanned plane, remote control unit and control method thereof
WO2018059398A1 (en) Method, apparatus, and system for controlling multi-rotor aircraft
IL259680B (en) Aircraft systems and methods for adjusting a displayed sensor image field of view
US20210034052A1 (en) Information processing device, instruction method for prompting information, program, and recording medium
CN106125761A (en) UAV Navigation System and air navigation aid
KR102348289B1 (en) System for inspecting a facility using drones and its control method
JP2020149640A (en) Flight system and landing control method
KR102263892B1 (en) Navigation positioning system for multicopter adjacent power rail, in geomagnetic disturbance situation, and control method
US10557718B2 (en) Auxiliary control method and system for unmanned aerial vehicle
KR20120036684A (en) An intelligent aviation robot using gps
KR102263893B1 (en) Navigation positioning system using three dimensions magnetic field map for multicopter adjacent power rail, in geomagnetic disturbance situation, and control method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant