KR20190128425A - Method for controling unmanned moving object based on cylindrical coordinate system and recording medium storing program for executing the same, and computer prograom stored in recording medium for executing the same - Google Patents

Method for controling unmanned moving object based on cylindrical coordinate system and recording medium storing program for executing the same, and computer prograom stored in recording medium for executing the same Download PDF

Info

Publication number
KR20190128425A
KR20190128425A KR1020180052598A KR20180052598A KR20190128425A KR 20190128425 A KR20190128425 A KR 20190128425A KR 1020180052598 A KR1020180052598 A KR 1020180052598A KR 20180052598 A KR20180052598 A KR 20180052598A KR 20190128425 A KR20190128425 A KR 20190128425A
Authority
KR
South Korea
Prior art keywords
unmanned
coordinate system
cylindrical coordinate
control command
manipulator
Prior art date
Application number
KR1020180052598A
Other languages
Korean (ko)
Other versions
KR102117338B1 (en
Inventor
선종현
서종은
채수창
정대룡
Original Assignee
선종현
채수창
정대룡
서종은
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 선종현, 채수창, 정대룡, 서종은 filed Critical 선종현
Priority to KR1020180052598A priority Critical patent/KR102117338B1/en
Publication of KR20190128425A publication Critical patent/KR20190128425A/en
Application granted granted Critical
Publication of KR102117338B1 publication Critical patent/KR102117338B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/005Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with signals other than visual, e.g. acoustic, haptic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • B64C2201/146

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The present invention relates to a method for controlling an unmanned moving object based on a cylindrical coordinate system, a recording medium storing a program for implementing the same, and a computer program stored in the recording medium for implementing the method. More specifically, the present invention provides the method for controlling an unmanned moving object by applying a cylindrical coordinate system from viewpoint of a user (based on a direction viewed by a controller), not the control based on the unmanned moving object (based on a direction viewed by the unmanned moving object), the recording medium storing the program for implementing the same, and the computer program stored in the recording medium for implementing the method.

Description

원통좌표계 기반 무인이동체 조종 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램 {METHOD FOR CONTROLING UNMANNED MOVING OBJECT BASED ON CYLINDRICAL COORDINATE SYSTEM AND RECORDING MEDIUM STORING PROGRAM FOR EXECUTING THE SAME, AND COMPUTER PROGRAOM STORED IN RECORDING MEDIUM FOR EXECUTING THE SAME}METHOD FOR CONTROLING UNMANNED MOVING OBJECT BASED ON CYLINDRICAL COORDINATE SYSTEM AND RECORDING MEDIUM STORING PROGRAM FOR EXECUTING THE SAME, AND COMPUTER PROGRAOM STORED IN RECORDING MEDIUM FOR EXECUTING THE SAME}

본 발명은 원통좌표계 기반 무인이동체 조종 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램 에 관한 것으로서, 더욱 상세하게는 무인이동체를 조종하는데 있어서, 무인이동체의 기준(무인 이동체가 바라보는 방향 기준)에 따른 제어가 아닌 사용자 관점(조종기가 바라보는 방향 기준)에서 원통좌표계를 적용하여 무인이동체를 조종하는 원통좌표계 기반 무인이동체 조종 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램에 관한 것이다.The present invention relates to a method for manipulating an unmanned mobile vehicle based on a cylindrical coordinate system, a recording medium storing a program for implementing the same, and a computer program stored in a medium for implementing the same. Cylindrical coordinate system-based unmanned vehicle control method that controls the unmanned vehicle by applying the cylindrical coordinate system from the user's point of view (based on the direction viewed by the controller), not the control based on the direction viewed by the unmanned vehicle, and the stored program storing the program A medium and a computer program stored in the medium for implementing the same.

일반적으로 무인이동체(자동차, 배, 비행기, 드론 등)의 조종은 무인이동체의 전방을 기준으로 조종하게 된다. 예를 들어, 자동차의 경우 앞 범퍼 쪽을 전방으로 하여 조종을 하게 되고, 배의 경우 이물 쪽을 전방으로 하여 조종을 하게 되며, 비행기의 경우 기수를 전방으로 하여 조종하게 된다. In general, the control of unmanned vehicles (cars, ships, airplanes, drones, etc.) is based on the front of the unmanned vehicle. For example, in the case of a car, the front bumper side is controlled in the front, in the case of a ship, the foreign body is controlled in the front, and in the case of an airplane, the nose is controlled in the front.

그러나, 무인이동체의 움직임에 따라 무인이동체가 향하는 전방이 시시각각 변화하게 되어, 조종자가 바라보는 전방과 일치하지 않는 경우가 많이 발생되므로 조종에 숙달되지 않으면 무인이동체를 조종하는 것이 어려운 문제점이 있다.However, since the front of the unmanned vehicle is changed at any time according to the movement of the unmanned vehicle, many cases do not coincide with the front of the operator. Therefore, it is difficult to control the unmanned vehicle without mastery of the control.

이는, 무인이동체가 무인이동체의 전방을 기준으로 움직이기 때문이다.This is because the unmanned vehicle moves based on the front of the unmanned vehicle.

카메라가 장착된 드론의 경우, 카메라가 바라보는 방향을 전방으로 하는 경우가 많으며, 이러한 경우 촬영하고자 하는 곳을 카메라가 항상 바라보며 드론이 이동하도록 조종하는 것은 더욱 어려운 문제점이 있다.In the case of a drone equipped with a camera, the direction in which the camera is viewed in many cases is forward, and in this case, it is more difficult to steer the drone to move while the camera always looks at the place to be photographed.

더구나, 조종자를 상시 촬영하고 싶을 경우 사용자가 이동하게 되면 카메라가 상시 조종자를 바라보도록 하여 조종하는 것은 더더욱 어려운 문제점이 있다.In addition, when the user wants to always photograph the operator, when the user moves, it is more difficult to manipulate the camera so that the operator always looks at the operator.

한국공개특허 [10-2013-0086192]에서는 스마트안경을 이용한 무인항공기 제어와 조종시스템이 개시되어 있다.Korean Unexamined Patent Publication [10-2013-0086192] discloses an unmanned aerial vehicle control and steering system using smart glasses.

한국공개특허 [10-2013-0086192](공개일자: 2013.07.31)Korean public patent [10-2013-0086192] (published date: 2013.07.31)

따라서, 본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 무인이동체를 조종하는데 있어서, 무인이동체의 기준(무인 이동체가 바라보는 방향 기준)에 따른 제어가 아닌 사용자 관점(조종기가 바라보는 방향 기준)에서 원통좌표계를 적용하여 무인이동체를 조종하는 원통좌표계 기반 무인이동체 조종 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램을 제공하는 것이다.Accordingly, the present invention has been made to solve the problems described above, the object of the present invention in controlling the unmanned moving object, the user's point of view rather than the control according to the reference of the unmanned mobile body (direction of direction seen by the unmanned mobile object) It is to provide a method of manipulating the unmanned vehicle based on the cylindrical coordinate system by applying the cylindrical coordinate system in (based on the direction viewed by the controller), a recording medium storing a program for implementing the same, and a computer program stored in the medium for implementing the same. .

본 발명의 실 시예들의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The objects of the embodiments of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description. .

상기한 바와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 원통좌표계 기반 무인이동체 조종 방법은, 연산처리수단에 의하여 실행되는 프로그램 형태로 이루어지는 원통좌표계 기반 무인이동체 조종 방법에 있어서, 상기 연산처리수단이 조종기(10)에 입력된 조작명령 및 상기 조종기(10)가 향하는 방향정보를 포함한 제어명령을 입력받는 제어명령입력 단계(S10); 상기 연산처리수단이 상기 조종기(10)를 원점으로 하고, 요잉각(Φ), 피칭각(θ) 및 수평거리(r) 또는 요잉각(Φ), 높이(h) 및 수평거리(r)로 표현되는 원통좌표계상 무인이동체(20)의 위치를 측위하는 이동체측위 단계(S20); 상기 연산처리수단이 상기 제어명령입력 단계(S10)에서 입력받은 제어명령 및 상기 이동체측위 단계(S20)에서 측위된 원통좌표계 상에서의 상기 무인이동체(20)의 위치를 근거로 상기 무인이동체(20)의 조종명령을 생성하는 조종명령생성 단계(S30); 및 상기 조종명령생성 단계(S30)에서 생성된 조종명령을 상기 무인이동체(20)에 전송하는 조종명령전송 단계(S40);를 포함하는 것을 특징으로 한다.Cylindrical coordinate system-based unmanned vehicle control method according to an embodiment of the present invention for achieving the object as described above, in the cylindrical coordinate system-based unmanned vehicle control method consisting of a program executed by arithmetic processing means, the operation processing A control command input step (S10) in which the means receives a control command including an operation command input to the remote controller 10 and direction information directed to the remote controller 10; The arithmetic processing means sets the manipulator 10 as the origin, and the yaw angle Φ, pitching angle θ and horizontal distance r or yaw angle Φ, height h and horizontal distance r. Moving object positioning step (S20) for positioning the position of the unmanned moving body 20 in the cylindrical coordinate system represented; The unmanned moving object 20 is based on the control command received by the operation processing means in the control command input step S10 and the position of the unmanned moving object 20 on the cylindrical coordinate system positioned in the moving object positioning step S20. A control command generation step (S30) of generating a control command of the; And a control command transmission step (S40) for transmitting the control command generated in the control command generation step (S30) to the unmanned moving object (20).

또한, 상기 무인이동체 조종 방법의 무인이동체(20)는 무인비행체인 것을 특징으로 한다.In addition, the unmanned movable body 20 of the unmanned vehicle control method is characterized in that the unmanned aerial vehicle.

또, 상기 제어명령입력 단계(S10)의 제어명령은 상기 조종기(10)의 모션, 클릭 또는 터치 패턴에 따라 미리 결정된 모션 또는 터치 패턴에 해당되는 제어명령을 포함하는 것을 특징으로 한다.In addition, the control command of the control command input step (S10) is characterized in that it comprises a control command corresponding to a predetermined motion or touch pattern according to the motion, click or touch pattern of the remote controller 10.

또한, 상기 제어명령은 일정 수평거리를 유지하며, 상기 조종기(10)의 요잉 운동에 따라, 피칭각(θ) 및 수평거리(r)는 고정시키고, 요잉각(Φ)은 변화시키며, 상기 조종기(10)가 향하는 방향으로 상기 무인이동체(20)를 이동시키는 원형이동명령, 일정 수평거리를 유지하며, 상기 조종기(10)의 피칭 운동에 따라, 요잉각(Φ) 및 수평거리(r)는 고정시키고, 피칭각(θ) 또는 높이(h)를 변화시키며, 상기 조종기(10)가 향하는 방향으로 상기 무인이동체(20)를 이동시키는 높이이동명령 및 일정 높이를 유지하며, 상기 조종기(10)의 전후이동 조작명령에 따라, 요잉각(Φ)은 고정시키고, 피칭각(θ) 및 수평거리(r)는 변화시키며, 상기 조종기(10)가 향하는 방향으로 상기 무인이동체(20)를 이동시키거나, 상기 조종기(10)의 피칭 운동에 따라, 요잉각(Φ) 및 높이(h)는 고정시키고, 수평거리(r)를 변화시키며, 상기 조종기(10)가 향하는 방향으로 상기 무인이동체(20)를 이동시키는 전후이동명령을 포함하는 것을 특징으로 한다.In addition, the control command maintains a constant horizontal distance, in accordance with the yawing motion of the manipulator 10, the pitching angle (θ) and the horizontal distance (r) is fixed, the yaw angle (Φ) is changed, the manipulator Circular movement command for moving the unmanned moving body 20 in the direction in which 10 is directed, maintains a constant horizontal distance, and according to the pitching movement of the manipulator 10, yaw angle Φ and horizontal distance r is Fixed to, changing the pitching angle (θ) or height (h), and maintains a height movement command and a certain height to move the unmanned moving body 20 in the direction that the manipulator 10 faces, the manipulator 10 The yaw angle Φ is fixed, the pitching angle θ and the horizontal distance r are changed, and the unmanned moving body 20 is moved in the direction in which the manipulator 10 faces. Or, according to the pitching movement of the manipulator 10, the yaw angle (Φ) and height (h) is fixed, Flat sikimyeo changing the distance (r), and the direction of the transmitter (10) is directed, characterized in that it comprises a front-rear movement command for moving the unmanned movable body (20).

또, 상기 이동체측위 단계(S20)는 상기 조종기(10)와 상기 무인이동체(20)의 거리를 측정하는 거리측정 단계(S21); 및 상기 거리측정 단계(S21)에서 측정된 거리 및 상기 무인이동체(20)에 내장된 센서로 측정된 무인이동체(20)의 높이정보를 근거로 상기 조종기(10)를 원점으로 하는 원통좌표계 상에서 무인이동체(20)의 좌표를 산정하는 무인이동체좌표산정 단계(S22); 를 포함하고, 상기 조종명령생성 단계(30)는 상기 무인이동체좌표산정 단계(S22)에서 산정된 조종기(10)를 원점으로 하는 원통좌표계 상 무인이동체(20)의 좌표를 근거로 상기 무인이동체(20)를 조종하는 것을 특징으로 한다.In addition, the moving object positioning step (S20) comprises a distance measuring step (S21) of measuring the distance between the manipulator (10) and the unmanned moving body (20); And based on the distance measured in the distance measuring step (S21) and the height information of the unmanned moving body 20 measured by a sensor embedded in the unmanned mobile body 20, the unmanned body on the cylindrical coordinate system having the origin of the remote controller 10 as the origin. An unmanned moving object coordinate calculating step (S22) for calculating the coordinates of the moving object 20; It includes, The control command generation step 30 is based on the coordinates of the unmanned mobile body (20) on the cylindrical coordinate system with the origin of the remote controller 10 calculated in the unmanned mobile body coordinate calculation step (S22) ( 20) to control.

또한, 상기 거리측정 단계(S21)는 이미지 인식을 이용한 거리측정, 전파 세기를 이용한 거리측정, 전파의 이동시간을 이용한 거리측정, 전파의 위상차를 이용한 거리측정, 간섭계를 이용한 거리측정 및 편광원의 세기를 이용한 거리측정 중 어느 하나 또는 복수를 사용하는 것을 특징으로 한다.In addition, the distance measuring step (S21) is the distance measurement using the image recognition, the distance measurement using the radio wave intensity, the distance measurement using the movement time of the radio wave, the distance measurement using the phase difference of the radio wave, the distance measurement using the interferometer and the polarization source It is characterized by using any one or a plurality of distance measurement using the intensity.

또, 상기 이동체측위 단계(S20)는 상기 무인이동체좌표산정 단계(S22)이후에, 조종기(10)의 RTK(real time kinematic) GPS좌표를 수신하는 좌표수신 단계(S23); 및 상기 무인이동체좌표산정 단계(S22)에 사용된 원통좌표계의 원점좌표를 상기 좌표수신 단계(S23)에서 수신받은 RTK(real time kinematic) GPS좌표로 적용시키는 좌표적용 단계(S24);를 포함하는 것을 특징으로 한다.In addition, the moving object positioning step (S20) is a coordinate receiving step (S23) for receiving a real time kinematic (RTK) GPS coordinates of the remote controller 10 after the unmanned moving body coordinate calculation step (S22); And a coordinate application step (S24) of applying the origin coordinates of the cylindrical coordinate system used in the unmanned moving body coordinate calculation step (S22) to the RTK (real time kinematic) GPS coordinates received in the coordinate reception step (S23). It is characterized by.

또한, 상기 조종기(10)에 표시되는 화면은 원통좌표계를 적용한 정보로 표시되는 것을 특징으로 한다.In addition, the screen displayed on the remote controller 10 is characterized by being displayed as information applying the cylindrical coordinate system.

또, 본 발명의 일 실시예에 따르면, 상기 원통좌표계 기반 무인이동체 조종 방법을 구현하기 위한 프로그램이 저장된 컴퓨터 판독 가능한 기록매체가 제공되는 것을 특징으로 한다.In addition, according to an embodiment of the present invention, a computer-readable recording medium storing a program for implementing the cylindrical coordinate system-based unmanned vehicle control method is provided.

아울러, 본 발명의 일 실시예에 따르면, 상기 원통좌표계 기반 무인이동체 조종 방법을 구현하기 위해, 컴퓨터 판독 가능한 기록매체에 저장된 프로그램이 제공되는 것을 특징으로 한다.In addition, according to an embodiment of the present invention, a program stored in a computer-readable recording medium is provided to implement the cylindrical coordinate system-based unmanned vehicle control method.

본 발명의 일 실시예에 따른 원통좌표계 기반 무인이동체 조종 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램에 의하면, 조종기를 원점으로 하고, 요잉각(Φ), 피칭각(θ) 및 수평거리(r)로 표현되는 원통좌표계를 이용하여, 조종기(조종기의 정면)가 향하는 방향정보 및 조작명령을 근거로 무인이동체를 이동시킴으로써, 조종자의 시점에서의 보다 직관적인 조종이 가능하게 함으로써, 무인이동체 조종의 편의성을 향상시키는 효과가 있다.According to a cylindrical coordinate system-based unmanned vehicle control method according to an embodiment of the present invention, a recording medium storing a program for implementing the same, and a computer program stored in the medium for implementing the same, the controller has a starting point, a yaw angle (Φ), By using the cylindrical coordinate system expressed by pitching angle (θ) and horizontal distance (r), the unmanned moving body is moved based on the direction information and operation command directed by the manipulator (the front of the manipulator), thereby making it more intuitive at the point of view of the manipulator. By enabling the steering, there is an effect of improving the convenience of the operation of the unmanned vehicle.

또, 모션, 클릭, 터치 패턴 등의 다양한 입력이 가능함으로써, 조종자에게 보다 직관적이고 편리한 조작이 가능하게 하는 효과가 있다.In addition, various inputs such as a motion, a click, a touch pattern, and the like can be performed, thereby making it possible to operate the controller more intuitively and conveniently.

또한, 원형이동명령, 높이이동명령 및 전후이동명령을 포함하는 제어명령을 사용함으로써, 수행해야 하는 연산도 줄어들고 더욱 정밀한 제어가 가능(GPS에 비해 오차가 상당히 줄어듬)한 효과가 있다.In addition, by using a control command including a circular movement command, a height movement command, and a forward and backward movement command, the operation to be performed is reduced and more precise control is possible (the error is considerably reduced compared to the GPS).

또, RTK(real time kinematic) GPS좌표를 이용함으로써, 보다 정확한 좌표를 확인할 수 있는 효과가 있다.In addition, by using the RTK (real time kinematic) GPS coordinates, there is an effect that can be confirmed more accurate coordinates.

아울러, 촬영하고자 하는 목표를 항상 카메라가 향하도록 자동제어함으로써, 조작의 편리성을 높일 수 있는 효과가 있다.In addition, by automatically controlling the camera to always aim toward the target, there is an effect that can increase the convenience of operation.

도 1은 본 발명의 일 실시예에 따른 무인이동체 조종 방법의 흐름도.
도 2는 본 발명의 일 실시예에 따른 원형이동명령에 따라 무인이동체가 이동되는 예를 보여주는 개념도.
도 3은 본 발명의 일 실시예에 따른 높이이동명령에 따라 무인이동체가 이동되는 예를 보여주는 개념도.
도 4 내지 도 5는 본 발명의 일 실시예에 따른 전후이동명령에 따라 무인이동체가 이동되는 예를 보여주는 개념도.
도 6 내지 도 7은 본 발명의 일 실시예에 따른 무인이동체 조종 스마트기기의 블록도.
1 is a flow chart of a method for manipulating the unmanned mobile vehicle according to an embodiment of the present invention.
Figure 2 is a conceptual diagram showing an example of moving the unmanned moving body according to the circular movement command according to an embodiment of the present invention.
Figure 3 is a conceptual diagram showing an example of moving the unmanned moving body according to the height movement command according to an embodiment of the present invention.
4 to 5 is a conceptual view showing an example of moving the unmanned moving body according to the forward and backward movement command according to an embodiment of the present invention.
6 to 7 are block diagrams of an unmanned vehicle control smart device according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that another component may be present in the middle. Should be.

반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 공정, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 공정, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "having" are intended to indicate that there is a feature, number, process, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present disclosure does not exclude the possibility of the presence or the addition of numbers, processes, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 첨부된 도면을 참조하여 본 발명을 더욱 상세하게 설명한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정하여 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 또한, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. Hereinafter, with reference to the accompanying drawings will be described in more detail the present invention. Prior to this, terms or words used in the present specification and claims should not be construed as being limited to the ordinary or dictionary meanings, and the inventors should properly explain the concept of terms in order to best explain their own inventions. Based on the principle that it can be defined, it should be interpreted as meaning and concept corresponding to the technical idea of the present invention. In addition, unless there is another definition in the technical terms and scientific terms used, it has the meaning commonly understood by those of ordinary skill in the art to which this invention belongs, and the gist of the present invention in the following description and the accompanying drawings. Descriptions of well-known functions and configurations that may be unnecessarily blurred are omitted. The drawings introduced below are provided by way of example so that the spirit of the invention to those skilled in the art can fully convey. Accordingly, the present invention is not limited to the drawings presented below and may be embodied in other forms. Also, like reference numerals denote like elements throughout the specification. It should be noted that the same elements in the figures are represented by the same numerals wherever possible.

도 1은 본 발명의 일 실시예에 따른 무인이동체 조종 방법의 흐름도이고, 도 2는 본 발명의 일 실시예에 따른 원형이동명령에 따라 무인이동체가 이동되는 예를 보여주는 개념도이며, 도 3은 본 발명의 일 실시예에 따른 높이이동명령에 따라 무인이동체가 이동되는 예를 보여주는 개념도이고, 도 4 내지 도 5는 본 발명의 일 실시예에 따른 전후이동명령에 따라 무인이동체가 이동되는 예를 보여주는 개념도이며, 도 6 내지 도 7은 본 발명의 일 실시예에 따른 무인이동체 조종 스마트기기의 블록도이다.1 is a flow chart of a method for manipulating the unmanned vehicle according to an embodiment of the present invention, Figure 2 is a conceptual diagram showing an example of moving the unmanned vehicle in accordance with the circular movement command according to an embodiment of the present invention, Figure 3 4 is a conceptual diagram illustrating an example in which an unmanned movable body is moved according to a height moving command according to an embodiment of the present invention, and FIGS. 4 to 5 illustrate examples of moving the unmanned movable body according to a back and forth moving command according to an embodiment of the present invention. 6 to 7 is a block diagram of an unmanned vehicle control smart device according to an embodiment of the present invention.

설명에 앞서, 본 명세서( 및 특허청구범위)에서 사용되는 용어에 대해 간단히 설명하도록 한다.Prior to the description, terms used in the specification (and claims) will be briefly described.

'무인이동체'란 사람이 탑승하지 않고 원격(유선 또는 무선)으로 조종이 가능한 이동 수단을 말한다.An unmanned vehicle is a vehicle that can be controlled remotely (wired or wireless) without a person riding it.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 원통좌표계 기반 무인이동체 조종 방법은 연산처리수단에 의하여 실행되는 프로그램 형태로 이루어지는 원통좌표계 기반 무인이동체 조종 방법에 있어서, 제어명령입력 단계(S10), 이동체측위 단계(S20), 조종명령생성 단계(S30) 및 조종명령전송 단계(S40)를 포함한다. As shown in Figure 1, the cylindrical coordinate system-based unmanned vehicle control method according to an embodiment of the present invention in the cylindrical coordinate system-based unmanned vehicle control method consisting of a program executed by arithmetic processing means, the control command input step ( S10), the moving object positioning step (S20), the control command generation step (S30) and the control command transmission step (S40).

제어명령입력 단계(S10)는 상기 연산처리수단이 조종기(10)에 입력된 조작명령 및 상기 조종기(10)가 향하는 방향정보를 포함한 제어명령을 입력받는다.In the control command input step S10, the arithmetic processing means receives a control command including an operation command input to the remote controller 10 and direction information directed to the remote controller 10.

상기 조작명령은 스위치 조작, 버튼 클릭 또는 터치패널 터치 등 사용자가 조종기(10)를 조작하면서 발생되는 명령을 말하는 것이다.The operation command refers to a command generated while the user operates the controller 10 such as a switch operation, a button click, or a touch panel touch.

이동체측위 단계(S20)는 상기 연산처리수단이 상기 조종기(10)를 원점으로 하고, 요잉각(Φ), 피칭각(θ) 및 수평거리(r) 또는 요잉각(Φ), 높이(h) 및 수평거리(r)로 표현되는 원통좌표계상 무인이동체(20)의 위치를 측위한다.In the moving object positioning step (S20), the arithmetic processing means uses the remote controller 10 as the origin, the yaw angle (Φ), the pitching angle (θ) and the horizontal distance (r) or the yaw angle (Φ), the height (h). And positioning the unmanned moving body 20 on the cylindrical coordinate system represented by the horizontal distance r.

상기 이동체측위 단계(S20)에서 방향(요잉각(Φ) 및 피칭각(θ))은 자기장을 활용한 나침반 센서를 활용하는 방법, 내장된 복수(최소 2 개)의 gps를 활용하는 방법, 이미지 센서를 활용하여 물체 인식으로 방향을 유지하는 방법 등을 사용할 수 있다.In the moving object positioning step (S20), the direction (yaw angle (Φ) and pitching angle (θ)) is a method using a compass sensor utilizing a magnetic field, a method using a plurality of built-in (at least two) gps, image The sensor can be used to maintain the direction by object recognition.

조종명령생성 단계(S30)는 상기 연산처리수단이 상기 제어명령입력 단계(S10)에서 입력받은 제어명령 및 상기 이동체측위 단계(S20)에서 측위된 원통좌표계 상에서의 상기 무인이동체(20)의 위치를 근거로 상기 무인이동체(20)의 조종명령을 (원통좌표계를 기준으로 )생성한다.Control command generation step (S30) is a control command received by the operation processing means input step (S10) and the position of the unmanned moving body 20 on the cylindrical coordinate system positioned in the moving object positioning step (S20). As a basis, a control command of the unmanned vehicle 20 is generated (based on a cylindrical coordinate system).

이때, 상기 조종명령생성 단계(S30)의 조종명령은 상기 조종기(10)의 방향과 기울기 및 상기 조종기(10)와 무인이동체(20)의 거리를 근거로 한 원통좌표계의 좌표값을 기준으로 생성되는 것을 특징으로 할 수 있다.In this case, the control command of the control command generation step (S30) is generated based on the coordinate value of the cylindrical coordinate system based on the direction and the inclination of the remote controller 10 and the distance between the remote controller 10 and the unmanned vehicle 20. It may be characterized by.

즉, 상기 조종기의 전방이 향하는 위치를 변경하는 모션으로 발생되는 원형이동명령 및 높이이동명령과 조종기와 무인이동체 간의 수평거리를 조절하는 전후이동명령 만으로 무인이동체를 이동시킬 수 있는 명령체계를 사용할 수 있다. 다시 말해, 어느 방향으로 조종기(10)와 얼마만큼 떨어진 수평위치에 무인이동체(20)를 이동시킬 수 있는 명령을 생성할 수 있다. That is, a circular movement command and a height movement command generated by a motion for changing the position of the front of the manipulator, and a command system capable of moving the unmanned vehicle with only the forward and backward movement commands for adjusting the horizontal distance between the manipulator and the unmanned vehicle can be used. have. In other words, it is possible to generate a command to move the unmanned vehicle 20 in a horizontal position separated by the remote controller 10 in any direction.

이는, 일반적인 좌표계 상에서 좌표에 해당하는 명령을 내리는 것 보다 제어의 편리성 면에서 탁월하다. 즉, 일반적인 GPS 등을 이용하여 해당 좌표 및 이동되어야 할 좌표를 확인하고 이를 정밀하게 제어하기 위해서는 오차가 적어야 하는데 통상적인 GPS는 오차가 발생할 수밖에 없기 때문에 정확하게 의도한 위치로 이동시키는 것에 한계가 있으나, 어느 방향으로 조종기(10)와 얼마만큼 떨어진 수평위치에 무인이동체(20)를 이동시키기 위해 원형이동명령, 높이이동명령 및 전후이동명령을 사용하게 되면 수행해야 하는 연산도 줄어들고 더욱 정밀한 제어가 가능(GPS에 비해 오차가 상당히 줄어듬)하기 때문이다.This is superior in terms of convenience of control than issuing commands corresponding to coordinates in a general coordinate system. That is, in order to check the corresponding coordinates and coordinates to be moved and control them precisely using a general GPS, the error should be small. If the circular movement command, the height movement command, and the forward and backward movement commands are used to move the unmanned vehicle 20 in a horizontal position far away from the controller 10 in any direction, the operation to be performed is reduced and more precise control is possible ( Error is significantly reduced compared to GPS).

조종명령전송 단계(S40)는 상기 조종명령생성 단계(S30)에서 생성된 조종명령을 상기 무인이동체(20)에 전송한다.The control command transmission step S40 transmits the control command generated in the control command generation step S30 to the unmanned moving object 20.

다시 말해, 무인이동체(20)의 이동 방향 및 조종기와의 수평거리가 나오면 무인이동체(20)의 이동을 위한 각각의 모터 출력값(모터의 회전수) 및 모터가 향해야 할 방향 등이 정해진 조종명령을 상기 무인이동체(20)에 전송하여, 무인이동체(20)의 정밀제어가 가능해 진다.In other words, when the moving direction of the unmanned vehicle 20 and the horizontal distance from the remote controller come out, each motor output value (the number of rotations of the motor) for the movement of the unmanned vehicle 20 and the direction in which the motor should be directed are determined. By transmitting to the unmanned movable body 20, precise control of the unmanned movable body 20 is possible.

본 발명의 일 실시예에 따른 원통좌표계 기반 무인이동체 조종 방법에서 상기 제어명령 중 상기 무인이동체(20)에 장착된 카메라가 상시 상기 조종기(10)를 향하도록 제어하는 조종자촬영명령이 포함될 수 있으며, 상기 조종자촬영명령이 입력되면, 무인이동체(20)가 어디로 이동하더라도 카메라가 향하는 방향이 상시 조종기(10)를 향하도록 자동 제어할 수 있다.In the cylindrical coordinate system-based unmanned vehicle control method according to an embodiment of the present invention may include an operator shooting command for controlling the camera mounted on the unmanned vehicle 20 to always face the remote controller 10 of the control command, When the operator's photographing command is input, the driver can automatically control the camera toward the remote controller 10, no matter where the unmanned vehicle 20 moves.

이는, 무인이동체(20)의 위치를 조종함과 더불어 카메라가 향하는 방향까지 조종하는 것은 무인이동체(20)의 조작을 어렵게 하는 것이기 때문에, 촬영하고자 하는 목표를 항상 카메라가 향하도록 자동제어하는 것이 바람직하다.This is because, while manipulating the position of the unmanned vehicle 20 and controlling the camera to the direction to which the camera is directed makes it difficult to operate the unmanned vehicle 20, it is preferable to automatically control the camera to always aim at the target to be photographed. Do.

본 발명의 일 실시예에 따른 원통좌표계 기반 무인이동체 조종 방법의 무인이동체(20)는 무인비행체인 것을 특징으로 할 수 있다.The unmanned vehicle 20 of the cylindrical coordinate system-based unmanned vehicle control method according to an embodiment of the present invention may be characterized in that the unmanned vehicle.

여기서 무인비행체는 무인비행기, 무인헬기, 드론 등 공중을 비행할 수 있는 기기를 말한다.Here, a drone refers to a device capable of flying in the air, such as a drone, an unmanned helicopter, or a drone.

본 발명의 일 실시예에 따른 원통좌표계 기반 무인이동체 조종 방법의 제어명령입력 단계(S10)에 사용되는 제어명령은 상기 조종기(10)의 모션, 클릭 또는 터치 패턴에 따라 미리 결정된 모션 또는 터치 패턴에 해당되는 제어명령을 포함할 수 있다.The control command used in the control command input step (S10) of the cylindrical coordinate system-based unmanned vehicle control method according to an embodiment of the present invention is a motion or touch pattern predetermined according to the motion, click or touch pattern of the remote controller 10. It may include a corresponding control command.

여기서, 조종기(10)의 모션은 조종기 내의 가속도센서, 지자기센서 및 자이로센서로 확인이 가능하며, 특정 모션을 취할 때 해당 모션에 따른 명령을 수행하도록 할 수 있다. 예를 들어, 조종기(10)를 원형의 궤적을 그리도록 움직였을 때, 조정기(10) 주위를 무인이동체(20)가 돌도록 움직이는 명령을 생성할 수 있다.Here, the motion of the remote controller 10 may be confirmed by an acceleration sensor, a geomagnetic sensor, and a gyro sensor in the remote controller, and may perform a command according to the motion when taking a specific motion. For example, when the manipulator 10 is moved to draw a circular trajectory, a command for moving the unmanned vehicle 20 around the adjuster 10 may be generated.

또한, 클릭은 한 번 (1초 이내에)눌렀다 떼는 것을 말한다. 예를 들어, 한번 클릭 할 경우, 위치는 고정하고(호버링) 조종기(10)를 무인이동체(20)가 바라보도록 제어하는 명령을 생성할 수 있으며, 두 번 클릭 할 경우, 조종기(10)쪽으로 무인이동체(20)가 돌아오도록 제어하는 명령을 생성할 수 있다.Also, click refers to pressing and releasing once (within 1 second). For example, once clicked, the position is fixed (hovering) and a command can be generated to control the manipulator 20 to be viewed by the unmanned vehicle 20, and when double clicked, the driver unmanned toward the manipulator 10. A command may be generated to control the moving object 20 to return.

또, 터치 패턴은 드래그를 말하는 것으로 누른 상태에서 일정 궤적을 그린 후 떼는 것을 말한다. 예를 들어, 원하는 동선으로 무인이동체(20)를 움직이도록 제어하는 명령을 생성할 수 있다.In addition, the touch pattern refers to dragging, which means drawing and releasing a certain trajectory while pressing. For example, it is possible to generate a command to control to move the unmanned moving body 20 to the desired copper wire.

상기에서 터치스크린에 명령을 하는 예를 설명하였으나, 본 발명이 이에 한정된 것은 아니며, 입력 수단으로 터치스크린을 더 활용할 수 있음을 예로 든 것으로, 특정 버튼을 이용한 제어명령을 생성하는 것도 가능함은 물론이다. 예를 들어, 시동버튼을 이용할 경우, 시동버튼을 한 번 누르면 시동이 걸리는 제어명령을 생성할 수 있고, 시동버튼을 다시 한 번 누르면 시동이 꺼지는 제어명령을 생성할 수 있다. 또, 날개버튼을 이용할 경우, 날개버튼을 한 번 누르면 날개가 방출되고, 날개버튼을 다시 한 번 누르면 날개가 삽입되는 명령을 생성할 수 있다.Although the example of giving a command to the touch screen has been described above, the present invention is not limited thereto. For example, the touch screen may be further used as an input means, and it is also possible to generate a control command using a specific button. . For example, when the start button is used, pressing the start button once may generate a control command to start up, and pressing the start button again may generate a control command to turn off the start. In addition, when using the wing button, press the wing button once, the wing is released, press the wing button once again can generate a command to insert the wing.

이때, 상기 제어명령은 원형이동명령, 높이이동명령 및 전후이동명령을 포함할 수 있다.In this case, the control command may include a circular movement command, a height movement command, and a forward and backward movement command.

원형이동명령은 일정 수평거리를 유지하며, 상기 조종기(10)의 요잉 운동에 따라, 피칭각(θ) 및 수평거리(r)는 고정시키고, 요잉각(Φ)은 변화시키며, 상기 조종기(10)가 향하는 방향으로 상기 무인이동체(20)를 이동시킨다.The circular movement command maintains a constant horizontal distance, and according to the yawing motion of the manipulator 10, the pitching angle θ and the horizontal distance r are fixed, the yaw angle Φ is changed, and the manipulator 10 Move the unmanned moving body 20 in the direction that the ().

상기 원형이동명령은 도 2를 참조하여 설명하면, 상기 조종기(10)를 상기 무인이동체(20)를 이동시키고자 하는 방향으로 요잉 운동 시키면, 상기 조종기(10)가 향하는 방향(조종기의 정면이 향하는 방향)으로 상기 무인이동체(20)가 상기 조종기(10)를 중심으로 요잉 운동 된다.When the circular movement command is described with reference to FIG. 2, when the manipulator 10 yaws in the direction to move the unmanned vehicle 20, the direction in which the manipulator 10 faces (the front of the manipulator is directed) Direction) the unmanned vehicle 20 is yawing around the manipulator 10.

높이이동명령은 일정 수평거리를 유지하며, 상기 조종기(10)의 피칭 운동에 따라, 요잉각(Φ) 및 수평거리(r)는 고정시키고, 피칭각(θ) 또는 높이(h)를 변화시키며, 상기 조종기(10)가 향하는 방향으로 상기 무인이동체(20)를 이동시킨다.The height movement command maintains a constant horizontal distance, and according to the pitching motion of the manipulator 10, the yaw angle Φ and the horizontal distance r are fixed, and the pitching angle θ or the height h is changed. To move the unmanned moving body 20 in the direction in which the manipulator 10 faces.

상기 높이이동명령은 도 3을 참조하여 설명하면, 상기 조종기(10)를 상기 무인이동체(20)를 이동시키고자 하는 방향으로 피칭 운동 시키면, 상기 조종기(10)가 향하는 방향(조종기의 정면이 향하는 방향)으로 상기 무인이동체(20)가 상기 조종기(10)를 중심으로 상하 연직 운동 된다.When the height movement command is described with reference to FIG. 3, when the manipulator 10 is pitched in the direction to move the unmanned moving object 20, the direction in which the manipulator 10 faces (the front of the manipulator is directed) Direction) the unmanned moving body 20 is vertically up and down about the manipulator 10.

전후이동명령은 일정 높이를 유지하며, 상기 조종기(10)의 전후이동 조작명령에 따라, 요잉각(Φ)은 고정시키고, 피칭각(θ) 및 수평거리(r)는 변화시키며, 상기 조종기(10)가 향하는 방향으로 상기 무인이동체(20)를 이동시키거나, 상기 조종기(10)의 피칭 운동에 따라, 요잉각(Φ) 및 높이(h)는 고정시키고, 수평거리(r)를 변화시키며, 상기 조종기(10)가 향하는 방향으로 상기 무인이동체(20)를 이동시킨다.The forward and backward movement command maintains a constant height, and the yaw angle Φ is fixed, the pitching angle θ and the horizontal distance r are changed according to the forward and backward movement manipulation command of the manipulator 10. 10, the yaw angle Φ and the height h are fixed and the horizontal distance r is changed according to the movement of the unmanned moving body 20 in the direction in which 10 is directed. To move the unmanned moving body 20 in the direction in which the manipulator 10 faces.

상기 전후이동명령은 도 4를 참조하여 설명하면, 상기 조종기(10)에 전후이동명령(도 4에서는 전진명령)을 입력하면, 상기 무인이동체(20)가 수평 전후 이동(도 4에서는 전진)을 한다.When the front and rear movement command is described with reference to FIG. 4, when the front and rear movement command (forward command in FIG. 4) is input to the remote controller 10, the unmanned moving body 20 moves horizontally forward and backward (forward in FIG. 4). do.

상기 전후이동명령의 다른 실시예를 도 5를 참조하여 설명하면, 상기 조종기(10)에 전후이동명령(도 5에서는 피칭운동)을 입력하면, 상기 무인이동체(20)가 수평 전후 이동(도 5에서는 전진)을 한다.Another embodiment of the back and forth movement command will be described with reference to FIG. 5. When the back and forth movement command (pitching motion in FIG. 5) is input to the manipulator 10, the unmanned moving body 20 moves horizontally back and forth (FIG. 5). Forward).

즉, 본 발명의 일 실시예에 따른 원통좌표계 기반 무인이동체 조종 방법은 전방으로 이동, 후방으로 이동, 좌방으로 이동, 우방으로 이동, 상방으로 이동, 하방으로 이동, 시계방향으로 회전, 반시계방향으로 회전 등의 복잡한 명령체계를 사용하지 않고, 상기 조종기의 전방이 향하는 위치를 변경하는 모션으로 발생되는 원형이동명령 및 높이이동명령과 조종기와 무인이동체 간의 수평거리를 조절하는 전후이동명령 만으로 무인이동체를 이동시킬 수 있는 명령체계를 사용할 수 있다.That is, the method for manipulating the unmanned moving body based on the cylindrical coordinate system according to the embodiment of the present invention moves forward, moves backward, moves leftward, moves rightwards, moves upwards, moves downwards, rotates clockwise, and counterclockwise. Without using complicated command system such as rotation, the unmanned moving body is controlled only by the circular movement command and height movement command generated by the motion to change the position of the front of the manipulator and the horizontal movement command between the controller and the unmanned vehicle. You can use the command system to move the.

이때, 상기 원형이동명령 높이이동명령 및 전후이동명령을 동시에 입력하는 것도 가능함은 물론이다.At this time, it is also possible to simultaneously input the circular movement command height movement command and the front and rear movement command.

또, 상기 제어명령은 상기 조종기(10)에 탑재된 카메라의 촬영을 지시하는 촬영명령을 포함하는 것을 특징으로 할 수 있다.In addition, the control command may be characterized in that it comprises a shooting command for instructing the shooting of the camera mounted on the remote controller (10).

즉, 무인이동체(20)에 카메라가 탑재 되었을 경우, 카메라의 조작에 필요한 명령이 제어명령에 포함될 수 있다. 예를 들어, 카메라 조작버튼을 한 번 클릭하면 사진촬영, 더블 클릭하면 연속 사진촬영, 누른 상태로 1초 이상 유지하면 동영상 촬영 등을 명령할 수 있다.That is, when the camera is mounted on the unmanned moving body 20, a command required for operating the camera may be included in the control command. For example, if you click the camera operation button once, you can take a picture, if you double-click to take a continuous picture, and if you hold it down for more than 1 second, you can command to take a picture.

도 6에 도시된 바와 같이, 본 발명의 일 실시예에 따른 원통좌표계 기반 무인이동체 조종 방법의 이동체측위 단계(S20)는 거리측정 단계(S21) 및 무인이동체좌표산정 단계(S22)를 포함하며, 상기 조종명령생성 단계(30)는 상기 무인이동체좌표산정 단계(S22)에서 산정된 조종기(10)를 원점으로 하는 원통좌표계 상 무인이동체(20)의 좌표를 근거로 상기 무인이동체(20)를 조종하는 것을 특징으로 할 수 있다.As shown in FIG. 6, the moving object positioning step (S20) of the cylindrical coordinate system-based unmanned vehicle steering method according to an embodiment of the present invention includes a distance measuring step (S21) and an unmanned vehicle coordinate calculating step (S22), The control command generation step 30 controls the unmanned mobile body 20 based on the coordinates of the unmanned mobile body 20 in the cylindrical coordinate system having the origin of the controller 10 calculated in the unmanned mobile body coordinate calculation step (S22). It can be characterized by.

거리측정 단계(S21)는 상기 조종기(10)와 상기 무인이동체(20)의 거리를 측정한다.In the distance measuring step S21, the distance between the remote controller 10 and the unmanned vehicle 20 is measured.

이때, 상기 거리측정 단계(S21)는 조종기(10)의 미리 결정된 포인트와 무인이동체(20)상의 미리 결정된 포인트간 거리를 측정할 수 있다.In this case, the distance measuring step S21 may measure the distance between the predetermined point of the remote controller 10 and the predetermined point on the unmanned vehicle 20.

무인이동체(20)상의 미리 결정된 포인트는 무인이동체(20) 상에 특정 포인트를 지정한 것을 말한다. 예를 들어, 배의 경우, 무게중심을 포인트로 지정할 수 있다. 이렇게 지정된 포인트에 거리를 측정하기 위한 센서 등을 장착하여, 조종기(10)와 무인이동체(20)상의 미리 결정된 포인트간 거리를 측정할 수 있다. The predetermined point on the unmanned vehicle 20 refers to a specified point on the unmanned vehicle 20. For example, in the case of a ship, the center of gravity can be specified as a point. By mounting a sensor or the like for measuring the distance to the designated point, it is possible to measure the predetermined distance between the remote controller 10 and the unmanned vehicle 20.

또한, 상기 거리측정 단계(S21)는 무인이동체(20)의 미리 결정된 포인트를 3 이상으로 하고, 조종기(10)와 포인트간 거리를 적어도 3 포인트 측정하는 것을 특징으로 할 수 있다. 예를 들어, 쿼드콥터의 경우, 4 개의 모터 각각을 포인트로 지정할 수 있으며, 이 중 최소 3 포인트 이상에 대한 조종기(10)와의 거리를 측정하는 것이 바람직하다. 이는 3각 측량 등을 이용하기 위함이다.In addition, the distance measuring step (S21) may be characterized in that the predetermined point of the unmanned moving body 20 is 3 or more, and the distance between the remote controller 10 and the point is measured at least three points. For example, in the case of a quadcopter, each of the four motors can be designated as a point, and it is preferable to measure the distance to the manipulator 10 for at least three points. This is to use triangulation and the like.

여기서, 3 포인트 만으로는 2 개의 값이 나오기 때문에 추가로 1 포인트(총 4 포인트)에 대한 거리를 측정할 수 있고, 또는 조종기와 비행체간의 높이차를 측정할 수도 있는 등 다양한 방법을 사용할 수 있다. In this case, since two values are generated by only three points, various methods may be used, such as measuring a distance of one point (four points in total) or measuring a height difference between a manipulator and an aircraft.

무인이동체좌표산정 단계(S22)는 상기 거리측정 단계(S21)에서 측정된 거리 및 상기 무인이동체(20)에 내장된 센서로 측정된 무인이동체(20)의 높이정보를 근거로 상기 조종기(10)를 원점으로 하는 원통좌표계 상에서 무인이동체(20)의 좌표를 산정한다.The unmanned vehicle coordinate calculating step S22 is based on the distance measured in the distance measuring step S21 and the height information of the unmanned vehicle 20 measured by the sensor embedded in the unmanned vehicle 20. The coordinates of the unmanned moving object 20 are calculated on the cylindrical coordinate system whose origin is.

여기서 높이정보는 무인이동체(20)에 내장된 RTK(real time kinematic) GPS 센서, 기압고도계, IMU(Inertial Measurement Unit), 초음파센서 등으로 측정이 가능하다.The height information may be measured by a real time kinematic (RTK) GPS sensor, barometric altimeter, IMU (Inertial Measurement Unit), ultrasonic sensor, etc. built in the unmanned moving body 20.

RTK GPS 기술은 오차가 1cm~3cm 까지 개선된 GPS 기술이고, 소형화, 저가형 제품으로 발전하고 있다. RTK GPS technology is a GPS technology with improved error from 1cm to 3cm, and it is developing into a miniaturized and low-cost product.

또한, 상기 무인이동체좌표산정 단계(S22)는 조종기(10)를 중심에 둔 기준좌표 상에서 무인이동체(20)의 좌표를 산정하는 것을 특징으로 할 수 있다.In addition, the step of calculating the unmanned moving body coordinates (S22) may be characterized by calculating the coordinates of the unmanned moving body 20 on the reference coordinates centered on the remote controller 10.

여기서 사용하는 기준좌표계는 지평좌표계, 직교좌표계, 원통좌표계, 구면좌표계 등을 사용할 수 있으며, 이하 직교좌표계를 이용하는 방법에 대해 설명하도록 한다.Here, the reference coordinate system may be a horizontal coordinate system, a rectangular coordinate system, a cylindrical coordinate system, a spherical coordinate system, and the like. Hereinafter, a method of using a rectangular coordinate system will be described.

기준좌표계에서 쿼드콥터 각 모터의 좌표값 계산의 예는 다음과 같다.An example of calculating the coordinate values of each quadcopter motor in the reference coordinate system is as follows.

각각의 모터는 직사각형 형태로 배열되고, 1, 2, 3, 4 라고 하며, 드론 중심의 좌표를 (x*, y*, z*)라 하면, Each motor is arranged in a rectangular shape and is called 1, 2, 3, 4, and the coordinates of the drone's center are (x * , y * , z * ).

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

(여기서, a는 y축과 평행선상에 놓인 모터 간의 거리, b는 x축과 평행선상에 놓인 모터간의 거리)(Where a is the distance between motors parallel to the y-axis, b is the distance between motors parallel to the x-axis)

Figure pat00003
는 쿼드콥터 상의 지자기센서와 자이로센서로 측정이 가능하다.
Figure pat00003
Can be measured with geomagnetic and gyro sensors on quadcopters.

마찬가지 방법으로 (모터)2, (모터)3에 대하여 Similarly, for (motor) 2 and (motor) 3

Figure pat00004
Figure pat00004

조종기와 드론 사이의 좌표변환을 위해서 두 가지 방법이 사용될 수 있다.Two methods can be used to transform the coordinates between the manipulator and the drone.

한 가지는 기존에 상기에서 설명한 3개 이상의 포인트에서 거리를 측정해서, 측정된 거리를 토대로 좌표 변환을 하는 것이고, One is to measure the distance at three or more points as previously described, and then transform the coordinates based on the measured distance,

다른 하나는 조종기(10)에도 RTK GPS가 포함(내장)되고, 무인이동체(20)에도 RTK GPS가 포함(내장)되어, RTK GPS를 활용하여 조종기(10) 고유의 절대좌표와 무인이동체(20) 고유의 절대좌표를 측정해서 이를 활용하여, 조종기 중심의 상대좌표로 변환하는 것이다. On the other hand, the remote controller 10 includes the RTK GPS (built-in), and the unmanned vehicle 20 also includes the RTK GPS (built), utilizing the RTK GPS, the absolute coordinates of the remote controller 10 and the unmanned vehicle 20 ) It measures native absolute coordinates and converts them to relative coordinates of the center of the controller.

조종기와 드론 사이의 좌표변환은 위 두 가지 방법을 별도로 사용하거나, 가중치를 적용하여 혼합해서 사용하는 방법이 있다.Coordinate transformation between the remote controller and the drone can be performed by using the above two methods separately or by mixing them with weights.

본 발명의 일 실시예에 따른 무인이동체 조종 방법에 대한 연산처리는 조종기(10) 또는 무인이동체(20)에 설치될 수 있다. 즉, 무인이동체(10)는 기존의 명령체계에 따라 이동하되 조종기(10)에서 해당 연산을 수행하여 무인이동체(10)가 해당 연산에 따라 제어되도록 하는 것도 가능하고, 조종기(10)를 기존의 조종기를 사용하되 무인이동체(10)가 해당 연산을 수행하여 무인이동체를 제어하는 것도 가능하다.Operation processing for the unmanned vehicle control method according to an embodiment of the present invention may be installed in the remote controller 10 or the unmanned vehicle (20). That is, the unmanned moving body 10 may move according to the existing command system, but the corresponding operation may be performed by the remote controller 10 so that the unmanned mobile body 10 is controlled according to the corresponding operation, and the remote controller 10 may be It is also possible to use a remote controller, but the unmanned vehicle 10 controls the unmanned vehicle by performing the corresponding operation.

본 발명의 일 실시예에 따른 원통좌표계 기반 무인이동체 조종 방법의 거리측정 단계(S21)는 이미지 인식을 이용한 거리측정, 전파 세기를 이용한 거리측정, 전파의 이동시간을 이용한 거리측정, 전파의 위상차를 이용한 거리측정, 간섭계를 이용한 거리측정 및 편광원의 세기를 이용한 거리측정 중 어느 하나 또는 복수를 사용하는 것을 특징으로 할 수 있다.Distance measurement step (S21) of the cylindrical coordinate system-based unmanned vehicle control method according to an embodiment of the present invention is the distance measurement using image recognition, the distance measurement using the intensity of the radio wave, the distance measurement using the movement time of the radio wave, the phase difference of the radio wave The distance measurement using the distance measurement, the distance measurement using the interferometer, and the distance measurement using the intensity of the polarization source may be used.

이미지 인식을 이용한 거리측정은 기준이 되는 이미지의 형상 및 크기를 근거로 거리를 계산하는 방식이다.Distance measurement using image recognition is a method of calculating a distance based on the shape and size of a reference image.

전파의 이동시간을 이용한 거리측정은 전파가 반사되어 돌아오는 시간을 측정하여 거리를 계산하는 방식이다.Distance measurement using the movement time of the radio wave is a method of calculating the distance by measuring the return time of the radio wave reflected.

전파의 위상차를 이용한 거리측정은 방출한 전파가와 반사되어 돌아온 전파 간의 위상차를 근거로 거리를 계산하는 방식이다.Distance measurement using the phase difference of radio waves is a method of calculating the distance based on the phase difference between the emitted radio wave and the reflected radio wave.

간섭계를 이용한 거리측정은 간섭현상을 이용하여 거리를 계산하는 방식으로 수 나노미터까지 측정할 수 있다.Distance measurement using an interferometer can measure up to several nanometers by calculating the distance using an interference phenomenon.

도 7에 도시된 바와 같이, 본 발명의 일 실시예에 따른 원통좌표계 기반 무인이동체 조종 방법의 이동체측위 단계(S20)는 상기 무인이동체좌표산정 단계(S22)이후에 좌표수신 단계(S23) 및 좌표적용 단계(S24)를 포함할 수 있다.As shown in FIG. 7, the moving object positioning step (S20) of the cylindrical coordinate system-based unmanned moving object control method according to an embodiment of the present invention includes a coordinate receiving step (S23) and a coordinate after the unmanned moving object coordinate calculating step (S22). The application step S24 may be included.

좌표수신 단계(S23) 조종기(10)의 RTK(real time kinematic) GPS좌표를 수신한다.Coordinate Receiving Step (S23) The real time kinematic (RTK) GPS coordinates of the remote controller 10 are received.

좌표적용 단계(S24)는 상기 무인이동체좌표산정 단계(S22)에 사용된 원통좌표계의 원점좌표를 상기 좌표수신 단계(S23)에서 수신받은 RTK(real time kinematic) GPS좌표로 적용시킨다.Coordinate application step (S24) is to apply the origin coordinates of the cylindrical coordinate system used in the unmanned mobile coordinate calculation step (S22) to the RTK (real time kinematic) GPS coordinates received in the coordinate reception step (S23).

조종기 중점 고정좌표계를 0'-x'y'z'라 표현하고,Represent the manipulator fixed point coordinate system as 0'-x'y'z ',

조종기 GPS 좌표를 (x0, y0, z0), Remote controller GPS coordinates (x 0 , y 0 , z 0 ),

드론 GPS 좌표를 (x1, y1, z1)라 할 때,If the drone GPS coordinates are (x 1 , y 1 , z 1 ),

이를 0'-x'y'z' 변환하면,If you convert it to 0'-x'y'z ',

조종기 GPS 좌표를 (0, 0, 0)0', Remote controller GPS coordinates (0, 0, 0) 0 ' ,

드론 GPS 좌표를 (x1-x0, y1-y0, z1-z0)0' = Do'Drone GPS coordinates (x 1 -x 0 , y 1 -y 0 , z 1 -z 0 ) 0 ' = Do'

조종기가 목표로 정한 목표좌표를 T라 하고,The target coordinate set by the controller is called T,

0'-x'y'z' 좌표계 변환 시 Do'는 드론의 현위치, To'는 드론의 목표지점이라 할 때,When Do 'is the current position of the drone and To' is the target point of the drone when the 0'-x'y'z 'coordinate system is converted,

Figure pat00005
Figure pat00005

도 6에서 이동체측위 단계(S20)는 Do'를 찾아내는 단계이고, 조종명령생성 단계(S30)는 To'를 이용하여

Figure pat00006
,
Figure pat00007
차이로 이동 경로를 연산하는 단계이다.In FIG. 6, the moving object positioning step (S20) is a step of finding Do ', and the control command generation step (S30) uses To'.
Figure pat00006
,
Figure pat00007
Computing the movement path by the difference.

이때,

Figure pat00008
=(xT, yT, zT)라 하면,At this time,
Figure pat00008
= (x T , y T , z T )

원통좌표계에서 반지름 r, 요잉각Φ, 높이z로 표현 시When expressed as radius r, yaw angle Φ, height z in cylindrical coordinate system

Figure pat00009
Figure pat00009

로 변환 가능하고,Convert to,

Figure pat00010
=(rT, ΦT, zT)로 표현 할 수 있고,
Figure pat00011
역시 동일하게 표현할 수 있다.
Figure pat00010
can be expressed as = (r T , Φ T , z T ),
Figure pat00011
The same can be said.

이때, 조종명령에 따라 rT, ΦT, zT 중 하나 또는 둘을 변수로 설정해서 사용자 중심의 조종 경험을 제공하는 것이 가능하다.At this time, it is possible to provide a user-centered steering experience by setting one or two of r T , Φ T , z T according to the control command as a variable.

본 발명의 일 실시예에 따른 원통좌표계 기반 무인이동체 조종 방법의 조종기(10)에 표시되는 화면은 원통좌표계를 적용한 정보로 표시되는 것을 특징으로 할 수 있다.The screen displayed on the remote controller 10 of the cylindrical coordinate system-based unmanned vehicle control method according to an embodiment of the present invention may be characterized by being displayed as information applying the cylindrical coordinate system.

이는, 방향과 거리를 중심으로 하여, 조종자의 시점에서의 보다 직관적인 조종이 가능하게 하게 도와준다.This helps to enable more intuitive manipulation at the operator's point of view, centering on the direction and distance.

이상에서 본 발명의 일 실시예에 따른 원통좌표계 기반 무인이동체 조종 방법에 대하여 설명하였지만, 원통좌표계 기반 무인이동체 조종 방법을 구현하기 위한 프로그램이 저장된 컴퓨터 판독 가능한 기록매체 및 원통좌표계 기반 무인이동체 조종 방법을 구현하기 위한 컴퓨터 판독 가능한 기록매체에 저장된 프로그램 역시 구현 가능함은 물론이다.Although a description has been made of a cylindrical coordinate system based unmanned vehicle control method according to an embodiment of the present invention, a computer-readable recording medium and a cylindrical coordinate system based unmanned vehicle control method stored therein for implementing a cylindrical coordinate system based unmanned vehicle control method Of course, the program stored in the computer-readable recording medium for implementation is also possible.

즉, 상술한 원통좌표계 기반 무인이동체 조종 방법은 이를 구현하기 위한 명령어들의 프로그램이 유형적으로 구현됨으로써, 컴퓨터를 통해 판독될 수 있는 기록매체에 포함되어 제공될 수도 있음을 당업자들이 쉽게 이해할 수 있을 것이다. 다시 말해, 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어, 컴퓨터 판독 가능한 기록매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 상기 컴퓨터 판독 가능한 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리, USB 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.That is, it will be readily understood by those skilled in the art that the above-described cylindrical coordinate system-based unmanned mobile vehicle steering method may be provided in a recording medium that can be read through a computer by programmatically implementing a program of instructions for implementing the same. In other words, it may be embodied in the form of program instructions that can be executed by various computer means, and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in computer software. Examples of such computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, USB memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

본 발명은 상기한 실시예에 한정되지 아니하며, 적용범위가 다양함은 물론이고, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 다양한 변형 실시가 가능한 것은 물론이다. The present invention is not limited to the above-described embodiments, and the scope of application is not limited, and various modifications can be made without departing from the gist of the present invention as claimed in the claims.

10: 조종기
20: 무인이동체
S10: 제어명령입력 단계
S20: 이동체측위 단계
S21: 거리측정 단계
S22: 무인이동체좌표산정 단계
S23: 좌표수신 단계
S24: 좌표적용 단계
S30: 조종명령생성 단계
S40: 조종명령전송 단계
10: remote controller
20: unmanned vehicle
S10: control command input step
S20: Moving object positioning step
S21: Distance Measuring Step
S22: Unmanned Mobile Coordinates Calculation Step
S23: Coordinate Receive Step
S24: Coordinate Application Step
S30: control command generation step
S40: control command transmission step

Claims (10)

연산처리수단에 의하여 실행되는 프로그램 형태로 이루어지는 원통좌표계 기반 무인이동체 조종 방법에 있어서,
상기 연산처리수단이 조종기(10)에 입력된 조작명령 및 상기 조종기(10)가 향하는 방향정보를 포함한 제어명령을 입력받는 제어명령입력 단계(S10);
상기 연산처리수단이 상기 조종기(10)를 원점으로 하고, 요잉각(Φ), 피칭각(θ) 및 수평거리(r) 또는 요잉각(Φ), 높이(h) 및 수평거리(r)로 표현되는 원통좌표계상 무인이동체(20)의 위치를 측위하는 이동체측위 단계(S20);
상기 연산처리수단이 상기 제어명령입력 단계(S10)에서 입력받은 제어명령 및 상기 이동체측위 단계(S20)에서 측위된 원통좌표계 상에서의 상기 무인이동체(20)의 위치를 근거로 상기 무인이동체(20)의 조종명령을 생성하는 조종명령생성 단계(S30); 및
상기 조종명령생성 단계(S30)에서 생성된 조종명령을 상기 무인이동체(20)에 전송하는 조종명령전송 단계(S40);
를 포함하는 원통좌표계 기반 무인이동체 조종 방법.
In the cylindrical coordinate system-based unmanned vehicle control method formed by a program executed by arithmetic processing means,
A control command input step of receiving, by the arithmetic processing means, a control command including an operation command input to the remote controller 10 and a direction information directed to the remote controller 10 (S10);
The arithmetic processing means makes the remote controller 10 the origin, and the yaw angle Φ, pitching angle θ and horizontal distance r or yaw angle Φ, height h and horizontal distance r Moving object positioning step (S20) for positioning the position of the unmanned moving body 20 in the cylindrical coordinate system represented;
The unmanned moving body 20 is based on the control command received by the operation command input step (S10) and the position of the unmanned mobile body 20 on the cylindrical coordinate system positioned in the moving object positioning step (S20). A control command generation step (S30) of generating a control command of the; And
A control command transmission step (S40) of transmitting the control command generated in the control command generation step (S30) to the unmanned moving object (20);
Cylindrical coordinate system-based unmanned vehicle control method comprising a.
제1항에 있어서,
상기 무인이동체 조종 방법의 무인이동체(20)는
무인비행체인 것을 특징으로 하는 원통좌표계 기반 무인이동체 조종 방법.
The method of claim 1,
The unmanned mobile body 20 of the unmanned mobile vehicle steering method
Cylindrical coordinate system-based unmanned vehicle control method, characterized in that the unmanned aerial vehicle.
제1항에 있어서,
상기 제어명령입력 단계(S10)의 제어명령은
상기 조종기(10)의 모션, 클릭 또는 터치 패턴에 따라 미리 결정된 모션 또는 터치 패턴에 해당되는 제어명령을 포함하는 원통좌표계 기반 무인이동체 조종 방법.
The method of claim 1,
The control command of the control command input step (S10) is
Cylindrical coordinate system-based unmanned vehicle control method comprising a control command corresponding to a predetermined motion or touch pattern according to the motion, click or touch pattern of the remote controller (10).
제1항에 있어서,
상기 제어명령은
일정 수평거리를 유지하며, 상기 조종기(10)의 요잉 운동에 따라, 피칭각(θ) 및 수평거리(r)는 고정시키고, 요잉각(Φ)은 변화시키며, 상기 조종기(10)가 향하는 방향으로 상기 무인이동체(20)를 이동시키는 원형이동명령,
일정 수평거리를 유지하며, 상기 조종기(10)의 피칭 운동에 따라, 요잉각(Φ) 및 수평거리(r)는 고정시키고, 피칭각(θ) 또는 높이(h)를 변화시키며, 상기 조종기(10)가 향하는 방향으로 상기 무인이동체(20)를 이동시키는 높이이동명령 및
일정 높이를 유지하며, 상기 조종기(10)의 전후이동 조작명령에 따라, 요잉각(Φ)은 고정시키고, 피칭각(θ) 및 수평거리(r)는 변화시키며, 상기 조종기(10)가 향하는 방향으로 상기 무인이동체(20)를 이동시키거나, 상기 조종기(10)의 피칭 운동에 따라, 요잉각(Φ) 및 높이(h)는 고정시키고, 수평거리(r)를 변화시키며, 상기 조종기(10)가 향하는 방향으로 상기 무인이동체(20)를 이동시키는 전후이동명령
을 포함하는 것을 특징으로 하는 원통좌표계 기반 무인이동체 조종 방법.
The method of claim 1,
The control command is
Maintain a constant horizontal distance, in accordance with the yawing motion of the manipulator 10, the pitching angle (θ) and the horizontal distance (r) is fixed, the yaw angle (Φ) is changed, the direction in which the manipulator 10 is directed Circular movement command to move the unmanned mobile body 20,
Maintaining a constant horizontal distance, in accordance with the pitching motion of the manipulator 10, the yaw angle (Φ) and the horizontal distance (r) is fixed, the pitching angle (θ) or height (h) is changed, 10) a height moving command for moving the unmanned moving body 20 in the direction of the heading and
Maintaining a constant height, the yaw angle Φ is fixed, the pitching angle θ and the horizontal distance r are changed according to the forward and backward movement control command of the manipulator 10, and the manipulator 10 faces. Move the unmanned movable body 20 in the direction, or in accordance with the pitching movement of the manipulator 10, the yaw angle Φ and height h is fixed, the horizontal distance r is changed, and the manipulator ( 10) a forward and backward movement command for moving the unmanned movable body 20 in the direction that the heading is directed.
Cylindrical coordinate system-based unmanned vehicle control method comprising a.
제1항에 있어서,
상기 이동체측위 단계(S20)는
상기 조종기(10)와 상기 무인이동체(20)의 거리를 측정하는 거리측정 단계(S21); 및
상기 거리측정 단계(S21)에서 측정된 거리 및 상기 무인이동체(20)에 내장된 센서로 측정된 무인이동체(20)의 높이정보를 근거로 상기 조종기(10)를 원점으로 하는 원통좌표계 상에서 무인이동체(20)의 좌표를 산정하는 무인이동체좌표산정 단계(S22);
를 포함하며,
상기 조종명령생성 단계(30)는
상기 무인이동체좌표산정 단계(S22)에서 산정된 조종기(10)를 원점으로 하는 원통좌표계 상 무인이동체(20)의 좌표를 근거로 상기 무인이동체(20)를 조종하는 것을 특징으로 하는 원통좌표계 기반 무인이동체 조종 방법.
The method of claim 1,
The moving object positioning step (S20)
A distance measuring step (S21) of measuring a distance between the manipulator 10 and the unmanned moving body 20; And
Based on the distance measured in the distance measuring step (S21) and the height information of the unmanned mobile body 20 measured by the sensor embedded in the unmanned mobile body 20, the unmanned mobile body on the cylindrical coordinate system as the origin of the remote controller 10; An unmanned mobile coordinate calculation step (S22) for calculating the coordinates of (20);
Including;
The control command generation step 30
Cylindrical coordinate system based unmanned, characterized in that for controlling the unmanned mobile body 20 on the basis of the coordinates of the unmanned mobile body 20 in the cylindrical coordinate system with the origin of the remote controller 10 calculated in the unmanned mobile body coordinate calculation step (S22). How to control a moving object.
제5항에 있어서,
상기 거리측정 단계(S21)는
이미지 인식을 이용한 거리측정, 전파 세기를 이용한 거리측정, 전파의 이동시간을 이용한 거리측정, 전파의 위상차를 이용한 거리측정, 간섭계를 이용한 거리측정 및 편광원의 세기를 이용한 거리측정 중 어느 하나 또는 복수를 사용하는 것을 특징으로 하는 원통좌표계 기반 무인이동체 조종 방법.
The method of claim 5,
The distance measuring step (S21) is
One or more of distance measurement using image recognition, distance measurement using radio wave strength, distance measurement using radio wave travel time, distance measurement using phase difference of radio wave, distance measurement using interferometer, distance measurement using intensity of polarization source Cylindrical coordinate system-based unmanned vehicle control method, characterized in that using the.
제5항에 있어서,
상기 이동체측위 단계(S20)는 상기 무인이동체좌표산정 단계(S22)이후에
조종기(10)의 RTK(real time kinematic) GPS좌표를 수신하는 좌표수신 단계(S23); 및
상기 무인이동체좌표산정 단계(S22)에 사용된 원통좌표계의 원점좌표를 상기 좌표수신 단계(S23)에서 수신받은 RTK(real time kinematic) GPS좌표로 적용시키는 좌표적용 단계(S24);
를 포함하는 원통좌표계 기반 무인이동체 조종 방법.
The method of claim 5,
The moving object positioning step (S20) is after the unmanned moving body coordinate calculation step (S22)
A coordinate receiving step (S23) of receiving a real time kinematic (RTK) GPS coordinate of the remote controller 10; And
A coordinate application step (S24) of applying the origin coordinates of the cylindrical coordinate system used in the unmanned moving body coordinate calculation step (S22) to the real time kinematic GPS coordinates received in the coordinate reception step (S23);
Cylindrical coordinate system-based unmanned vehicle control method comprising a.
제1항에 있어서,
상기 조종기(10)에 표시되는 화면은
원통좌표계를 적용한 정보로 표시되는 것을 특징으로 하는 원통좌표계 기반 무인이동체 조종 방법.
The method of claim 1,
The screen displayed on the remote controller 10 is
Cylindrical coordinate system-based unmanned vehicle control method, characterized in that displayed by the information applied to the cylindrical coordinate system.
제 1항 내지 제 8항 중 선택되는 어느 한 항에 기재된 원통좌표계 기반 무인이동체 조종 방법을 구현하기 위한 프로그램이 저장된 컴퓨터 판독 가능한 기록매체.
A computer-readable recording medium having stored thereon a program for implementing the cylindrical coordinate system-based unmanned vehicle steering method according to any one of claims 1 to 8.
제 1항 내지 제 8항 중 선택되는 어느 한 항에 기재된 원통좌표계 기반 무인이동체 조종 방법을 구현하기 위한 컴퓨터 판독 가능한 기록매체에 저장된 프로그램.A program stored in a computer-readable recording medium for implementing the cylindrical coordinate system-based unmanned vehicle steering method according to any one of claims 1 to 8.
KR1020180052598A 2018-05-08 2018-05-08 Method for controling unmanned moving object based on cylindrical coordinate system and recording medium storing program for executing the same, and computer prograom stored in recording medium for executing the same KR102117338B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180052598A KR102117338B1 (en) 2018-05-08 2018-05-08 Method for controling unmanned moving object based on cylindrical coordinate system and recording medium storing program for executing the same, and computer prograom stored in recording medium for executing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180052598A KR102117338B1 (en) 2018-05-08 2018-05-08 Method for controling unmanned moving object based on cylindrical coordinate system and recording medium storing program for executing the same, and computer prograom stored in recording medium for executing the same

Publications (2)

Publication Number Publication Date
KR20190128425A true KR20190128425A (en) 2019-11-18
KR102117338B1 KR102117338B1 (en) 2020-06-01

Family

ID=68727995

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180052598A KR102117338B1 (en) 2018-05-08 2018-05-08 Method for controling unmanned moving object based on cylindrical coordinate system and recording medium storing program for executing the same, and computer prograom stored in recording medium for executing the same

Country Status (1)

Country Link
KR (1) KR102117338B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113009884A (en) * 2019-12-19 2021-06-22 广州极飞科技股份有限公司 Method, device, equipment and storage medium for controlling operation of unmanned equipment
CN113985778A (en) * 2021-10-28 2022-01-28 北京环境特性研究所 Control system and method of vehicle-mounted photoelectric sensor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130086192A (en) 2013-06-18 2013-07-31 이상윤 Unmanned aerial vehicle system operated by smart eyeglass
WO2016168722A1 (en) * 2015-04-16 2016-10-20 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
KR20170030318A (en) * 2015-09-09 2017-03-17 선종현 Smart device for controling unmanned moving object and method for controling unmanned moving object and recording medium storing program for executing the same, and recording medium storing program for executing the same
KR20170081488A (en) * 2016-01-04 2017-07-12 삼성전자주식회사 Method for Shooting Image Using a Unmanned Image Capturing Device and an Electronic Device supporting the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130086192A (en) 2013-06-18 2013-07-31 이상윤 Unmanned aerial vehicle system operated by smart eyeglass
WO2016168722A1 (en) * 2015-04-16 2016-10-20 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
KR20170030318A (en) * 2015-09-09 2017-03-17 선종현 Smart device for controling unmanned moving object and method for controling unmanned moving object and recording medium storing program for executing the same, and recording medium storing program for executing the same
KR20170081488A (en) * 2016-01-04 2017-07-12 삼성전자주식회사 Method for Shooting Image Using a Unmanned Image Capturing Device and an Electronic Device supporting the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113009884A (en) * 2019-12-19 2021-06-22 广州极飞科技股份有限公司 Method, device, equipment and storage medium for controlling operation of unmanned equipment
CN113985778A (en) * 2021-10-28 2022-01-28 北京环境特性研究所 Control system and method of vehicle-mounted photoelectric sensor
CN113985778B (en) * 2021-10-28 2024-01-19 北京环境特性研究所 Control system and method for vehicle-mounted photoelectric sensor

Also Published As

Publication number Publication date
KR102117338B1 (en) 2020-06-01

Similar Documents

Publication Publication Date Title
US11644832B2 (en) User interaction paradigms for a flying digital assistant
US10860040B2 (en) Systems and methods for UAV path planning and control
US11604479B2 (en) Methods and system for vision-based landing
KR102236339B1 (en) Systems and methods for controlling images captured by an imaging device
US8089225B2 (en) Systems and methods for inertially controlling a hovering unmanned aerial vehicles
CN109219785B (en) Multi-sensor calibration method and system
KR101740312B1 (en) Induction control method using camera control information of unmanned air vehicle
WO2018214068A1 (en) Flight control method, device and system, and machine readable storage medium
US10331120B2 (en) Remote control device, control system and method of controlling
KR101751864B1 (en) Smart device for controling unmanned moving object and method for controling unmanned moving object and recording medium storing program for executing the same, and recording medium storing program for executing the same
CN107643758A (en) Shoot the autonomous system and method that include unmanned plane and earth station of mobile image
WO2021199449A1 (en) Position calculation method and information processing system
JPWO2018146803A1 (en) Position processing apparatus, flying object, position processing system, flight system, position processing method, flight control method, program, and recording medium
KR20190128425A (en) Method for controling unmanned moving object based on cylindrical coordinate system and recording medium storing program for executing the same, and computer prograom stored in recording medium for executing the same
CN109960276B (en) Remote control device, method and computer-readable storage medium for unmanned aerial vehicle
US20210181769A1 (en) Movable platform control method, movable platform, terminal device, and system
JP2019114036A (en) Information processing apparatus, flight control instruction method, program, and recording medium
WO2022070851A1 (en) Method, system, and program
US20230111932A1 (en) Spatial vector-based drone control
WO2020262222A1 (en) Control system for flying vehicle
KR101969088B1 (en) Method and Apparatus for Controlling Movement of Aerial Vehicle
JP2022143218A (en) flight control system
KR20190128418A (en) Method for controling unmanned flying object and recording medium storing program for executing the same, and recording medium storing program for executing the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant