KR102132945B1 - UAV landing induction method - Google Patents

UAV landing induction method Download PDF

Info

Publication number
KR102132945B1
KR102132945B1 KR1020180085518A KR20180085518A KR102132945B1 KR 102132945 B1 KR102132945 B1 KR 102132945B1 KR 1020180085518 A KR1020180085518 A KR 1020180085518A KR 20180085518 A KR20180085518 A KR 20180085518A KR 102132945 B1 KR102132945 B1 KR 102132945B1
Authority
KR
South Korea
Prior art keywords
wireless terminal
information
server
aerial vehicle
unmanned aerial
Prior art date
Application number
KR1020180085518A
Other languages
Korean (ko)
Other versions
KR20200010895A (en
Inventor
정승호
박재홍
Original Assignee
주식회사 아르고스다인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아르고스다인 filed Critical 주식회사 아르고스다인
Priority to KR1020180085518A priority Critical patent/KR102132945B1/en
Publication of KR20200010895A publication Critical patent/KR20200010895A/en
Priority to KR1020200056883A priority patent/KR102367392B1/en
Application granted granted Critical
Publication of KR102132945B1 publication Critical patent/KR102132945B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/02Automatic approach or landing aids, i.e. systems in which flight data of incoming planes are processed to provide landing data
    • G08G5/025Navigation or guidance aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • B64C2201/146
    • B64C2201/18
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Abstract

무인기 착륙 유도 방법이 개시된다. 본 발명의 일 측면에 따르면, 서버가 무선단말기로부터 상기 무선단말기의 방위각 정보를 포함하는 제11 정보를 수신하는 단계; 상기 서버가 상기 무선단말기로부터 상기 무선단말기가 지표면을 기준으로 기울어진 각도 정보를 포함하는 제12 정보를 수신하는 단계; 상기 서버가 상기 제11 정보 및 상기 제12 정보를 바탕으로 상기 무인기의 착륙지점을 연산하여 상기 착륙지점에 대한 정보가 포함된 제21 정보를 생성하는 단계; 및 상기 서버가 상기 제21 정보를 상기 무인기로 송신하는 단계를 포함하는 무인기 착륙 유도 방법이 제공된다.A method for inducing unmanned landing is disclosed. According to an aspect of the present invention, the server receiving the eleventh information including the azimuth information of the wireless terminal from the wireless terminal; Receiving, by the server, twelfth information including angle information inclined with respect to the surface of the wireless terminal from the wireless terminal; Generating, by the server, 21st information including information about the landing point by calculating a landing point of the unmanned aircraft based on the 11th information and the 12th information; And sending the 21st information from the server to the unmanned aerial vehicle.

Description

무인기 착륙 유도 방법{UAV landing induction method}UAV landing induction method

본 발명은 무인기 착륙 유도 방법에 관한 것이다.The present invention relates to a method for guiding an unmanned aerial vehicle landing.

현재 무인비행체인 드론 시장이 활발하게 되면서 드론을 이용한 물품배송, 픽업 서비스, 구호응급물품 제공 등 관련 산업이 확장되고 있다.Currently, as the drone market, which is an unmanned flying vehicle, becomes active, related industries are expanding, such as delivery of goods using drones, pickup services, and provision of emergency supplies.

여러 관련 기술들이 개발되고 있으나 현재 GPS 위치 오차나 주변 구조물 등의 장애에 의하여 드론 서비스를 요청한 서비스 사용자를 정확히 인증하고 인식하는데 기술적 문제가 존재한다.Although several related technologies are being developed, there are technical problems in accurately authenticating and recognizing service users who requested drone services due to GPS location errors or obstacles such as surrounding structures.

좀 더 구체적으로, 수취인(사용자) 위치정보가 입력되면 드론은 해당 위치를 목적지로 하는 자율 비행을 통해 수취인을 향해 날아가게 된다. 다만, 현재 GPS 기술로는 10~50m의 오차가 발생하며, 특히 드론의 시야를 방해하는 장애물이 존재(예:나무가 우거진 숲)하거나 목적지에 수취인을 포함하는 불특정 여러 사람이 위치하는 경우(예:공원 등)에는 드론의 수취인 특정이 어려운 문제가 있다.More specifically, when the receiver (user) location information is input, the drone flies toward the receiver through autonomous flight to the destination. However, with the current GPS technology, errors of 10~50m occur, especially when there are obstacles that obstruct the view of drones (for example, wooded forests) or when unspecified people including recipients are located at the destination (eg (Parks, etc.) has a difficult problem in identifying the recipient of the drone.

또한, 드론, 서버, 수취인이 연결되어 인증한다는 것은 근처에 수취인이 존재하는 것을 드론과 서버가 인지한다는 의미일 뿐, 드론이 수취인을 인식하고 있는 것을 의미하지는 않는다.Also, when the drone, the server, and the recipient are connected and authenticated, the drone and the server recognize that the recipient exists nearby, but does not mean that the drone recognizes the recipient.

따라서, 수취인과 드론이 상호 확인하는 동작(authentication) 후에, 수취인을 인식(recognition)하기 위한 특정(detect & marking) 동작이 이루어져야하며, 이를 위해 드론이 잘 보이는 곳 또는 장애물이 없는 오픈 공간으로 드론을 이동시켜야할 필요가 있다.Therefore, after the recipient and the drone mutually verify (authentication), a detection and marking action must be made to recognize the recipient, and for this purpose, the drone can be moved into an open space where the drone is easily seen or without obstacles. It needs to be moved.

국내의 드론의 사용자 식별과 관련된 특허를 검토하면 '무인배송로봇의 사용자 식별을 통한 배송 방법(제10-2017-0110341호, 공개일자 2017.10.11)'이 존재한다. 본 공개특허에는 무인배송로봇이 배송지 사용자 위치 근방의 위치까지 오면 위치인식이 부정확한 경우에도 로봇과 접촉하지 않고도 사용자를 식별하여 원활하고 효과적인 배송 서비스가 가능하도록 하겠다는 개념이 개시되어 있다. When examining patents related to user identification of drones in Korea, there is a'delivery method through user identification of unmanned delivery robot (No. 10-2017-0110341, publication date 2017.10.11)'. The present patent discloses the concept that if the unmanned delivery robot comes to a location near the location of the user of the destination, even if the location recognition is inaccurate, the user can be identified and a smooth and effective delivery service is possible without contacting the robot.

선행 사용자 식별 방법은 드론이 원거리에서 사용자를 확인하는 기술에 관한 것으로, 드론과 사용자가 상호 인증 후에 드론이 사용자를 특정하는 방법에 대해서는 명확히 개시하지 않고 있다. The prior user identification method relates to a technique in which a drone identifies a user remotely, and a method in which the drone specifies a user after mutual authentication between the drone and the user is not explicitly disclosed.

한편, 드론이 사용자를 인식한 후에도 사용자가 원하는 위치에 정확히 드론이 착륙하는 것이 사실상 불가능하다. 예를 들어, 드론이 사용자를 인식하더라도 드론이 평지를 인식하고, 사용자를 포함한 군중 등을 피해 안전하게 착륙할 정도로 영상처리 및 비행제어기술이 발전하지 못했다. 이와 관련된 선행특허문헌으로 'Human interaction with unmanned aerial vehicles(미국등록특허 제9459620호, 등록일자 2016.10.4)'이 존재한다. 선행특허문헌에서는 사람이 제스처 등을 통해 무인기를 유도하는 것에 대해 개시하고 있다. 그러나 이러한 제스처는 영상처리 등을 통해 인식해야 하는 것이고 또한, 제스처를 통해 정확한 착륙지점을 드론에 알려주는 것이 불가능하다. 도 19는 이러한 종래 발명에 따른 무인기 유도 방법을 개시하고 있다.On the other hand, even after the drone recognizes the user, it is virtually impossible to land the drone exactly at the desired position. For example, even if the drone recognizes the user, the image processing and flight control technology has not developed to such an extent that the drone recognizes the flat land and safely lands away from the crowd including the user. 'Human interaction with unmanned aerial vehicles (U.S. Patent No.9459620, Registration Date 2016.10.4)' exists as a related prior patent document. Prior patent documents disclose that a person induces a drone through a gesture or the like. However, these gestures must be recognized through image processing and the like, and it is impossible to inform the drone of the correct landing point through the gestures. 19 discloses a method for inducing an unmanned aerial vehicle according to the related art.

대한민국 공개특허공보 제10-2017-0110341호(2017.10.11)Republic of Korea Patent Publication No. 10-2017-0110341 (2017.10.11) 미국 등록특허 제9459620호(2016.10.4)U.S. Patent No. 9459620 (2016.10.4)

본 발명의 목적은 무인기 착륙 유도 방법을 제공하는 것이다. 더욱 구체적으로, 사용자가 착륙 지점 등 위치에 대한 지령을 내리면 이에 대해 반응하여 드론 등 무인기가 자동으로 착륙할 수 있는 방법을 제공하는 것이다.It is an object of the present invention to provide a method for guiding an unmanned aerial vehicle landing. More specifically, it is to provide a method for a drone such as a drone to automatically land in response to a user when a user issues a command for a location such as a landing point.

본 발명의 일 측면에 따르면, 서버가 무선단말기로부터 상기 무선단말기의 방위각 정보를 포함하는 제11 정보를 수신하는 단계; 상기 서버가 상기 무선단말기로부터 상기 무선단말기가 지표면을 기준으로 기울어진 각도 정보를 포함하는 제12 정보를 수신하는 단계; 상기 서버가 상기 제11 정보 및 상기 제12 정보를 바탕으로 상기 무인기의 착륙지점을 연산하여 상기 착륙지점에 대한 정보가 포함된 제21 정보를 생성하는 단계; 및 상기 서버가 상기 제21 정보를 상기 무인기로 송신하는 단계를 포함하는 무인기 착륙 유도 방법이 제공된다.According to an aspect of the present invention, the server receiving the eleventh information including the azimuth information of the wireless terminal from the wireless terminal; Receiving, by the server, twelfth information including angle information inclined with respect to the surface of the wireless terminal from the wireless terminal; Generating, by the server, 21st information including information about the landing point by calculating a landing point of the unmanned aircraft based on the 11th information and the 12th information; And sending the 21st information from the server to the unmanned aerial vehicle.

또한, 상기 서버가 상기 무인기로부터 상기 착륙지점이 촬영된 이미지를 포함하는 제31 정보를 수신하는 단계; 상기 서버가 상기 제31 정보를 상기 무선단말기로 송신하는 단계; 상기 서버가 상기 무선단말기로부터 착륙지점 확인메세지를 포함한 제13 정보를 수신하는 단계; 및 상기 서버가 상기 착륙지점으로 비행하라는 상기 무인기의 제어신호를 포함하는 제23 정보를 상기 무인기로 송신하는 단계를 더 포함할 수 있다.In addition, the server receiving the 31st information including the image of the landing point from the unmanned aerial vehicle; Transmitting, by the server, the 31st information to the wireless terminal; Receiving, by the server, thirteenth information including a landing point confirmation message from the wireless terminal; And transmitting, by the server, the 23rd information including the control signal of the drone to fly to the landing point.

또한, 상기 서버가 상기 무선단말기로 상기 무선단말기가 상기 착륙지점을 촬영할 것을 요청하는 메시지를 송신하는 단계를 더 포함할 수 있다.In addition, the server may further include the step of transmitting a message to the wireless terminal requesting the wireless terminal to photograph the landing point.

또한, 상기 제12 정보는 상기 무선단말기와 무인기의 착륙지점 간을 잇는 가상의 직선과 상기 착륙지점이 포함된 지표면과 수평한 면이 이루는 각도 정보를 바탕으로 생성된 것일 수 있다.Further, the twelfth information may be generated based on an imaginary straight line connecting the landing point of the wireless terminal and the unmanned aerial vehicle and angle information between a surface and a horizontal surface including the landing point.

또한, 본 발명의 다른 측면에 따르면, 무인기가 무선단말기로부터 상기 무선단말기의 방위각 정보를 포함하는 제51를 수신하는 단계; 상기 무인기가 상기 무선단말기로부터 상기 무선단말기가 지표면을 기준으로 기울어진 각도 정보를 포함하는 제52 정보를 수신하는 단계; 상기 무인기가 상기 제51 정보 및 상기 제52 정보를 바탕으로 상기 무인기의 착륙지점을 연산하여 상기 착륙지점에 대한 정보가 포함된 제61 정보를 생성하는 단계; 및 상기 무인기가 상기 제61 정보를 활용하여 상기 착륙지점으로 비행하는 단계를 포함하는 무인기 착륙 유도 방법이 제공된다.In addition, according to another aspect of the present invention, the unmanned aircraft receiving a 51st from the wireless terminal including the azimuth information of the wireless terminal; Receiving, by the wireless terminal, 52th information including angle information inclined with respect to the ground surface by the wireless terminal from the wireless terminal; Calculating the landing point of the unmanned aerial vehicle based on the 51st information and the 52th information to generate 61st information including information on the landing location; And using the 61st information to fly to the landing point.

또한, 본 발명의 다른 측면에 따르면, 무인기가 무선단말기로부터 상기 무선단말기의 방위각 정보를 포함하는 제51를 수신하는 단계; 상기 무인기가 상기 무선단말기로부터 상기 무선단말기가 지표면을 기준으로 기울어진 각도 정보를 포함하는 제52 정보를 수신하는 단계; 상기 무인기가 상기 제51 정보 및 상기 제52 정보를 바탕으로 상기 무인기의 착륙지점을 연산하여 상기 착륙지점에 대한 정보가 포함된 제61 정보를 생성하는 단계; 상기 무인기가 상기 제61 정보를 바탕으로 상기 착륙지점을 촬영하여 제71 정보를 생성하는 단계; 상기 무인기가 상기 제71 정보를 상기 무선단말기로 송신하는 단계; 상기 무인기가 상기 무선단말기로부터 착륙지점 확인메세지를 포함한 제53 정보를 수신하는 단계; 및 상기 무인기가 상기 제53 정보 및 제61 정보를 활용하여 상기 착륙지점으로 비행하는 단계를 포함하는 무인기 착륙 유도 방법이 제공될 수 있다.In addition, according to another aspect of the present invention, the unmanned aircraft receiving a 51st from the wireless terminal including the azimuth information of the wireless terminal; Receiving, by the wireless terminal, 52th information including angle information inclined with respect to the ground surface by the wireless terminal from the wireless terminal; Calculating the landing point of the unmanned aerial vehicle based on the 51st information and the 52th information to generate 61st information including information on the landing location; Generating the 71st information by photographing the landing point based on the 61st information; Transmitting the 71st information to the wireless terminal by the drone; The drone receiving 53rd information including a landing point confirmation message from the wireless terminal; And flying the drone to the landing point by utilizing the 53rd information and the 61th information.

또한, 상기 무인기가 상기 무선단말기로 상기 무선단말기가 상기 착륙지점을 촬영할 것을 요청하는 메시지를 송신하는 단계를 더 포함할 수 있다.In addition, the UAV may further include transmitting a message to the wireless terminal requesting the wireless terminal to photograph the landing point.

상기 제52 정보는 상기 무선단말기와 무인기의 착륙지점 간을 잇는 가상의 직선과 상기 착륙지점이 포함된 지표면과 수평한 면이 이루는 각도 정보를 바탕으로 생성된 것일 수 있다.The 52th information may be generated based on an imaginary straight line connecting the landing point between the wireless terminal and the unmanned aerial vehicle and the angle information between the ground surface and the horizontal surface including the landing point.

상기 착륙지점으로 비행하는 단계는 착륙 경고음을 발생하는 것을 더 포함하는 단계를 더 포함할 수 있다.The step of flying to the landing point may further include a step of generating a landing warning sound.

또한, 본 발명의 다른 측면에 따르면, 무선단말기가 서버 또는 무인기에 상기 무선단말기의 방위각 정보를 포함하는 제81 정보를 송신하는 단계; 상기 무선단말기가 상기 서버 또는 상기 무인기에 상기 무선단말기로부터 상기 무선단말기가 지표면을 기준으로 기울어진 각도 정보를 포함하는 제82 정보를 송신하는 단계; 상기 무선단말기가 상기 서버 또는 상기 무인기로부터 착륙지점이 촬영된 이미지를 포함하는 제91 정보를 수신하는 단계; 상기 무선단말기가 상기 서버 또는 상기 무인기에 착륙지점 확인메세지를 포함한 제101 정보를 송신하는 단계를 포함하는 무인기 착륙 유도 방법일 수 있다.In addition, according to another aspect of the present invention, the wireless terminal transmitting the 81st information including the azimuth information of the wireless terminal to the server or the unmanned aerial vehicle; Transmitting the 82nd information including the angle information inclined with respect to the surface of the wireless terminal from the wireless terminal to the server or the unmanned wireless terminal by the wireless terminal; Receiving, by the wireless terminal, 91st information including an image of a landing point photographed from the server or the unmanned aerial vehicle; The wireless terminal may be a method for inducing landing of an unmanned aerial vehicle including the step of transmitting 101th information including a landing point confirmation message to the server or the unmanned aerial vehicle.

또한, 상기 무선단말기가 상기 서버 또는 무인기로부터 상기 무선단말기가 무인기의 착륙지점을 촬영할 것을 요청하는 메시지를 수신하는 단계를 더 포함하며, 상기 방위각 및 상기 각도 정보는 상기 무선단말기가 상기 착륙지점을 촬영하는 시점의 값일 수 있다.In addition, the wireless terminal further comprises the step of receiving a message from the server or the unmanned aerial vehicle requesting the wireless terminal to photograph the landing point of the unmanned aerial vehicle, wherein the azimuth and angle information include the azimuth and the angle information of the wireless terminal capturing the landing location. It may be a value at a point in time.

또한, 상기 제102 정보는 상기 무선단말기와 무인기의 착륙지점 간을 잇는 가상의 직선과 상기 착륙지점이 포함된 지표면과 수평한 면이 이루는 각도 정보를 바탕으로 생성된 것일 수 있다.In addition, the 102th information may be generated based on angular information between a virtual straight line connecting the landing point of the wireless terminal and the unmanned aerial vehicle and an earth surface and a horizontal surface including the landing point.

본 발명의 실시예에 따르면 무인기 착륙 유도 방법을 제공할 수 있다.According to an embodiment of the present invention can provide a method for inducing unmanned landing.

도 1은 본 발명에 따른 서버와 무인기와 무선단말기 간의 통신 연결 관계를 도식화한 것이다.
도 2는 서버의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다.
도 3은 무선단말기가 지표면을 기준으로 기울어진 각도 정보를 설명하기 위한 개념도이다.
도 4는 무인기, 무선단말기를 소지한 사용자 및 착륙지점을 평면에서 바라본 도면이다.
도 5 및 6은 무선단말기에서 착륙지점을 나타낸 개념도이다.
도 7은 무인기의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다.
도 8은 무선단말기의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다.
도 9는 사용자의 무선단말기-서버-무인기 간의 동작 및 데이터 전송 관계를 나타낸 도면이다.
도 10은 서버의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다.
도 11은 무선단말기의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다.
도 12 내지 13은 무인기의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다.
도 14 내지 16은 본 발명의 실시예에 따른 무인기와 무선단말기 간의 상호 인식 방법을 나타내는 설명도이다.
도 17는 본 발명의 실시예에 따른 특정 타겟에 대한 영상부분을 선택하는 디스플레이 화면 예시도이다.
도 18은 본 발명이 적용된 애플리케이션에서 서버, 무인기, 사용자 무선단말기 간의 동작을 나타내는 도면이다.
도 19는 종래 발명에 따른 무인기 유도 방법이다.
1 is a diagram illustrating a communication connection relationship between a server and a drone and a wireless terminal according to the present invention.
2 is a flow chart showing a method according to the invention in terms of a server.
3 is a conceptual diagram illustrating angle information inclined with respect to the ground surface of the wireless terminal.
4 is a view of a user holding a drone and a wireless terminal and a landing point viewed from a plane.
5 and 6 is a conceptual diagram showing the landing point in the wireless terminal.
7 is a flow chart showing a method according to the invention from the perspective of an unmanned aerial vehicle.
8 is a flow chart showing a method according to the invention from the perspective of a wireless terminal.
9 is a view showing a user's wireless terminal-server-unmanned operation and data transfer relationship.
10 is a flow chart showing a method according to the invention from the perspective of a server.
11 is a flowchart illustrating a method according to the present invention from the perspective of a wireless terminal.
12 to 13 are flow charts showing a method according to the invention from the perspective of an unmanned aerial vehicle.
14 to 16 are explanatory diagrams showing a mutual recognition method between an unmanned aerial vehicle and a wireless terminal according to an embodiment of the present invention.
17 is an exemplary view of a display screen for selecting an image portion for a specific target according to an embodiment of the present invention.
18 is a view showing an operation between a server, a UAV, and a user wireless terminal in an application to which the present invention is applied.
19 is a method for inducing an unmanned aerial vehicle according to the related art.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.The present invention can be applied to various transformations and can have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all conversions, equivalents, and substitutes included in the spirit and scope of the present invention. In the description of the present invention, when it is determined that a detailed description of known technologies related to the present invention may obscure the subject matter of the present invention, the detailed description will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from other components.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, terms such as “include” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, and that one or more other features are present. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.

이하, 본 발명에 따른 실시예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, an embodiment according to the present invention will be described in detail with reference to the accompanying drawings, and in describing with reference to the accompanying drawings, identical or corresponding components are assigned the same reference numbers and redundant description thereof is omitted. Shall be

또한, 이하 사용되는 제1, 제2 등과 같은 용어는 동일 또는 상응하는 구성 요소들을 구별하기 위한 식별 기호에 불과하며, 동일 또는 상응하는 구성 요소들이 제1, 제2 등의 용어에 의하여 한정되는 것은 아니다.In addition, terms such as first and second used hereinafter are only identification symbols for distinguishing the same or corresponding components, and the same or corresponding components are limited by terms such as first and second. no.

또한, 결합이라 함은, 각 구성 요소 간의 접촉 관계에 있어, 각 구성 요소 간에 물리적으로 직접 접촉되는 경우만을 뜻하는 것이 아니라, 다른 구성이 각 구성 요소 사이에 개재되어, 그 다른 구성에 구성 요소가 각각 접촉되어 있는 경우까지 포괄하는 개념으로 사용하도록 한다.In addition, the term "combination" means a contact relationship between each component, and does not mean only a case in which physical direct contact is made between each component, but other components are interposed between each component, so that the components are in different components. It should be used as a comprehensive concept until each contact is made.

또한, 컴퓨터 프로그램과 관련하여, 구성요소에 대한 접미사 "모듈" 및/또는 "부"는 컴퓨터를 특정 기능의 수단으로 기능시키기 위한 컴퓨터 프로그램의 일부이거나, 컴퓨터에서 특정 기능을 실현시키기 위한 컴퓨터 프로그램의 일부일 수 있다. 예를 들어, 모듈 A는 컴퓨터를 수단 A로 기능시키기 위한 컴퓨터 프로그램 또는 컴퓨터에 기능 A를 실현시키기 위한 컴퓨터 프로그램으로 해석될 수 있다. 방법으로서 "단계"는 컴퓨터에 컴퓨터 프로그램으로 구현되어 실행될 수 있다.Further, in connection with a computer program, the suffixes "modules" and/or "parts" for components are part of a computer program for functioning a computer as a means of a specific function, or a computer program for realizing a specific function in a computer. It can be a part. For example, the module A may be interpreted as a computer program for functioning the computer as means A or a computer program for realizing function A in the computer. As a method, the "step" may be implemented as a computer program in a computer and executed.

한편, 애플리케이션(Application)이란 특정한 업무를 수행하기 위해 고안된 일련의 컴퓨터 프로그램의 집합을 가리키는 것으로, 응용프로그램이라고도 한다. 사용자는 본 발명의 실시예에 따른 애플리케이션을 자신의 전자기기에 인스톨하는 것으로 관련 기능을 추가할 수 있다.Meanwhile, an application refers to a set of computer programs designed to perform a specific task, and is also referred to as an application program. The user can add a related function by installing an application according to an embodiment of the present invention in his/her electronic device.

애플리케이션이 인스톨되는 사용자의 전자기기란 컴퓨터, 태블릿PC, 스마트폰과 같이 CPU, RAM, ROM, 저장장치 등으로 구성되고, Windows, ios, 안드로이드, 리눅스 등의 그래픽 운영체제로 전체 시스템이 제어되는 환경인 것이 바람직하며, 특히 등록된 연락처로 전화 및 문자를 주고받을 수 있는 스마트폰에 특화되었다.The electronic device of the user on which the application is installed consists of a CPU, RAM, ROM, storage device, such as a computer, tablet PC, or smartphone, and is an environment in which the entire system is controlled by a graphical operating system such as Windows, ios, Android, and Linux. It is preferable, and it is especially specialized in a smartphone that can send and receive calls and texts with registered contacts.

또한, 본 명세서에 첨부된 도면의 순서도는 발명을 설명하기 위한 순서도에 불과하며, 컴퓨터 상에 버그 없이 완벽히 구현되기 위한 순서도일 필요는 없다.In addition, the flow chart of the drawings attached to the present specification is only a flow chart for explaining the invention, and need not be a flow chart for perfect implementation without bugs on a computer.

또한, 본 명세서에서 언급된 단말기는 일반적인 사용자 단말기로서 스마트폰, 퍼스널 컴퓨터, 태블릿 PC 등이 될 수 있다.In addition, the terminal referred to in this specification may be a smartphone, a personal computer, a tablet PC, etc. as a general user terminal.

도 1은 본 발명에 따른 서버와 무인기와 무선단말기 간의 통신 연결 관계를 도식화한 것이다.1 is a diagram illustrating a communication connection relationship between a server and a drone and a wireless terminal according to the present invention.

도 1을 참조하여 설명하면, 무인기(10)와 사용자 무선단말기(20)와 서버(30)가 데이터를 주고받을 수 있다. 일반적으로 무인기는 사람이 탑승하지 않는 무인비행체를 일컬으나 본 발명의 실시효과는 사용자의 정확한 위치와 인식을 필요로 하는 모든 비행 이동체에 적용 가능하므로, 본 발명에 따른 무인기는 촬영수단(예: 카메라 등), 지자기 센서, 3축 가속도 센서, GPS(GNSS) 등의 센서가 내장되어 위치좌표, 방위각 등의 정보를 갖는 이동수단을 통칭할 수 있다.Referring to FIG. 1, the unmanned aerial vehicle 10, the user wireless terminal 20, and the server 30 can exchange data. In general, an unmanned aerial vehicle refers to an unmanned aerial vehicle in which a person does not board, but the implementation effect of the present invention can be applied to all flying mobile objects that require the user's exact location and recognition, so the unmanned aerial vehicle according to the present invention is a photographing means (eg, a camera Etc.), a geomagnetic sensor, a 3-axis acceleration sensor, a sensor such as GPS (GNSS) is built-in, so it can collectively refer to a vehicle having information such as location coordinates and azimuth.

본 발명에 따른 사용자는 무인기에 의한 물품배송의 수취인, 다른 곳으로 물품을 배달시키기 위하여 무인기 서비스를 요청한 픽업서비스 사용자, 드론 온 디맨드 촬영 서비스를 요청한 사용자 등 무인기에 의한 서비스를 받는 모든 사용자가 될 수 있다.The user according to the present invention can be any user receiving a service by the UAV, such as a recipient of delivery of the goods by the UAV, a pickup service user requesting the UAV service to deliver goods to another place, a user requesting a drone on demand shooting service, and the like. have.

일반적으로 무선 통신을 통하여 서버는 무인기 및 사용자 무선단말기와 데이터를 주고 받을 수 있으나, 반드시 무선 통신에 한정되는 것은 아니며 유선 통신을 통해 데이터를 주고 받아도 무방하다. 본 명세서에서는 데이터를 주고 받는 것에 관한 기술에 대해서 그 설명을 생략한다.In general, a server can exchange data with a UAV and a user wireless terminal through wireless communication, but is not necessarily limited to wireless communication, and data may be exchanged through wired communication. In this specification, description of the technology for exchanging data is omitted.

서버는 무인기가 무선단말기를 가지고 있는 사용자에 물품 배송 등의 무인기 활용 서비스를 제공하기 위한 소정의 목적을 가지고 서로 접근하는 경우, 무인기 및/또는 사용자 무선단말기로부터 수신되는 정보를 수신한다. 여기서 사용자 무선단말기로부터 수신되는 정보란 무인기의 비행 관련 정보, 상태정보, 사용자 정보, 위치 정보 등이 될 수 있다.The server receives information received from the unmanned aerial vehicle and/or the user wireless terminal when the unmanned aerial vehicle approaches each other with a predetermined purpose for providing an unmanned aircraft utilization service such as delivery of goods to a user having the wireless terminal. Here, the information received from the user wireless terminal may be flight-related information, status information, user information, and location information of the unmanned aerial vehicle.

좀 더 구체적으로, 서버는 사용자의 위치 정보를 포함하는 상태정보를 기반으로 무인기의 동작(예: 출동, 인증, 가이드, 귀환 등)에 필요한 명령을 무인기로 전송한다. 또한, 서버는 무인기의 이상유무, 비행경로 파악, 사용자의 상태 등에 따른 상황을 지속적으로 모니터링하며, 무인기와 사용자의 인증 시 사용자와 무인기의 상대적 위치 정보, 고도 정보, 방위각 정보 등을 기준으로 착륙 및 가이드에 필요한 무인기의 경로조정 데이터를 계산할 수 있다. 또한, 서버는 무인기가 착륙 시 사용자의 위치 정보, 방위각 정보 등을 기준으로 무인기의 착륙지점 위치를 계산하여 무인기로 전송할 수 있다.More specifically, the server transmits a command required for the operation of the UAV (eg, dispatch, authentication, guide, return, etc.) to the UAV based on the state information including the user's location information. In addition, the server continuously monitors the situation according to the presence or absence of the unmanned aerial vehicle, the identification of the flight path, the user's condition, etc., and lands on the basis of the relative location information of the user and the unmanned aerial vehicle, altitude information, azimuth information, etc. You can calculate the route adjustment data of the UAV required for the guide. In addition, the server may calculate the location of the landing point of the unmanned aircraft based on the user's location information and azimuth information when the unmanned aircraft lands and transmit the unmanned aerial vehicle to the unmanned aerial vehicle.

한편, 무인기는 위치, 속도, 고도, 방위각, 배터리 상태 등을 포함하는 기체의 모든 상태 정보 및 비행 관련 정보를 지속적으로 서버에 전송한다. 또한, 무인기는 사용자와의 인증 시점에서의 고도, 방위각, 사용자와의 상대각 정보 등을 서버에 전송할 수 있다.On the other hand, the UAV continuously transmits all status information and flight-related information of the aircraft including location, speed, altitude, azimuth, and battery status to the server. In addition, the UAV may transmit altitude, azimuth, and relative angle information to the server at the time of authentication with the user.

한편, 사용자 무선단말기는 무선단말기의 위치정보, 각도, 방위각, 고각 정보 등의 데이터 및 명령을 서버로 전송한다. 또한, 사용자 무선단말기는 서버로부터 전송된 무인기 정보 및 상황을 디스플레이할 수 있다.Meanwhile, the user wireless terminal transmits data and commands such as location information, angle, azimuth, and elevation information of the wireless terminal to the server. In addition, the user wireless terminal can display the unmanned information and the situation transmitted from the server.

도 2는 서버의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다. 도 2를 참조하면, 서버가 무선단말기로부터 상기 무선단말기의 방위각 정보를 포함하는 제11 정보를 수신하는 단계(S110); 상기 서버가 상기 무선단말기로부터 상기 무선단말기가 지표면을 기준으로 기울어진 각도 정보를 포함하는 제12 정보를 수신하는 단계(S120); 상기 서버가 상기 제11 정보 및 상기 제12 정보를 바탕으로 상기 무인기의 착륙지점을 연산하여 상기 착륙지점에 대한 정보가 포함된 제21 정보를 생성하는 단계(S130); 상기 서버가 상기 제21 정보를 상기 무인기로 송신하는 단계(S140); 상기 서버가 상기 무인기로부터 상기 착륙지점이 촬영된 이미지를 포함하는 제31 정보를 수신하는 단계(S150); 상기 서버가 상기 제31 정보를 상기 무선단말기로 송신하는 단계(S160); 상기 서버가 상기 무선단말기로부터 착륙지점 확인메세지를 포함한 제13 정보를 수신하는 단계(S170)를 포함한다.2 is a flow chart showing a method according to the invention in terms of a server. Referring to Figure 2, the server receiving the eleventh information including the azimuth information of the wireless terminal from the wireless terminal (S110); Receiving, by the server, twelfth information including angle information inclined with respect to the surface of the wireless terminal from the wireless terminal (S120); The server generating 21st information including information on the landing point by calculating a landing point of the unmanned aircraft based on the 11th information and the 12th information (S130); The server transmitting the 21st information to the drone (S140); Receiving, by the server, 31st information including an image of the landing point photographed from the unmanned aerial vehicle (S150); The server transmitting the 31st information to the wireless terminal (S160); And receiving, by the server, thirteenth information including a landing point confirmation message from the wireless terminal (S170).

더욱 구체적으로 도 3을 참조하여 설명하면, 무선단말기가 지표면을 기준으로 기울어진 각도 정보란 상기 무선단말기와 무인기의 착륙지점 간을 잇는 가상의 직선과 상기 착륙지점이 포함된 지표면이 이루는 각으로 지칭될 수 있다. 사용자에 의해 파지된 무선단말기가 지표면으로부터 수직방향으로 이격된 간격, 즉 무선단말기의 높이가 일반적으로 1.5m 내외인 점에 착안하여, 상기 높이와 상기 각도 정보를 이용하면 착륙지점이 무선단말기 즉, 사용자와 얼마나 떨어져 있는지를 연산할 수 있다. 상기 각도 정보는 무선단말기 내에 포함된 자이로센서 등 다양한 센서를 통해 측정될 수 있다.More specifically, referring to FIG. 3, the angle information inclined with respect to the surface of the wireless terminal is referred to as an angle formed by an imaginary straight line connecting the wireless terminal and the unmanned landing point and the surface including the landing point. Can be. When the wireless terminal held by the user is spaced vertically from the surface of the surface, that is, the height of the wireless terminal is generally within about 1.5m, and using the height and the angle information, the landing point is the wireless terminal, that is, You can calculate how far you are from the user. The angle information may be measured through various sensors such as a gyro sensor included in the wireless terminal.

도 4는 무인기, 무선단말기를 소지한 사용자 및 착륙지점을 평면에서 바라본 도면이다. 도 4를 참조하면, 무인기는 무선단말기 혹은 무선단말기를 지나고 있는 사용자를 인식하여 무선단말기의 절대 좌표를 인식할 수 있다. 이에 대한 설명은 후술한다. 무선단말기가 위치한 절대 좌표(예:GPS 값, 위도/경도 값 등)를 무인기 혹은 서버가 인식하거나 알고 있다는 것을 기본 전제로, 무인기 혹은 서버는 무인단말기가 가리키는 착륙지점 정보를 수신할 수 있다. 위와 같이, 무선단말기와 착륙지점 사이의 방위각과 무선단말기가 생성하는 각도 정보(지표면과 무선단말기-착륙지점 간 각도)를 이용하여 무인기 혹은 서버는 정확한 착륙지점을 연산해 낼 수 있다. 본 명세서에는 방위각이라는 용어를 사용하였으나 방위각이라는 용어에 한정될 필요는 없으며, 무인기, 무선단말기, 착륙지점 간의 각도 혹은 위치를 상대적으로 표시할 수 있는 어떠한 정보도 방위각 대신 사용될 수 있다. 또한, 사용자는 무선단말기의 카메라 등 센서를 통해 원하는 착륙지점을 촬영하고, 이 촬영시점에 무선단말기는 무선단말기의 방위각을 생성할 수 있다. 다만, 본 명세서에서 촬영이라는 개념은 예를 들어, 스마트폰의 카메라 가상 셔터를 클릭하여 촬영하는 것과 같은 행위에 한정되지 않으며, 착륙지점을 소정의 시간(예: 3초) 동안 뷰파인더에 위치시키는 것과 같은 행위 등과 같이 무선단말기와 착륙지점 간을 잇는 가상의 선을 통해 방위각 등과 같은 정보를 생성할 수 있는 개념을 모두 포함할 수 있다. 4 is a plan view of a user having a drone and a wireless terminal and a landing point from a plane. Referring to FIG. 4, the UAV may recognize an absolute coordinate of the wireless terminal by recognizing a wireless terminal or a user passing through the wireless terminal. This will be described later. The basic premise that the UAV or the server recognizes or knows the absolute coordinates (eg GPS value, latitude/longitude value, etc.) of the wireless terminal is located, and the UAV or the server can receive the landing point information indicated by the UAV. As above, the UAV or the server can calculate the exact landing point using the azimuth angle between the wireless terminal and the landing point and the angle information generated by the wireless terminal (the angle between the surface and the wireless terminal-landing point). Although the term azimuth is used in this specification, it is not necessary to be limited to the term azimuth, and any information capable of relatively displaying the angle or position between the unmanned aerial vehicle, the wireless terminal, and the landing point can be used instead of the azimuth. In addition, the user photographs a desired landing point through a sensor such as a camera of the wireless terminal, and at this point in time, the wireless terminal may generate an azimuth angle of the wireless terminal. However, the concept of shooting in the present specification is not limited to, for example, an action of clicking a virtual shutter of a camera on a smartphone, and positioning the landing point in the viewfinder for a predetermined time (for example, 3 seconds). It is possible to include all concepts that can generate information such as azimuth through an imaginary line connecting a wireless terminal and a landing point, such as an action.

또한, 본 발명에 따른 일 실시예는 서버가 상기 무인기로부터 상기 착륙지점이 촬영된 이미지 정보를 수신하고, 이를 다시 무선단말기에 전송할 수 있다. 혹은 무선단말기가 무인기로부터 직접 이미지 정보를 수신할 수 있다. 또한, 서버는 무선단말기로부터 상기 이미지 정보가 정확한 착륙지점과 연관되는지 확인받을 수 있다. 예를 들어, 무선단말기가 착륙지점이 포함된 사진 등을 전송받고, 관련 애플리케이션(예:착륙관련 애플리케이션)이 이 사진에 사용자가 원하는 착륙지점이 포함되어 있는지 다양한 방법(예: 텍스트, 음성 메시지)으로 질의할 수 있다. 이를 통해 원하는 착륙지점이 맞는 경우, 클릭 등 조작을 통해 서버나 무인기로 데이터를 송신하여 착륙지점이 맞음을 확인시켜줄 수 있다. 또한, 도 5를 참조하여, 도면에서 보는 바와 같이 무인기 혹은 서버가 연산한 착륙지점을 표시한 이미지를 무선단말기에 송신하고, 무선단말기는 이를 확인할 수 있다. 또한, 도 6에서 보는 바와 같이, 사용자가 무선단말기에 출력된 착륙지점을 변경하기를 원하는 경우, 클릭이나 착륙지점 표시(X)를 드래그하는 등 다양한 방법을 통해 원하는 착륙지점으로 변경할 수 있다. 이렇게 변경된 착륙 지점에 대한 정보를 서버 혹은 무인기가 수신하고 재연산을 통해 최종적으로 수정된 착륙 지점을 도출할 수 있다. 변경된 착륙 지점이 표시된 사진 이미지 분석을 통한 실제 착륙 지점 연산은, 무인기에서 피사체인 착륙지점까지의 실제 거리 측정, 최초 표시된 착륙 지점에서 수정된 착륙지점까지의 이미지 상의 드래그된 길이, 사진 이미지 상의 최초 표시된 착륙 지점과 수정된 착륙지점 사이의 픽셀의 개수 등 다양한 자료를 통해 연산될 수 있다. 결과적으로 이를 통해, 무인기는 연산된 착륙지점을 재차 사용자로부터 확인받음으로써, 정확한 착륙지점 혹은 수정된 착륙지점으로 비행하여 안전하게 착륙할 수 있다.In addition, according to an embodiment of the present invention, a server may receive image information of the landing point from the unmanned aerial vehicle, and transmit it to the wireless terminal again. Alternatively, the wireless terminal may receive image information directly from the unmanned aerial vehicle. In addition, the server can be confirmed by the wireless terminal whether the image information is associated with the correct landing point. For example, the wireless terminal receives a photo including a landing point, and a variety of methods (eg, text, voice message) to determine whether a related application (eg, a landing-related application) contains a landing point desired by the user. You can query Through this, if the desired landing point is correct, it is possible to confirm that the landing point is correct by transmitting data to a server or a drone through a manipulation such as a click. In addition, referring to FIG. 5, as shown in the drawing, an image indicating the landing point calculated by the unmanned aerial vehicle or the server is transmitted to the wireless terminal, and the wireless terminal can confirm this. In addition, as shown in FIG. 6, when the user wants to change the landing point output to the wireless terminal, the user can change to the desired landing point through various methods such as clicking or dragging the landing point display (X). The server or the UAV receives the information about the changed landing point and can finally derive the modified landing point through recalculation. Calculation of the actual landing point through the analysis of the photographic image showing the changed landing point, measures the actual distance from the drone to the subject's landing point, the dragged length on the image from the first displayed landing point to the modified landing point, the first displayed on the photographic image It can be calculated from various data such as the number of pixels between the landing point and the modified landing point. As a result, through this, the unmanned aerial vehicle can confirm the calculated landing point again by the user, and then fly to the correct landing point or the modified landing point to safely land.

또한, 본 발명에 따른 일 실시예는 S170 단계 이후에 서버가 상기 착륙지점으로 비행하라는 상기 무인기의 제어신호를 포함하는 제23 정보를 상기 무인기로 송신하는 단계를 더 포함할 수 있다.In addition, an embodiment according to the present invention may further include the step of transmitting the 23rd information including the control signal of the unmanned aerial vehicle to fly to the landing point after the step S170.

또한, 상기 서버가 상기 무선단말기로 상기 무선단말기가 상기 착륙지점을 촬영할 것을 요청하는 메시지를 송신하는 단계를 더 포함할 수 있다. 본 단계는 S110 단계와 동시 혹은 이전에 수행될 수 있으나 이에 한정되는 것은 아니다.In addition, the server may further include the step of transmitting a message to the wireless terminal requesting the wireless terminal to photograph the landing point. This step may be performed simultaneously or before step S110, but is not limited thereto.

도 7은 무인기의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다. 도 7을 참조하여 설명한다. 단, 앞선 설명과 중복되는 부분은 생략하도록 한다. 본 발명에 따른 다른 실시예는 무인기가 무선단말기로부터 상기 무선단말기의 방위각 정보를 포함하는 제51를 수신하는 단계(S610); 상기 무인기가 상기 무선단말기로부터 상기 무선단말기가 지표면을 기준으로 기울어진 각도 정보를 포함하는 제52 정보를 수신하는 단계(S620); 상기 무인기가 상기 제51 정보 및 상기 제52 정보를 바탕으로 상기 무인기의 착륙지점을 연산하여 상기 착륙지점에 대한 정보가 포함된 제61 정보를 생성하는 단계(S630); 상기 무인기가 상기 제61 정보를 바탕으로 상기 착륙지점을 촬영하여 제31 정보를 생성하는 단계(S640); 상기 무인기가 상기 제31 정보를 상기 무선단말기로 송신하는 단계(S650); 상기 무인기가 상기 무선단말기로부터 착륙지점 확인메세지를 포함한 제53 정보를 수신하는 단계(S660); 상기 무인기가 상기 제53 정보 및 제61 정보를 활용하여 상기 착륙지점으로 비행하는 단계(S670) 및 상기 착륙지점으로 비행하는 단계는 착륙 경고음을 발생하는 단계(S680)를 포함할 수 있다.7 is a flow chart showing a method according to the invention from the perspective of an unmanned aerial vehicle. This will be described with reference to FIG. 7. However, parts that overlap with the previous description will be omitted. According to another embodiment of the present invention, the unmanned aircraft receiving a 51 st including azimuth information of the wireless terminal from the wireless terminal (S610); Receiving, by the wireless terminal, 52th information including angle information inclined with respect to the surface of the wireless terminal from the wireless terminal (S620); Calculating the landing point of the unmanned aircraft based on the 51st information and the 52th information to generate 61st information including information on the landing point (S630); Generating a 31st information by photographing the landing point based on the 61st information (S640); Transmitting the 31st information to the wireless terminal (S650); Receiving the 53rd information including a landing point confirmation message from the wireless terminal (S660); The step of flying the drone to the landing point using the 53rd information and the 61th information (S670) and the step of flying to the landing point may include generating a landing warning sound (S680).

본 실시예는 앞선 실시예와 달리, 서버를 거치지 않고 무인기-무선단말기 간의 착륙지점 요청 및 착륙지점까지의 비행제어 등을 수행하는 차이가 있다. 이를 통해, 불가피하게 중앙 서버가 존재하지 않는 환경에서 무인기-무선단말기 간의 제어를 통해 안전하게 무인기를 착륙지점에 유도하여 착륙시킬 수 있다.Unlike the previous embodiment, this embodiment has a difference in performing a landing point request between a UAV and a wireless terminal without performing a server, and performing flight control to the landing point. Through this, inevitably, the drone can be safely landed by landing at the landing point through control between the UAV and the wireless terminal in an environment where the central server does not exist.

물론, 앞선 실시예와 같이, 무인기가 무선단말기로부터 수정된 착륙지점이 포함된 정보를 수신하고, 착륙지점을 재연산하여 비행할 수 있다. 또한, 착륙지점까지 비행하면서 착륙경고음을 발생시키거나 혹은 시각적인 인식도가 높은 비행 경보등을 점등하여 사용자의 주의를 환기시킬 수 있다.Of course, as in the previous embodiment, the UAV may receive information including the modified landing point from the wireless terminal, and re-compute the landing point to fly. In addition, while flying to the landing point, the landing warning sound may be generated, or the flight warning light with high visual recognition may be turned on to call attention to the user.

도 8은 무선단말기의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다. 도 8을 참조하여 설명한다. 단, 앞선 설명과 중복되는 부분은 생략하도록 한다. 본 발명에 따른 다른 실시예는 무선단말기가 서버 또는 무인기에 상기 무선단말기의 방위각 정보를 포함하는 제11 정보를 송신하는 단계(S810); 상기 무선단말기가 상기 서버 또는 상기 무인기에 상기 무선단말기로부터 상기 무선단말기가 지표면을 기준으로 기울어진 각도 정보를 포함하는 제12 정보를 송신하는 단계(S820); 상기 무선단말기가 상기 서버 또는 상기 무인기로부터 착륙지점이 촬영된 이미지를 포함하는 제71 정보를 수신하는 단계(S830); 상기 무선단말기가 상기 서버 또는 상기 무인기에 착륙지점 확인메세지를 포함한 제81 정보를 송신하는 단계(S840)를 포함할 수 있다. 또한, 상기 다른 실시예는 S810과 동시 혹은 이전에 무선단말기가 상기 서버 또는 무인기로부터 상기 무선단말기가 무인기의 착륙지점을 촬영할 것을 요청하는 메시지를 수신하는 단계(S800)를 더 포함할 수 있다. 또한, 상기 방위각 및 상기 각도 정보는 상기 무선단말기가 상기 착륙지점을 촬영하는 시점의 값 혹은 그 전후의 값일 수 있다.8 is a flow chart showing a method according to the invention from the perspective of a wireless terminal. This will be described with reference to FIG. 8. However, parts that overlap with the previous description will be omitted. According to another embodiment of the present invention, the wireless terminal transmits the eleventh information including the azimuth information of the wireless terminal to the server or the unmanned aerial vehicle (S810); Transmitting, by the wireless terminal, twelfth information including angle information inclined with respect to the surface of the wireless terminal from the wireless terminal to the server or the unmanned aerial vehicle (S820); The wireless terminal receiving the 71st information including the image of the landing point photographed from the server or the unmanned aerial vehicle (S830); The wireless terminal may include transmitting the 81st information including the landing point confirmation message to the server or the drone (S840). In addition, the other embodiment may further include the step (S800) of receiving a message requesting that the wireless terminal photographs the landing point of the unmanned aerial vehicle from the server or the unmanned aerial vehicle simultaneously or before S810. In addition, the azimuth angle and the angle information may be values before or after the point at which the wireless terminal photographs the landing point.

도 9는 사용자의 무선단말기-서버-무인기 간의 동작 및 데이터 전송 관계를 나타낸 도면이다. 앞선 실시예와 설명이 중복됨으로 설명을 생략한다.9 is a view showing a user's wireless terminal-server-unmanned operation and data transfer relationship. The description is omitted because the previous embodiment and the description are duplicated.

이하, 본 명세서에서는 무인기가 사용자 혹은 사용자가 지니고 있는 단말기를 인식하는 방법에 대해 기술한다.Hereinafter, in this specification, a description will be given of a method for a UAV to recognize a user or a terminal possessed by the user.

도 10은 서버의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다. 도 10을 참조하면, 무선단말기 내 이미지센서의 촬상면의 소정의 구획에 무인기의 상이 위치할 때, 서버가 상기 무선단말기로부터 상기 무선단말기의 외부 자기장에 관한 정보에 기초한 상기 무선단말기의 제1 상태정보를 수신하는 단계(S1210); 무선단말기 내 이미지센서의 촬상면의 소정의 구획에 무인기의 상이 위치할 때, 서버가 상기 무선단말기로부터 상기 무선단말기의 오리엔테이션에 관한 정보에 기초한 상기 무선단말기의 제2 상태정보를 수신하는 단계(S1220); 및 상기 서버가 상기 무인기로 제1 상태정보를 바탕으로 상기 무인기 내 카메라의 촬상면에 상기 무선단말기를 가지고 있는 타겟의 상이 위치하도록 무인기를 비행제어하거나 상기 카메라를 회전 또는 틸팅하도록 제어하는 신호를 송신하는 단계(S1230)로 이루어진다. 상기 S1210 단계와 S1220 단계는 순차적일 필요는 없으며 선후가 바뀌거나 동시에 수행되어도 무방하다. 또한, 상기 S1210 단계와 S1220 단계 중 어느 하나의 단계만 존재하여도 무방하다.10 is a flow chart showing a method according to the invention from the perspective of a server. Referring to FIG. 10, when the image of the unmanned aerial vehicle is located in a predetermined section of the imaging surface of the image sensor in the wireless terminal, the server is provided with first state information of the wireless terminal based on information about the external magnetic field of the wireless terminal from the wireless terminal. Receiving (S1210); When the image of the unmanned aerial vehicle is located in a predetermined section of the imaging surface of the image sensor in the wireless terminal, a server receiving second state information of the wireless terminal based on information on the orientation of the wireless terminal from the wireless terminal (S1220). ; And the server transmits a signal to control the UAV to fly or tilt or rotate the camera so that the target of the target having the wireless terminal is located on the imaging surface of the camera in the UAV based on the first state information. It consists of step (S1230). The steps S1210 and S1220 need not be sequential, but may be changed or performed simultaneously. In addition, any one of the above steps S1210 and S1220 may be present.

여기서, 무선단말기는 일반 사용자가 손으로 파지할 수 있는 일반적인 스마트폰이 될 수 있다. 또한, 이미지센서란 렌즈에 의해 맺힌 광학적 이미지를 전기적 신호로 변환하는 것으로, 이미지센서는 CCD(charge coupled device, 전하 결합 소자), MOS(metal oxide semi-conductor, 금속 산화막 반도체), CMOS(complementary metal-oxide semiconductor, 상보성 금속 산화막 반도체) 등으로 구성될 수 있다. 다만, 이미지센서의 종류가 이에 제한되는 것은 아니다. 또한, 이미지는 광신호가 변환된 디지털 신호는 물론, 이러한 디지털 신호가 디스플레이 장치를 통해 가시화된 광으로 출력된 결과물까지 포함하는 광의의 개념일 수 있다.Here, the wireless terminal may be a general smartphone that can be gripped by a general user by hand. Also, an image sensor converts an optical image formed by a lens into an electrical signal, and the image sensor is a charge coupled device (CCD), a metal oxide semi-conductor (MOS), or a complementary metal (CMOS). -oxide semiconductor, a complementary metal oxide semiconductor). However, the type of the image sensor is not limited thereto. In addition, the image may be a concept of a broad sense that includes not only a digital signal in which an optical signal is converted, but also a result of outputting this digital signal as light visualized through a display device.

또한, 촬상면이란 필름이나 디지털 카메라의 CCD, CMOS 센서와 같이 사진기의 집광부에서 빛을 받아들이는 역할을 하는 소자의 면적을 말하는 것으로, 이미지센서 내에 피사체의 이미지가 맺히는 장소를 뜻한다. 또한, 소정의 구획이란 촬상면의 특정 부분을 뜻하는 것으로서 일반적으로 촬상면의 중앙부 정도가 될 수 있다. 다만, 소정의 구획은 반드시 중앙에 한정되는 것은 아니다. 또한, 촬상면의 소정의 구획에 무인기의 상이 위치하는지 여부는 사용자 무선단말기 내 디스플레이 화면 상에 무인기가 위치하는지 여부와 일치할 수 있으나, 본 발명이 이에 국한되는 것은 아니다. 다시 말해, 디스플레이 화면이 구비되지 않은 단말기(예: 블랙박스 등)의 경우에도 무인기가 단말기를 정면으로 마주보고 있는지 여부를 판단할 수 있다면 본 발명의 권리범위 내에 포함된다고 볼 수 있다. 본 발명은 무인기를 기준으로 사용자 단말기가 어디에 위치하고 있는지를 파악하는 것이 핵심이며, 본 발명의 일 실시예로서 무선단말기 내 이미지센서의 촬상면에 무인기의 상이 맺히는 시점에서 무인기와 사용자 단말기가 정면으로 마주보고 있다고 판단할 수 있다고 명시할 뿐이다.In addition, the imaging surface refers to an area of a device that serves to receive light from a light collecting part of a camera, such as a CCD or CMOS sensor of a film or digital camera, and refers to a place where an image of a subject is formed in the image sensor. In addition, a predetermined section means a specific portion of the imaging surface, and may generally be about the center of the imaging surface. However, the predetermined section is not necessarily limited to the center. In addition, whether the image of the unmanned aerial vehicle is located in a predetermined section of the imaging surface may coincide with whether the unmanned aerial vehicle is located on the display screen in the user's wireless terminal, but the present invention is not limited thereto. In other words, even in the case of a terminal without a display screen (eg, a black box, etc.), if it is possible to determine whether the unmanned aerial vehicle is facing the terminal, it can be considered that it is included in the scope of the present invention. In the present invention, it is key to understand where the user terminal is located based on the unmanned aerial vehicle, and as an embodiment of the present invention, when the image of the unmanned aerial vehicle is imaged on the imaging surface of the wireless terminal, the unmanned aerial vehicle and the user terminal face each other. It simply states that it can be judged.

또한, 무인기와 사용자 단말기가 정면으로 마주보고 있다고 판단되는 시점에서 무인기와 사용자 단말기의 상대적인 위치 또는 방향이 계산될 수 있다.In addition, the relative position or direction of the UAV and the user terminal may be calculated when it is determined that the UAV and the user terminal face each other.

다음으로, 제1 상태정보는 무선단말기의 외부 자기장 정보를 포함할 수 있다. 외부 자기장에 관한 정보란 지구 자기장이 될 수 있다. 더욱 상세하게, 무선단말기 외부에 형성된 자기장에 관한 정보(예: 크기 및 방향 등)를 포함하는 일반 물리학상의 자기장에 관한 어떠한 속성의 정보도 포함한다. 또한, 본 명세서상의 단말기가 외부의 자기장을 측정할 때 자기장이 급격히 변하는 것도 외부 자기장 정보에 포함되는 개념이다. 예를 들어 외부 자기장이 급격히 세졌다 약해지는 것은 자기장 크기의 변화에 관한 개념이며, 이는 외부 자기장 정보에 포함되는 것이다. 또한, 자기장의 방향이 급속하게 변하는 것도 외부 자기장 정보에 포함되는 개념이다. 다시 말해, 외부 자기장에 관한 정보는 외부 자기장의 변화 개념을 포함하는 것으로 시간에 대한 자기장의 크기 또는 방향 변화를 포함하는 것이다. 또한, 제1 상태정보는 방위각 정보를 포함하는 것으로, 일반적으로 2차원 평면에 관한 정보를 제공할 수 있다. 또한, 제1 상태정보를 활용하는 경우에는 무인기 내 장착된 카메라가 하방으로 이미 틸팅된 경우에 효과적으로 활용될 수 있다. Next, the first state information may include external magnetic field information of the wireless terminal. Information about the external magnetic field can be the Earth's magnetic field. In more detail, it includes information on any property related to a magnetic field in general physics, including information about a magnetic field formed outside the wireless terminal (eg, size and direction). In addition, when the terminal of the present specification measures an external magnetic field, the magnetic field rapidly changes is a concept included in the external magnetic field information. For example, a sudden and weakening of the external magnetic field is a concept of a change in the size of the magnetic field, which is included in the external magnetic field information. In addition, the rapidly changing direction of the magnetic field is a concept included in external magnetic field information. In other words, the information about the external magnetic field includes a concept of a change in the external magnetic field and includes a change in the magnitude or direction of the magnetic field over time. In addition, the first state information includes azimuth information, and may generally provide information on a two-dimensional plane. In addition, when using the first state information, it can be effectively used when the camera mounted in the unmanned aerial vehicle is already tilted downward.

다음으로, 제2 상태정보는 무선단말기의 오리엔테이션 정보를 포함할 수 있다. 오리엔테이션 정보란 단말기의 방향 위치 정보를 의미하며, 방위, 기울기, 회전 중 적어도 하나를 의미할 수 있다. 본 발명의 오리엔테이션 정보는 3차원 공간상의 방향성 정보를 나타낼 수 있으며, 물체의 방향을 나타내는 어떠한 속성의 값도 무방하다. 무선단말기의 오리엔테이션 정보는 광학식 자이로센서, MEMS 자이로센서 등을 통해 획득될 수 있는데, 이에 한정된 것은 아니다. 또한, 제2 상태정보는 방향성 정보를 포함하는 것으로, 일반적으로 3차원 평면에 관한 정보를 제공할 수 있다.Next, the second status information may include orientation information of the wireless terminal. Orientation information refers to the position information of the terminal, and may mean at least one of azimuth, tilt, and rotation. The orientation information of the present invention may indicate directional information in a three-dimensional space, and any attribute values indicating the direction of an object may be used. The orientation information of the wireless terminal may be obtained through an optical gyro sensor, a MEMS gyro sensor, etc., but is not limited thereto. In addition, the second state information includes directional information, and may generally provide information regarding a 3D plane.

상기 내용을 더욱 상세하게 설명하면, 서버는 무선단말기 내 이미지센서의 촬상면의 소정의 구획에 무인기의 상이 위치할 때에 상기 무선단말기로부터 상기 무선단말기의 외부 자기장에 관한 정보에 기초한 상기 무선단말기의 제1 상태정보를 수신할 수 있다. In more detail, when the image of the unmanned aerial vehicle is located in a predetermined section of the imaging surface of the image sensor in the wireless terminal, the server is configured to provide a first of the wireless terminal based on information about the external magnetic field of the wireless terminal from the wireless terminal. Status information can be received.

다른 말로, 서버는 스마트폰과 같은 무선단말기의 카메라에 드론과 같은 무인기가 포착되는 순간, 서버는 스마트폰에게 외부 자기장, 즉, 방위각 정보를 측정하라고 제어할 수 있다. 이를 통해, 무선단말기가 무인기를 정면으로 응시하는 순간의 무선단말기의 방위(예: 동서남북)를 측정할 수 있다.In other words, when a drone such as a drone is captured by a camera of a wireless terminal such as a smartphone, the server may control the smartphone to measure an external magnetic field, that is, azimuth information. Through this, it is possible to measure the orientation of the wireless terminal at the moment the wireless terminal gazes in front of the unmanned aerial vehicle (for example, north and southwest).

한편, 서버는 무선단말기 내 이미지센서의 촬상면의 소정의 구획에 무인기의 상이 위치할 때에 상기 무선단말기로부터 상기 무선단말기의 오리엔테이션에 관한 정보에 기초한 상기 무선단말기의 제2 상태정보를 수신할 수 있다.On the other hand, when the image of the unmanned aerial vehicle is located in a predetermined section of the imaging surface of the image sensor in the wireless terminal, the server may receive the second status information of the wireless terminal based on the information on the orientation of the wireless terminal.

다른 말로, 서버는 스마트폰과 같은 무선단말기의 카메라에 드론과 같은 무인기가 포착되는 순간, 서버는 스마트폰에게 오리엔테이션, 즉, 무인기의 기준위치에 대한 무선단말기 본체의 상대적인 방향 정보를 측정하라고 제어할 수 있다. 이를 통해, 무선단말기가 무인기를 정면으로 응시하는 순간의 무인기와 사용자 무선단말기 간의 상대적인 방향을 측정할 수 있다.In other words, the server controls the smartphone to measure the orientation of the wireless terminal body relative to the orientation, i.e., the reference position of the drone, when the drone, such as a drone, is captured by the camera of the wireless terminal, such as a smartphone. Can. Through this, the relative direction between the unmanned aerial vehicle and the user's wireless terminal at the moment when the wireless terminal gazes in front of the unmanned aerial vehicle can be measured.

다음으로, 제1 또는 제2 상태정보를 수신한 서버는 상기 제1 또는 제2 상태정보를 바탕으로 무인기 또는 무인기 내 카메라를 제어할 수 있다. 더욱 상세하게, 무인기를 최초 기설정된 방향으로 호버링(hovering)할 수 있다. 예를 들어, 최초 무인기가 배송지점에 도달했을 때, 기설정된 방향(예: 정북방향)을 향하여 호버링할 수 있다. 이후 제1 또는 제2 상태정보가 서버를 통하여 무인기에 수신되거나 무선단말기로부터 직접 무인기에 수신되면, 무인기는 상기 제1 또는 제2 상태정보를 활용하여 무선단말기가 어느 방향에서 무인기를 응시하고 있는지 연산할 수 있다. 이후 상기 연산 결과를 바탕으로 무인기 내 카메라가 무선단말기를 응시할 수 있도록 카메라를 회전시키거나 혹은 무인기가 회전하도록 제어할 수 있다. 이를 통하여 무인기의 카메라가 무선단말기를 정면으로 응시할 수 있다.Next, the server that has received the first or second status information may control the UAV or the camera in the UAV based on the first or second status information. In more detail, the unmanned aerial vehicle may be hovered in a predetermined direction. For example, when the first unmanned aerial vehicle reaches the delivery point, it can hover in a predetermined direction (for example, toward the north). Thereafter, when the first or second status information is received through the server to the UAV or directly from the wireless terminal, the UAV calculates from which direction the wireless terminal is staring at the UAV by using the first or second status information. can do. Thereafter, the camera may be rotated or controlled to rotate so that the camera in the unmanned aerial vehicle can stare at the wireless terminal based on the result of the calculation. Through this, the camera of the unmanned aerial vehicle can stare directly at the wireless terminal.

도 11은 무선단말기의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다. 도 11을 참조하여 설명한다. 단, 앞선 설명과 중복되는 부분은 생략하도록 한다. 도 11을 참조하면, 무선단말기 내 이미지센서의 촬상면의 소정의 구획에 무인기의 상이 위치할 때, 상기 무선단말기가 서버 또는 무인기로 상기 무선단말기의 외부 자기장에 관한 정보에 기초한 상기 무선단말기의 제1 상태정보를 송신하는 단계(S1310); 무선단말기 내 이미지센서의 촬상면의 소정의 구획에 무인기의 상이 위치할 때, 상기 무선단말기가 서버 또는 무인기로 상기 무선단말기의 오리엔테이션에 관한 정보에 기초한 상기 무선단말기의 제2 상태정보를 송신하는 단계(S1320); 상기 무선단말기가, 상기 무인기 또는 상기 서버로부터 상기 무인기가 촬영한 상기 무선단말기를 가지고 있는 타겟의 영상을 수신하는 단계(S1330); 상기 무선단말기가 상기 단말기 내 출력부에 상기 영상을 출력하는 단계(S1340); 상기 무선단말기가 상기 영상 내 존재하는 특정 타겟에 대한 영상 부분을 선택 입력받는 단계(S1350); 및 상기 무선단말기가 상기 영상 부분을 상기 서버 또는 무인기로 송신하는 단계(S1360)로 이루어진다. 상기 S1310 단계와 S1320 단계는 순차적일 필요는 없으며 선후가 바뀌거나 동시에 수행되어도 무방하다. 또한, 상기 S1310 단계와 S1320 단계 중 어느 하나만 존재하여도 무방하다.11 is a flowchart illustrating a method according to the present invention from the perspective of a wireless terminal. This will be described with reference to FIG. 11. However, parts that overlap with the previous description will be omitted. Referring to FIG. 11, when the image of the unmanned aerial vehicle is located in a predetermined section of the imaging surface of the image sensor in the wireless terminal, the wireless terminal is a server or an unmanned aerial vehicle based on information about an external magnetic field of the wireless terminal. Transmitting status information (S1310); When the image of the unmanned aerial vehicle is located in a predetermined section of the imaging surface of the image sensor in the wireless terminal, the wireless terminal transmits the second status information of the wireless terminal based on the information on the orientation of the wireless terminal to the server or unmanned aircraft ( S1320); Receiving, by the wireless terminal, an image of a target having the wireless terminal taken by the unmanned aerial vehicle from the unmanned aerial vehicle or the server (S1330); The wireless terminal outputting the image to an output unit in the terminal (S1340); The wireless terminal selecting and inputting an image portion for a specific target existing in the image (S1350); And the wireless terminal transmitting the video portion to the server or the unmanned aerial vehicle (S1360). The steps S1310 and S1320 need not be sequential, but may be changed or performed simultaneously. In addition, any one of the above steps S1310 and S1320 may be present.

상기 내용을 더욱 상세하게 설명하면, 무선단말기는 무선단말기 내 이미지센서의 촬상면의 소정의 구획에 무인기의 상이 위치할 때, 상기 무선단말기가 서버 또는 무인기로 상기 무선단말기의 외부 자기장에 관한 정보에 기초한 상기 무선단말기의 제1 상태정보를 송신할 수 있다.In more detail, when the image of the unmanned aerial vehicle is located in a predetermined section of the imaging surface of the image sensor in the wireless terminal, the wireless terminal is a server or unmanned aircraft based on information about the external magnetic field of the wireless terminal. The first status information of the wireless terminal can be transmitted.

한편, 무선단말기는 무선단말기 내 이미지센서의 촬상면의 소정의 구획에 무인기의 상이 위치할 때, 상기 무선단말기가 서버 또는 무인기로 상기 무선단말기의 오리엔테이션에 관한 정보에 기초한 상기 무선단말기의 제2 상태정보를 송신할 수 있다. On the other hand, when the image of the unmanned aerial vehicle is located in a predetermined section of the imaging surface of the image sensor in the wireless terminal, the wireless terminal is a server or an unmanned aerial vehicle based on information about the orientation of the wireless terminal based on information about the orientation of the wireless terminal. Can be sent.

다음으로, 무선단말기는 상기 무인기 또는 상기 서버로부터 상기 무인기가 촬영한 상기 무선단말기를 가지고 있는 타겟의 영상을 수신하고, 상기 단말기 내 출력부에 상기 영상을 출력할 수 있다.Next, the wireless terminal may receive an image of a target having the wireless terminal taken by the unmanned aerial vehicle from the unmanned aerial vehicle or the server, and output the image to an output unit in the terminal.

다른 말로, 사용자가 소지하고 있는 스마트폰이 외부 자기장에 관한 정보 또는 오리엔테이션에 관한 정보를 무인기 또는 서버로 전송함에 따라, 무인기는 사용자의 대략적인 위치 및 방향을 알 수 있게 된다. 이후 무인기가 사용자의 상공에 도달하게 되면 무인기는 사용자를 포함하는 소정의 범위를 촬영하게 되며, 사용자는 스마트폰을 통해 무인기로부터 촬영된 자신의 영상을 수신할 수 있다.In other words, as the smartphone possessed by the user transmits information about the external magnetic field or information about orientation to the unmanned aerial vehicle or the server, the unmanned aerial vehicle can know the approximate location and direction of the user. Thereafter, when the unmanned aerial vehicle reaches the user's space, the unmanned aerial vehicle photographs a predetermined range including the user, and the user can receive his or her image photographed from the unmanned aerial vehicle through a smartphone.

무인기로부터 수신된 촬영 영상은 사용자가 소지하고 있는 무선단말기 내 디스플레이 화면을 통해 출력될 수 있다. 다만, 출력된 영상에는 사용자뿐만 아니라, 다른 객체 또는 장애물이 존재할 수 있다. 예를 들어, 공원 같이 사람이 붐비는 장소의 경우, 불특정 여러 사람이 영상에 포함될 수 있다. 또는, 숲과 같이 나무가 우거져있거나, 도심 시가지와 같이 높은 빌딩이 다수 존재하는 경우, 나무 또는 빌딩과 같은 장애물 요인이 영상에 포함될 수 있다. 이러한 경우, 무인기는 영상을 통해 누가 사용자인지 식별하고 인식하는데 어려움이 존재할 수 있다. 따라서, 사용자가 무선단말기를 이용하여 특정 타겟(사용자)에 대한 영상 부분을 선택하여 무인기에게 알려주는 과정이 필요하다. 이를 위해 사용자는 무선단말기 내 디스플레이 화면에 출력되는 영상 중에서 특정 타켓에 대한 영상부분을 선택할 수 있다. 이러한 선택 입력은 화면 터치, 마킹 등의 사용자 조작을 통해 이루어질 수 있다. 무선단말기는 선택된 특정 타겟에 대한 영상을 서버 또는 무인기로 송신할 수 있으며, 이를 통해 무인기는 사용자 무선단말기로부터 특정된 사용자를 인식할 수 있다.The photographed image received from the unmanned aerial vehicle may be output through a display screen in the wireless terminal possessed by the user. However, other objects or obstacles may exist in the output image as well as the user. For example, in a crowded place such as a park, several unspecified people may be included in the video. Alternatively, if there are many trees, such as forests, or a large number of tall buildings, such as downtown areas, obstacles such as trees or buildings may be included in the image. In this case, the UAV may have difficulty in identifying and recognizing who the user is through the image. Therefore, it is necessary for a user to select a video portion for a specific target (user) using a wireless terminal and notify the unmanned aerial vehicle. To this end, the user can select an image portion for a specific target from images displayed on the display screen in the wireless terminal. The selection input may be made through user manipulation such as screen touch and marking. The wireless terminal may transmit an image for a specific target selected to the server or the unmanned aerial vehicle, and through this, the unmanned aerial vehicle may recognize the user specified from the user wireless terminal.

도 12 내지 13은 무인기의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다. 도 12를 참조하여 설명한다. 단, 앞선 설명과 중복되는 부분은 생략하도록 한다. 도 12를 참조하면, 무인기는 무선단말기의 상태정보로부터 무인기 비행, 카메라 회전 또는 틸팅 등의 제어를 직접 수행할 수 있다. 구체적으로 무인기가 서버 또는 무선단말기로부터 상기 무선단말기의 상태정보를 수신하는 단계(S1410); 상기 무인기가 상기 상태정보를 바탕으로 상기 무인기 내 카메라의 촬상면에 상기 무선단말기를 가지고 있는 타겟(target)의 상이 위치하도록 무인기를 비행제어하거나 상기 카메라를 회전 또는 틸팅(tilting)하도록 제어하는 단계(S1420); 상기 무인기가 상기 무선단말기를 가지고 있는 타겟을 촬영하는 단계(S1430); 상기 무인기가 상기 촬영된 영상을 상기 서버 또는 상기 무선단말기에 송신하는 단계(S1440); 및 상기 무인기가 상기 영상을 바탕으로 식별된 타겟을 따라 비행하도록 제어하는 단계(S1450)로 이루어진다.12 to 13 are flow charts showing a method according to the invention from the perspective of an unmanned aerial vehicle. This will be described with reference to FIG. 12. However, parts that overlap with the previous description will be omitted. Referring to FIG. 12, the UAV can directly perform control such as UAV flight, camera rotation, or tilting from the status information of the wireless terminal. Specifically, the step of receiving the status information of the wireless terminal from the server or the wireless terminal unmanned (S1410); Controlling the UAV to fly or tilt the camera so that the image of the target having the wireless terminal is located on the imaging surface of the camera in the UAV based on the status information (S1420) ); Photographing a target having the wireless terminal (S1430); Transmitting the photographed image to the server or the wireless terminal (S1440); And controlling the unmanned aerial vehicle to fly along a target identified based on the image (S1450).

도 13을 참조하면, 무인기가 무선단말기의 상태정보로부터 서버가 산출한 무인기 비행, 카메라 회전 또는 틸팅 등의 제어 신호를 수신하여 서버의 명령에 따른 제어를 수행할 수 있다. 구체적으로 무인기가 서버로부터 무선단말기의 상태정보를 바탕으로 상기 무인기 내 카메라의 촬상면에 상기 무선단말기를 가지고 있는 타겟의 상이 위치하도록 무인기를 비행제어하거나 상기 카메라를 회전 또는 틸팅하도록 제어하는 신호를 수신하는 단계(S1510); 상기 무인기가 상기 신호를 바탕으로 무인기를 비행제어하거나 상기 카메라를 회전 또는 틸팅하도록 제어하는 단계(S1520); 상기 무인기가 상기 무선단말기를 가지고 있는 타겟을 촬영하는 단계(S1530); 상기 무인기가 상기 촬영된 영상을 상기 서버 또는 상기 무선단말기에 송신하는 단계(S1540); 및 상기 무인기가 상기 영상을 바탕으로 식별된 타겟을 따라 비행하도록 제어하는 단계(S1550)로 이루어진다.Referring to FIG. 13, the UAV may receive control signals such as UAV flight, camera rotation, or tilting calculated by the server from state information of the wireless terminal, and perform control according to a command of the server. Specifically, the drone receives a signal to control the flight of the unmanned aerial vehicle so that the target of the target having the wireless terminal is positioned on the imaging surface of the camera in the unmanned aerial vehicle based on the status information of the wireless terminal from the server, or to rotate or tilt the camera. Step S1510; Controlling the unmanned aerial vehicle to fly control or rotate or tilt the camera based on the signal (S1520); Photographing a target having the wireless terminal (S1530); Transmitting the photographed image to the server or the wireless terminal (S1540); And controlling the unmanned aerial vehicle to fly along a target identified based on the image (S1550).

다시 말해, 무인기는 무선단말기의 상태정보를 직접 수신하거나, 서버를 통해 수신할 수 있다. In other words, the unmanned aerial vehicle may directly receive status information of the wireless terminal or may receive it through a server.

또한, 무인기는 수신된 무선단말기의 상태정보를 바탕으로 무인기 내 카메라의 촬상면에 무선단말기를 가지고 있는 사용자의 상이 위치하도록 무인기의 비행을 직접 제어하거나, 서버로부터 제어 신호를 수신하여 서버의 명령에 따라 무인기의 비행을 제어할 수 있다. In addition, the UAV directly controls the flight of the UAV so that the image of the user who has the wireless terminal is located on the imaging surface of the camera in the UAV based on the received status information of the wireless terminal, or receives a control signal from the server and receives the control signal from the server. You can control the drone's flight.

또한, 무인기는 수신된 무선단말기의 상태정보를 바탕으로 무인기 내 카메라의 촬상면에 무선단말기를 가지고 있는 사용자의 상이 위치하도록 무인기의 카메라를 회전 또는 틸팅하도록 제어하거나, 서버로부터 제어 신호를 수신하여 서버의 명령에 따라 무인기의 카메라를 회전 또는 틸팅하도록 제어할 수 있다.In addition, the UAV is controlled to rotate or tilt the camera of the UAV so that the image of the user who has the wireless terminal is located on the imaging surface of the camera in the UAV based on the received status information of the wireless terminal, or by receiving a control signal from the server. It can be controlled to rotate or tilt the drone's camera according to the command.

무인기의 비행을 제어하거나, 무인기의 카메라를 회전 또는 틸팅하도록 제어함으로써, 무인기내 촬상면에 무선단말기를 가지고 있는 사용자의 상이 위치하게 되면, 무인기는 무선단말기를 가지고 있는 사용자를 타겟으로 하여 사용자가 포함되는 소정의 범위의 영상을 촬영할 수 있다. 다음으로, 무인기는 촬영된 영상을 서버 또는 무선 단말기에 송신할 수 있다. When the image of the user who has the wireless terminal is located on the imaging surface in the unmanned aircraft by controlling the flight of the unmanned aircraft or rotating or tilting the camera of the unmanned aerial vehicle, the unmanned aerial vehicle targets the user having the wireless terminal and includes the user. It is possible to take an image in a predetermined range. Next, the UAV may transmit the captured image to a server or a wireless terminal.

또한, 무인기는 촬영된 영상을 바탕으로 식별된 타겟을 따라 비행할 수 있다. 이를 통해 사용자는 무인기로부터 물품 배송 등의 서비스를 제공받기 위해 무인기의 착륙이 용이한 장소로 무인기를 유도할 수 있다.In addition, the UAV can fly along the identified target based on the captured image. Through this, the user can direct the unmanned aerial vehicle to a place where the unmanned aerial vehicle is easily landed in order to receive services such as delivery of goods from the unmanned aerial vehicle.

도 14 내지 16은 본 발명의 실시예에 따른 무인기와 사용자 무선단말기 간의 상호 인식 방법을 나타내는 설명도이다. 도 14를 참조하여 설명하면, 무인기는 사용자 무선단말기의 상태정보를 바탕으로 사용자의 근접 상공까지 이동할 수 있다. 이 때, 무인기는 사용자 위치로 이동하는 과정에서 일정한 방향성을 갖게 되는데, 무인기는 사용자 근접 상공에 도착한 이후, 기설정된 방향(예: 도착 직전의 비행 방향)을 유지하며 호버링할 수 있다. 다만, 사용자 근접 상공 도착 직후의 무인기는 대략적인 사용자 위치 범위를 인지할 뿐, 무인기가 무인기와 사용자 무선단말기 간의 상대적인 위치 및 방향은 알지 못한다. 무인기와 사용자가 서로를 정확히 인식하기 위해 무인기는 무선단말기가 어느 방향에서 무인기를 응시하고 있는지를 인식할 필요가 있다.14 to 16 are explanatory diagrams showing a mutual recognition method between an unmanned aerial vehicle and a user wireless terminal according to an embodiment of the present invention. Referring to FIG. 14, the UAV may move up to the user's proximity based on the status information of the user's wireless terminal. At this time, the unmanned aerial vehicle has a certain directionality in the process of moving to the user's location. After the unmanned aerial vehicle arrives near the user, the unmanned aerial vehicle can hover while maintaining a predetermined direction (for example, a flight direction just before arrival). However, the UAV immediately after arrival near the user only recognizes the approximate user location range, and does not know the relative position and direction between the UAV and the user's wireless terminal. In order for the UAV and the user to accurately recognize each other, the UAV needs to recognize in which direction the wireless terminal is staring at the UAV.

도 15 내지 16을 참조하여 무인기가 무인기와 사용자 무선단말기 간의 상대적인 방향을 인식하는 과정을 후술한다. 사용자가 위치하는 상공에 무인기가 도착하면, 사용자는 자신이 파지하고 있는 무선단말기를 이용하여 상공에서 호버링 중인 무인기를 촬영할 수 있다. 바람직하게는 사용자가 장애물이 없는 오픈된 공간으로 이동한 후, 무인기 촬영 동작을 수행할 수 있다. The process of recognizing the relative direction between the UAV and the user's wireless terminal will be described later with reference to FIGS. 15 to 16. When the unmanned aerial vehicle arrives above the user's location, the user can photograph the unmanned aerial vehicle hovering in the air using the wireless terminal he is holding. Preferably, after the user moves to an open space free of obstacles, an unmanned aerial vehicle shooting operation may be performed.

더욱 구체적으로, 사용자는 무선단말기 내 이미지센서의 촬상면 또는 무선단말기 화면의 소정의 구획(예: 정중앙)에 무인기의 상이 위치할 때, 촬영 버튼을 클릭하는 등의 입력을 통해 무인기를 촬영할 수 있다. 다만, 사용자가 촬영 버튼을 클릭하는 등의 동작을 수행하는 과정에서 촬영 오차(예: 손 떨림)가 발생될 수 있으므로, 바람직하게는 촬상면 또는 촬영화면 내 특정 위치(예: 정중앙)에 무인기 화상이 맺히는 순간, 애플리케이션 자체에서 촬영 동작이 자동적으로 수행될 수 있다. 이러한 촬영 동작을 통해 사용자 무선단말기의 제1 상태정보 및 제2 상태정보가 서버 또는 무인기로 전송될 수 있다. 여기서 사용자 무선단말기의 상태정보는 사용자 무선단말기의 거수 높이, 기울기 각도, 촬영방위각도 등을 포함할 수 있다.More specifically, when the image of the unmanned aerial vehicle is located in a predetermined section of the wireless terminal screen or an image plane of an image sensor in the wireless terminal (eg, in the center), the user may take an unmanned aerial vehicle through an input such as clicking a photographing button. However, since a photographing error (for example, hand tremor) may occur in a process of performing an operation such as clicking a photographing button by a user, preferably, the unmanned image is displayed on a specific surface (eg, a center) on an imaging surface or a photographing screen. At the moment of conclusion, the shooting operation can be automatically performed in the application itself. Through this photographing operation, the first state information and the second state information of the user wireless terminal may be transmitted to a server or an unmanned aerial vehicle. Here, the status information of the user wireless terminal may include the height of the user's wireless terminal, the tilt angle, and the photographing orientation angle.

서버 또는 무인기는 전송된 무선단말기의 상태정보를 바탕으로 전송된 사용자 무선단말기의 상태정보와 도착 시점에서의 무인기의 위치 및 방위각 정보 비교를 통해, 무인기 대비 사용자 무선단말기의 상대 방위를 산출할 수 있다.The server or the UAV can calculate the relative azimuth of the user's wireless terminal compared to the UAV by comparing the state information of the user's wireless terminal and the position and azimuth information of the UAV at the time of arrival based on the transmitted state information of the wireless terminal. .

더욱 구체적으로, 사용자 무선단말기의 촬상면(또는 디스플레이 화면)에 무인기의 상이 맺히는 시점에서, 무인기의 호버링 방위각(헤딩포인트각)과 사용자 무선단말기의 촬영각 및 촬영방위정보 등을 비교하여 무인기의 헤딩포인트각 대비 사용자의 상대방위각 위치를 연산할 수 있다. 이를 통해 서버 또는 무인기는 무인기를 중심점으로 하였을 때, 사용자가 어느 방향에 있는지를 인식할 수 있다. 다시 말해, 해당 무인기 서비스를 제공받고자 하는 사용자의 위치 및 방향이 특정됨으로써, 무인기와 사용자 무선단말기는 서로를 상호 인식할 수 있다. More specifically, at the time when the image of the unmanned aerial vehicle is formed on the imaging surface (or display screen) of the user's wireless terminal, the heading point of the unmanned aerial vehicle is compared by comparing the hovering azimuth angle (heading point angle) of the unmanned aerial vehicle with the shooting angle and orientation information of the user wireless terminal. It is possible to calculate the counterfeit position of the user relative to each other. Through this, the server or the UAV can recognize which direction the user is in when the UAV is the central point. In other words, the location and direction of a user who wants to receive the UAV service is specified, so that the UAV and the user wireless terminal can mutually recognize each other.

이후, 서버 또는 무인기는 무인기가 호버링하는 동안 무인기 비행(예: 호버링 방향)을 제어하거나 무인기 내 카메라의 회전 또는 틸팅을 제어할 수 있다. 이러한 제어를 통해 무인기 또는 무인기 내 카메라와 사용자 무선단말기는 서로를 정면으로 응시할 수 있으며, 이는 무인기가 무인기 내 카메라 촬상면 안에 사용자를 포함하는 소정의 범위의 영상을 위치시킬 수 있다는 것을 의미한다. 다만, 정확한 무인기 서비스가 제공되기 위해서는 무인기와 사용자를 일대일 매칭하기 위한 동작이 추가적으로 수행될 필요가 있다.Thereafter, the server or the UAV may control the UAV flight (eg, the hovering direction) while the UAV is hovering, or may control the rotation or tilting of the camera in the UAV. Through this control, the UAV or the camera in the UAV and the user wireless terminal can stare at each other in front, which means that the UAV can locate a predetermined range of images including the user in the camera imaging surface of the UAV. However, in order to provide an accurate UAV service, an operation for one-to-one matching between the UAV and the user needs to be additionally performed.

이를 위해 무인기는 사용자 무선단말기와 무인기가 서로 마주하게 되는 시점에서 사용자를 포함하는 소정의 범위를 촬영할 수 있다. 이후, 무인기는 촬영된 영상을 사용자 무선단말기로 전송할 수 있다. 전송된 영상은 사용자 무선단말기 내 디스플레이 화면에 출력될 수 있으며, 사용자는 무선단말기 내 디스플레이 화면에 출력되는 영상 중에서 특정 타켓에 대한 영상부분을 선택할 수 있다.To this end, the UAV may photograph a predetermined range including the user at a point in time when the UAV and the UAV face each other. Thereafter, the UAV may transmit the photographed image to the user's wireless terminal. The transmitted image may be displayed on the display screen in the user's wireless terminal, and the user may select an image portion for a specific target from the images displayed on the display screen in the wireless terminal.

도 17은 본 발명의 실시예에 따른 특정 타겟에 대한 영상부분을 선택하는 디스플레이 화면 예시도이다. 도 17을 참조하면, 사용자 무선단말기는 무인기가 촬영한 사용자를 포함하는 소정의 범위에 관한 촬영 영상을 수신할 수 있다. 또한, 무선단말기 상의 디스플레이 화면에 이를 표시할 수 있다. 사용자는 무선단말기 내 디스플레이 화면에 출력되는 영상 중에서 특정 타켓에 대한 영상부분을 선택할 수 있으며, 이러한 선택 입력은 화면 터치, 마킹 등의 사용자 조작을 통해 이루어질 수 있다. 이후, 무선단말기는 선택된 특정 타겟에 대한 영상을 서버 또는 무인기로 송신할 수 있고, 이를 통해 무인기와 사용자는 일대일로 매칭될 수 있다.17 is an exemplary view of a display screen for selecting an image portion for a specific target according to an embodiment of the present invention. Referring to FIG. 17, the user wireless terminal may receive a captured image related to a predetermined range including a user photographed by the unmanned aerial vehicle. In addition, it can be displayed on the display screen on the wireless terminal. The user can select an image portion for a specific target from images displayed on the display screen in the wireless terminal, and the selection input may be made through user manipulation such as screen touch and marking. Thereafter, the wireless terminal may transmit an image for a specific target selected to the server or the UAV through which the UAV and the user can be matched one-to-one.

또한, 무인기는 촬영된 영상을 바탕으로 식별된 타겟을 따라 비행할 수 있다. 이를 통해 사용자는 무인기로부터 물품 배송 등의 서비스를 제공받기 위해 무인기의 착륙이 용이한 장소로 무인기를 유도할 수 있다.In addition, the UAV can fly along the identified target based on the captured image. Through this, the user can direct the unmanned aerial vehicle to a place where the unmanned aerial vehicle is easily landed in order to receive services such as delivery of goods from the unmanned aerial vehicle.

도 18은 본 발명이 적용된 애플리케이션에서 서버, 사용자 무선단말기, 무인기 간의 동작을 나타내는 도면이다. 도 18을 참조하면, 사용자로부터 서비스 요청을 받고 물품 또는 서비스를 탑재한 무인기가 사용자 근처 상공에 도착하면, 무인기는 서버로 사용자 근접 상공에 도착했다는 알림을 전송할 수 있다. 다음으로, 서버는 사용자 단말기에 무인기의 도착을 알림과 동시에 애플리케이션 실행을 명령할 수 있다. 애플리케이션 실행 명령은 텍스트 알림, 음성 알림, 또는 일반적인 전화 형태 등 사용자 무선단말기에서 수행할 수 있는 다양한 기능들을 기반으로 하여 사용자에게 안내될 수 있다. 다음으로, 사용자가 알림을 수락하는 특정 동작(예: 터치 등)을 통해 애플리케이션을 실행하게 되면, 사용자 단말기, 서버 및 무인기 3자간의 네트워크 연결이 승인될 수 있다. 네트워크 연결 승인이 완료되면, 서버는 사용자 단말기에 무인기 위치 확인 및 무인기 촬영을 요청할 수 있다. 다음으로, 사용자 단말기가 무인기를 촬영하여 촬영된 영상을 서버로 전송하면, 서버는 촬영된 영상에 포함된 단말기 상태정보를 이용하여, 무인기와 사용자 무선단말기 간의 상대방위각 정보를 연산할 수 있다. 또한, 서버는 연산된 상대방위각 정보에 따라, 사용자 근접 상공에서 호버링 중인 무인기의 방향 또는 무인기 내 카메라의 회전/틸팅 제어신호를 무인기로 전송할 수 있다. 무인기는 서버의 제어신호에 따라, 사용자 단말기와 정면으로 마주볼 수 있도록 회전하는 동작을 수행할 수 있다. 다음으로, 서버는 무인기에 사용자 단말기의 위치 확인 및 사용자를 포함하는 소정의 범위를 촬영하도록 요청할 수 있다. 다음으로, 무인기가 사용자를 포함하는 소정의 범위를 촬영하여 촬영된 영상을 서버로 전송하면, 서버는 이를 사용자 단말기에 전송함과 동시에, 전송된 사용자 촬영 영상 내 특정 타켓을 선택(타게팅)할 것을 요청할 수 있다. 다음으로, 사용자는 화면 터치, 마킹 등의 조작을 통해 수신된 사용자 촬영 영상 내 특정 타켓(예: 사용자 본인)에 대한 영상부분을 선택하고, 이를 서버로 재전송할 수 있다. 다음으로, 서버는 타겟이 특정된 영상을 무인기에 전송하며, 이후 특정된 타겟을 추적하도록 무인기에 명령할 수 있다.18 is a view showing an operation between a server, a user wireless terminal, and an unmanned aerial vehicle in an application to which the present invention is applied. Referring to FIG. 18, when a service request from a user is received and an unmanned aerial vehicle equipped with an article or service arrives near the user, the unmanned aerial vehicle may transmit a notification to the server that the user has arrived near the user. Next, the server may notify the user terminal of the arrival of the unmanned aerial vehicle and simultaneously instruct the application to be executed. The application execution command may be guided to the user based on various functions that can be performed by the user's wireless terminal, such as text notification, voice notification, or general telephone type. Next, when the user executes the application through a specific operation (eg, touch, etc.) for accepting the notification, the network connection between the user terminal, the server, and the unmanned aerial vehicle can be approved. When the network connection approval is completed, the server may request the user terminal to check the location of the UAV and photograph the UAV. Next, when the user terminal photographs the unmanned aerial vehicle and transmits the photographed image to the server, the server may calculate counterpart angle information between the unmanned aerial vehicle and the user's wireless terminal using the terminal status information included in the photographed image. In addition, the server may transmit the rotation/tilting control signal of the camera within the unmanned aircraft or the direction of the unmanned aerial vehicle being hovered in the vicinity of the user, according to the calculated counterpart angle information. The UAV may rotate to face the user terminal in front of the control signal of the server. Next, the server may request the UAV to check the location of the user terminal and photograph a predetermined range including the user. Next, when the UAV photographs a predetermined range including the user and transmits the captured image to the server, the server transmits it to the user terminal and simultaneously selects (targets) a specific target in the transmitted user captured image. You can ask. Next, the user can select a video portion for a specific target (for example, the user himself) in the user captured image received through manipulation such as screen touch and marking, and resend it to the server. Next, the server transmits the target-specified image to the unmanned aerial vehicle, and then commands the unmanned aerial vehicle to track the specified target.

도 9에 개시된 본 발명의 실시예의 단계는 도 18의 발명에 개시된 단계에 후속하여 결합할 될 수 있다.The steps of the embodiment of the invention disclosed in FIG. 9 may be combined subsequent to the steps disclosed in FIG. 18.

상술된 방법 및 처리는, 예를 들어, 프로세서, 컨트롤러, 또는 다른 처리 디바이스에 의한 실행을 위한 명령들로서, 인코딩되거나, 컴팩트 디스크 판독 전용 메모리 (CDROM), 자기 또는 광학 디스크, 플래시 메모리, 랜덤 액세스 메모리 (RAM) 또는 판독 전용 메모리 (ROM), 소거가능 프로그램가능 판독 전용 메모리(EPROM) 또는 다른 머신-판독가능 매체와 같은 머신 판독가능 또는 컴퓨터 판독가능 매체에 저장될 수도 있다.The methods and processing described above are, for example, instructions for execution by a processor, controller, or other processing device, encoded or compact disk read only memory (CDROM), magnetic or optical disk, flash memory, random access memory (RAM) or read-only memory (ROM), erasable programmable read-only memory (EPROM) or other machine-readable media such as computer readable media.

이러한 매체는, 명령 실행가능 시스템, 장치 또는 디바이스에 의해 또는 이와 연결하여 사용하기 위한 실행가능한 명령들을 포함, 저장, 통신, 전파 또는 이동시키는 임의의 디바이스로서 구현될 수도 있다. 대안으로 또는 추가적으로, 하나 이상의 집적 회로, 또는 하나 이상의 프로세서 실행 명령들과 같은 하드웨어를 이용하여 아날로그 또는 디지털 로직으로서; 또는 API (application programming interface) 또는 DLL (Dynamic Link Library), 로컬 또는 원격 절차 호출로서 정의된 또는 공유 메모리에서 이용가능한 기능들의 소프트웨어로; 또는 하드웨어 및 소프트웨어의 조합으로서 구현될 수도 있다.Such media may be embodied as any device that contains, stores, communicates, propagates, or moves executable instructions for use by or in connection with an instruction executable system, apparatus, or device. Alternatively or additionally, as analog or digital logic using hardware, such as one or more integrated circuits, or one or more processor execution instructions; Or as an application programming interface (API) or Dynamic Link Library (DLL), software of functions defined as local or remote procedure calls or available in shared memory; Or it may be implemented as a combination of hardware and software.

다른 구현에서, 방법은 신호 또는 전파-신호 매체로 나타내어질 수도 있다. 예를 들어, 임의의 소정의 프로그램의 로직을 구현하는 명령들은 전기, 자기, 광학, 전자기, 적외선 또는 다른 타입의 신호의 형태를 취할 수도 있다. 상술된 시스템은 광섬유 인터페이스, 안테나, 또는 다른 아날로그 또는 디지털 신호 인터페이스와 같은 통신 인터페이스에서 이러한 신호를 수신하고, 그 신호로부터 명령들을 복원하고, 이들을 머신 판독 가능 메모리에 저장하고, 그리고/또는 프로세서를 이용하여 이들을 실행시킬 수도 있다.In other implementations, the method may be represented as a signal or propagation-signal medium. For example, instructions that implement the logic of any given program may take the form of electrical, magnetic, optical, electromagnetic, infrared, or other types of signals. The system described above receives these signals at a communication interface, such as a fiber optic interface, antenna, or other analog or digital signal interface, restores instructions from the signal, stores them in machine readable memory, and/or uses a processor You can also run them.

본 발명의 실시예들은 여기에 설명된 방법들 중 하나가 실행되는 프로그램가능 컴퓨터 시스템으로 운영될 수 있는, 전자적으로 판독가능한 제어 신호들을 갖는 캐리어 웨이브를 포함할 수 있다. 본 발명의 실시예들은 프로그램 코드를 갖는 컴퓨터 프로그램 제품으로서 구현될 수 있으며, 프로그램 코드는 컴퓨터 프로그램이 컴퓨터 상에서 구동될 때 방법들 중 하나를 실행하기 위하여 운영된다. 프로그램 코드는 예를 들면 기계 판독가능 캐리어 상에 저장될 수 있다. 본 발명의 일실시예는 컴퓨터 프로그램이 컴퓨터 상에 구동될 때, 여기에 설명된 방법들 중 하나를 실행하기 위한 프로그램 코드를 갖는 컴퓨터 프로그램일 수 있다. 본 발명은 위에서 설명한 방법들 중 하나를 실행하기 위한 컴퓨터, 또는 프로그램가능 논리 장치를 포함할 수 있다. 위에서 설명한 방법들의 일부 또는 모든 기능을 실행하기 위하여 프로그램가능 논리 장치(예를 들면, 필드 프로그램가능 게이트 어레이, 상보성 금속 산화물 반도체 기반 논리 회로)가 사용될 수 있다.Embodiments of the invention may include a carrier wave with electronically readable control signals, which can be operated with a programmable computer system on which one of the methods described herein is executed. Embodiments of the invention can be implemented as a computer program product having program code, the program code being operated to execute one of the methods when the computer program is running on a computer. The program code can be stored, for example, on a machine-readable carrier. One embodiment of the present invention may be a computer program having program code for executing one of the methods described herein when the computer program runs on a computer. The present invention may include a computer or a programmable logic device for executing one of the methods described above. Programmable logic devices (eg, field programmable gate arrays, complementary metal oxide semiconductor based logic circuits) may be used to perform some or all of the functions described above.

이상, 본 발명의 일 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.As described above, one embodiment of the present invention has been described, but those skilled in the art can add, change, delete, or add components within the scope of the present invention as described in the claims. It will be said that the present invention can be variously modified and changed by the like, and this is also included within the scope of the present invention.

10 : 무인기
20 : 사용자 무선단말기
30 : 서버
10: UAV
20: user wireless terminal
30: server

Claims (12)

서버가 무선단말기로부터 상기 무선단말기의 방위각 정보를 포함하는 제11 정보를 수신하는 단계;
상기 서버가 상기 무선단말기로부터 상기 무선단말기가 지표면을 기준으로 기울어진 각도 정보를 포함하는 제12 정보를 수신하는 단계;
상기 서버가 상기 제11 정보 및 상기 제12 정보를 바탕으로 무인기의 착륙지점을 연산하여 상기 착륙지점에 대한 정보가 포함된 제21 정보를 생성하는 단계; 및
상기 서버가 상기 제21 정보를 상기 무인기로 송신하는 단계를 포함하고,
상기 제12 정보는 상기 무선단말기와 상기 무인기의 착륙지점 간을 잇는 가상의 직선과 상기 착륙지점이 포함된 지표면과 수평한 면이 이루는 각도 정보를 바탕으로 생성된 것임을 특징으로 하는 무인기 착륙 유도 방법.
Receiving, by the server, eleventh information including azimuth information of the wireless terminal from the wireless terminal;
Receiving, by the server, twelfth information including angle information inclined with respect to the ground surface by the wireless terminal from the wireless terminal;
Calculating, by the server, a landing point of the unmanned aircraft based on the eleventh information and the twelfth information to generate twenty-first information including information on the landing point; And
And the server transmitting the 21st information to the drone,
The twelfth information is generated based on an angular information between an imaginary straight line connecting the wireless terminal and the landing point of the unmanned aerial vehicle and an earth surface and a horizontal surface including the landing point.
제1 항에 있어서,
상기 서버가 상기 무인기로부터 상기 착륙지점이 촬영된 이미지를 포함하는 제31 정보를 수신하는 단계;
상기 서버가 상기 제31 정보를 상기 무선단말기로 송신하는 단계;
상기 서버가 상기 무선단말기로부터 착륙지점 확인메세지를 포함한 제13 정보를 수신하는 단계; 및
상기 서버가 상기 착륙지점으로 비행하라는 상기 무인기의 제어신호를 포함하는 제23 정보를 상기 무인기로 송신하는 단계를 더 포함하는 것을 특징으로 하는 무인기 착륙 유도 방법.
According to claim 1,
Receiving, by the server, 31st information including an image of the landing point photographed from the unmanned aerial vehicle;
Transmitting, by the server, the 31st information to the wireless terminal;
Receiving, by the server, thirteenth information including a landing point confirmation message from the wireless terminal; And
And sending, by the server, the 23rd information including a control signal of the unmanned aerial vehicle to fly to the landing point to the unmanned aerial vehicle.
제1 항에 있어서,
상기 서버가 상기 무선단말기로 상기 무선단말기가 상기 착륙지점을 촬영할 것을 요청하는 메시지를 송신하는 단계를 더 포함하는 것을 특징으로 하는 무인기 착륙 유도 방법.
According to claim 1,
And sending, by the server, a message requesting the wireless terminal to photograph the landing point to the wireless terminal.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 무선단말기가 서버 또는 무인기에 상기 무선단말기의 방위각 정보를 포함하는 제81 정보를 송신하는 단계;
상기 무선단말기가 상기 서버 또는 상기 무인기에 상기 무선단말기로부터 상기 무선단말기가 지표면을 기준으로 기울어진 각도 정보를 포함하는 제82 정보를 송신하는 단계;
상기 무선단말기가 상기 서버 또는 상기 무인기로부터 착륙지점이 촬영된 이미지를 포함하는 제91 정보를 수신하는 단계;
상기 무선단말기가 상기 서버 또는 상기 무인기에 착륙지점 확인메세지를 포함한 제101 정보를 송신하는 단계를 포함하고,
상기 제82 정보는 상기 무선단말기와 무인기의 착륙지점 간을 잇는 가상의 직선과 상기 착륙지점이 포함된 지표면과 수평한 면이 이루는 각도 정보를 바탕으로 생성된 것임을 특징으로 하는 무인기 착륙 유도 방법.
Transmitting the 81st information including azimuth information of the wireless terminal to the server or the unmanned wireless terminal;
Transmitting, by the wireless terminal, 82th information including angle information inclined with respect to the ground surface by the wireless terminal from the wireless terminal to the server or the unmanned aerial vehicle;
The wireless terminal receiving the 91st information including the image of the landing point photographed from the server or the unmanned aerial vehicle;
The wireless terminal includes the step of transmitting 101 information including a landing point confirmation message to the server or the drone,
The 82nd information is a method for inducing unmanned landing, characterized in that it is generated based on angular information between a virtual straight line connecting the wireless terminal and the landing point of the unmanned aerial vehicle and an earth surface and a horizontal surface including the landing point.
제10 항에 있어서,
상기 무선단말기가 상기 서버 또는 무인기로부터 상기 무선단말기가 무인기의 착륙지점을 촬영할 것을 요청하는 메시지를 수신하는 단계를 더 포함하며,
상기 방위각 및 상기 각도 정보는 상기 무선단말기가 상기 착륙지점을 촬영하는 시점의 값인 것을 특징으로 하는 무인기 착륙 유도 방법.
The method of claim 10,
The wireless terminal further comprises receiving a message from the server or the unmanned aerial vehicle requesting the wireless terminal to photograph the landing point of the unmanned aerial vehicle,
The azimuth and the angle information is a method for inducing a landing of an unmanned aerial vehicle, characterized in that the wireless terminal is a value at a time when the landing point is photographed.
삭제delete
KR1020180085518A 2018-07-23 2018-07-23 UAV landing induction method KR102132945B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180085518A KR102132945B1 (en) 2018-07-23 2018-07-23 UAV landing induction method
KR1020200056883A KR102367392B1 (en) 2018-07-23 2020-05-13 UAV landing induction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180085518A KR102132945B1 (en) 2018-07-23 2018-07-23 UAV landing induction method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200056883A Division KR102367392B1 (en) 2018-07-23 2020-05-13 UAV landing induction method

Publications (2)

Publication Number Publication Date
KR20200010895A KR20200010895A (en) 2020-01-31
KR102132945B1 true KR102132945B1 (en) 2020-07-10

Family

ID=69369431

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180085518A KR102132945B1 (en) 2018-07-23 2018-07-23 UAV landing induction method

Country Status (1)

Country Link
KR (1) KR102132945B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112908040A (en) * 2021-01-26 2021-06-04 广州信息投资有限公司 Unmanned aerial vehicle service management and control system based on wisdom lamp pole

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9359074B2 (en) * 2014-09-08 2016-06-07 Qualcomm Incorporated Methods, systems and devices for delivery drone security
US9459620B1 (en) 2014-09-29 2016-10-04 Amazon Technologies, Inc. Human interaction with unmanned aerial vehicles
KR102246557B1 (en) * 2015-04-07 2021-04-30 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR102449439B1 (en) * 2016-01-29 2022-09-30 한국전자통신연구원 Apparatus for unmanned aerial vehicle controlling using head mounted display
KR20170110341A (en) 2016-03-23 2017-10-11 한국전자통신연구원 Delivery Method using Close Range User Identification in Autonomous Delivery Robot
KR101829125B1 (en) * 2016-05-11 2018-02-13 한국과학기술원 Method and system for determing delivery point using unmanned aerial vehicle

Also Published As

Publication number Publication date
KR20200010895A (en) 2020-01-31

Similar Documents

Publication Publication Date Title
KR101959366B1 (en) Mutual recognition method between UAV and wireless device
KR102219698B1 (en) Apparatus and method for controlling unmanned aerial vehicle
CN109074750B (en) Flight management and control for unmanned aerial vehicles
KR102019124B1 (en) Head mounted display and method for controlling the same
US10198955B1 (en) Drone marker and landing zone verification
US11475390B2 (en) Logistics system, package delivery method, and program
US20160116912A1 (en) System and method for controlling unmanned vehicles
KR20180064253A (en) Flight controlling method and electronic device supporting the same
JP2017033154A (en) Augmented reality system and augmented reality method
CN102420936B (en) Apparatus and method for providing road view
WO2019051832A1 (en) Movable object control method, device and system
EP3689754A1 (en) Flying body, living body detection system, living body detection method, program and recording medium
WO2019230604A1 (en) Inspection system
KR20200020295A (en) AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF
KR102132945B1 (en) UAV landing induction method
KR102235589B1 (en) UAV landing system
JP2020046254A (en) Route guidance program, route guidance device, and route guidance system
JP6681101B2 (en) Inspection system
KR102367392B1 (en) UAV landing induction method
US20210088338A1 (en) Systems and methods for guiding object using robot
JP2019211486A (en) Inspection system
TWI662438B (en) Methods, devices, and storage medium for preventing dangerous selfies
KR101358064B1 (en) Method for remote controlling using user image and system of the same
KR20170071278A (en) Mobile terminal
KR102334509B1 (en) Mutual recognition method between UAV and wireless device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
A107 Divisional application of patent
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant