KR102447601B1 - Moving method in unmanned aerial vehicle and the unmanned aerial vehicle - Google Patents

Moving method in unmanned aerial vehicle and the unmanned aerial vehicle Download PDF

Info

Publication number
KR102447601B1
KR102447601B1 KR1020210160900A KR20210160900A KR102447601B1 KR 102447601 B1 KR102447601 B1 KR 102447601B1 KR 1020210160900 A KR1020210160900 A KR 1020210160900A KR 20210160900 A KR20210160900 A KR 20210160900A KR 102447601 B1 KR102447601 B1 KR 102447601B1
Authority
KR
South Korea
Prior art keywords
light source
signal
sensor
unmanned aerial
aerial vehicle
Prior art date
Application number
KR1020210160900A
Other languages
Korean (ko)
Inventor
임승한
김영준
Original Assignee
주식회사 파블로항공
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 파블로항공 filed Critical 주식회사 파블로항공
Priority to KR1020210160900A priority Critical patent/KR102447601B1/en
Application granted granted Critical
Publication of KR102447601B1 publication Critical patent/KR102447601B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0202Control of position or course in two dimensions specially adapted to aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • G06K9/62
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • B64C2201/141

Abstract

Provided are a movement method of an unmanned aerial vehicle and the unmanned aerial vehicle thereof. The movement method of the unmanned aerial vehicle according to one embodiment may comprise: a step of photographing an image around a target point using a first sensor; a step of identifying one or more light sources in the photographed image; a step of identifying a signal included in the identified light source using a second sensor; a step of determining whether or not the identified signal is a target signal indicating the target point; and a step of moving the unmanned aerial vehicle to a position of the light source in response to the identified signal being the target signal. Therefore, the present invention is capable of accurately identifying the position of the light source even from a long distance.

Description

무인 비행체의 이동 방법 및 그 무인 비행체{MOVING METHOD IN UNMANNED AERIAL VEHICLE AND THE UNMANNED AERIAL VEHICLE}A method of moving an unmanned aerial vehicle and the unmanned aerial vehicle

본 발명은 무인 비행체의 이동 방법에 관한 것이다. 보다 자세하게는, 무인 비행체가 목표 지점을 인식하여 정밀하게 이동하는 방법 및 그 무인 비행체에 관한 것이다.The present invention relates to a method of moving an unmanned aerial vehicle. More particularly, it relates to a method for precisely moving an unmanned aerial vehicle by recognizing a target point, and to the unmanned aerial vehicle.

오늘날 다양한 분야에서 드론 등과 같은 무인 비행체가 이용되고 있다. 예를 들어, 방송 분야, 농업 분야, 군사 분야 등에서 무인 비행체가 이용되고 있다.Today, unmanned aerial vehicles such as drones are being used in various fields. For example, unmanned aerial vehicles are being used in the broadcasting field, agriculture field, military field, and the like.

나아가, 현재 무인 비행체를 이용하여 물품을 배송하기 위한 기술도 개발되고 있다. 즉, 무인 비행체가 물품을 파지한 상태에서 지정된 장소로 물품을 배송하는 서비스에 대한 연구가 진행되고 있다. 이러한 배송용 무인 비행체를 이용하면 인건비가 절약될 뿐만 아니라, 산악 지역, 섬 등과 같이 차량이 이동하기 힘들 지역에도 신속하게 물품을 배송할 수 있다. 무인 비행체를 통해서 물품을 배송하는 경우, 무인 비행체가 지정된 위치에 정밀하게 이동하여 착륙해야 할 필요성이 있다. Furthermore, a technology for delivering goods using an unmanned aerial vehicle is currently being developed. That is, research is being conducted on a service that delivers goods to a designated place in a state in which the unmanned aerial vehicle holds the goods. By using such an unmanned aerial vehicle for delivery, not only labor costs can be saved, but also goods can be delivered quickly to areas where vehicles are difficult to move, such as mountainous areas and islands. In the case of delivering goods through an unmanned aerial vehicle, there is a need for the unmanned aerial vehicle to precisely move and land at a designated location.

무인 비행체의 착륙을 유도하게 위하여, 비컨(beacon) 신호를 이용하기도 한다. 구체적으로, 착륙 장소에 무인 비행체의 착륙을 유도하는 비컨 송출 장치를 설치하고, 무인 비행체는 착륙 지점 부근에 비컨 신호를 인식하고, 그 비컨 신호에 따라 이동한 후에, 지정된 위치에 착륙을 수행한다.To guide the landing of the unmanned aerial vehicle, a beacon signal is also used. Specifically, a beacon transmission device for inducing the landing of the unmanned aerial vehicle is installed at the landing site, and the unmanned aerial vehicle recognizes a beacon signal near the landing point, moves according to the beacon signal, and then lands at a designated location.

그런데 이러한 비컨은 무인 비행체에 가려져 신호가 회절 또는 반사되거나, 또한 주변 타 기기에서 발생하는 무선 신호에 의해서 간섭될 수 있다. 이렇게 비컨 신호가 간섭되거나, 회절 또는 반사되는 경우, 비컨 신호 인식률이 저하될 수 있다. 비컨 송출 장치가 착륙 장소에 복수 개가 설치되어 있는 경우, 각각의 비컨의 간섭이 더욱 자주 발생할 수 있으며, 이 경우 다양한 비콘 신호가 혼재되면서 인식하기 어려워지거나 비콘 신호 인식률이 더욱 저하될 수 있다. 이 경우, 무인 비행체가 장거리에서 비콘 신호를 인식할 수 없고, 가까운 거리까지 도달한 경우에만 비콘 신호를 인식할 수 있다. However, such a beacon may be blocked by an unmanned aerial vehicle, so that the signal may be diffracted or reflected, or may be interfered with by a wireless signal generated from other nearby devices. When the beacon signal is interfered, diffracted, or reflected in this way, the beacon signal recognition rate may be reduced. If a plurality of beacon transmitting devices are installed at the landing site, interference of each beacon may occur more frequently, and in this case, various beacon signals are mixed, making it difficult to recognize or the beacon signal recognition rate may be further reduced. In this case, the unmanned aerial vehicle cannot recognize the beacon signal from a long distance, and can recognize the beacon signal only when it reaches a close distance.

이에 따라, 비콘 신호를 장거리에서 더욱 빠르고 정확하게 인식할 수 있는 기술이 요구되고 있다. Accordingly, there is a need for a technology capable of recognizing a beacon signal more quickly and accurately over a long distance.

공개특허 제10-2021-0081580호 (2021.07.02 공개)Patent Publication No. 10-2021-0081580 (published on July 2, 2021)

본 발명이 해결하고자 하는 기술적 과제는, 장거리에서도 광원의 위치를 정확하게 식별하여 해당 광원으로 이동하는 무인 비행체에서의 이동 방법 및 그 무인 비행체를 제공하는 것이다.The technical problem to be solved by the present invention is to provide a moving method in an unmanned aerial vehicle that accurately identifies the position of a light source even at a long distance and moves to the corresponding light source, and the unmanned aerial vehicle.

본 발명이 해결하고자 하는 다른 기술적 과제는, 광원에 포함된 신호를 기초로 목표 지점까지 정밀하게 이동할 수 있는 무인 비행체에서의 이동 방법 및 그 무인 비행체를 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a moving method in an unmanned aerial vehicle that can precisely move to a target point based on a signal included in a light source, and the unmanned aerial vehicle.

본 발명이 해결하고자 하는 또 다른 기술적 과제는, 유사한 복수 광원이 있는 상황에서도 광원에 포함된 신호를 기반으로 목표 지점을 신속하게 식별할 수 있는 무인 비행체에서의 이동 방법 및 그 무인 비행체를 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a moving method in an unmanned aerial vehicle that can quickly identify a target point based on a signal included in the light source even in the presence of a plurality of similar light sources, and the unmanned aerial vehicle .

본 발명이 해결하고자 하는 또 다른 기술적 과제는, 서로 다른 복수의 센서를 이용하여 정확하게 목표 지점을 식별하고 그 목표 지점의 위치로 이동체가 이동되도록 지원하는 센싱 장치를 제공하는 것이다. Another technical problem to be solved by the present invention is to provide a sensing device that accurately identifies a target point using a plurality of different sensors and supports movement of a moving object to the location of the target point.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 해결하기 위한 일 실시예에 따른 무인 비행체의 이동 방법은, 제1 센서를 이용하여 목표 지점 주변의 이미지를 촬영하는 단계와, 상기 촬영된 이미지에서 하나 이상의 광원을 식별하는 단계와, 제2 센서를 이용하여 상기 식별된 광원에 포함된 신호를 식별하는 단계와, 상기 식별된 신호가 목표 지점을 가리키는 목표 신호인지 여부를 판정하는 단계와, 상기 식별된 신호가 상기 목표 신호인 것에 응답하여, 상기 무인 비행체가 상기 광원의 위치로 이동하는 단계를 포함할 수 있다. A method of moving an unmanned aerial vehicle according to an embodiment for solving the above technical problem includes: photographing an image around a target point using a first sensor; identifying one or more light sources in the photographed image; identifying a signal included in the identified light source using a second sensor; determining whether the identified signal is a target signal pointing to a target point; responsive to the identified signal being the target signal; Thus, it may include the step of moving the unmanned aerial vehicle to the position of the light source.

일 실시예에서, 상기 신호를 식별하는 단계는, 상기 제2 센서의 감지 영역에 상기 광원이 포함될 수 있도록, 상기 무인 비행체의 자세를 변경하거나 상기 무인 비행체의 위치를 변경하거나 상기 제2 센서의 각도를 변경하는 단계를 포함할 수 있다. In one embodiment, the step of identifying the signal may include changing the posture of the unmanned aerial vehicle, changing the position of the unmanned aerial vehicle, or the angle of the second sensor so that the light source may be included in the detection area of the second sensor. may include changing the

일 실시예에서, 상기 신호를 식별하는 단계는, 상기 제2 센서의 각도를 변경하여 각도별 상기 광원의 신호 세기를 측정하는 단계와, 상기 측정된 각도별 신호 세기에 기초하여, 상기 광원의 신호 세기가 최대로 측정되는 각도로 상기 제2 센서의 각도를 설정하는 단계를 포함할 수 있다. In an embodiment, the identifying of the signal includes measuring the signal strength of the light source for each angle by changing the angle of the second sensor, and based on the measured signal strength for each angle, the signal of the light source The method may include setting the angle of the second sensor to the angle at which the intensity is measured to the maximum.

일 실시예에서, 상기 제2 센서는 짐벌(gimbal)에 장착되고, 상기 광원의 신호 세기를 측정하는 단계는, 상기 짐벌의 각도를 단계적으로 변경하여, 상기 각도별 상기 광원의 신호 세기를 측정하는 단계를 포함할 수 있다. In one embodiment, the second sensor is mounted on a gimbal, and measuring the signal strength of the light source includes changing the angle of the gimbal step by step to measure the signal strength of the light source for each angle may include steps.

일 실시예에서, 상기 하나 이상의 광원을 식별하는 단계는, 상기 하나 이상의 광원을 포함하는 목표 후보군을 생성하는 단계와, 상기 목표 후보군에 포함된 각 광원의 우선순위를 설정하는 단계를 포함할 수 있으며, 상기 신호를 식별하는 단계는 상기 설정된 우선순위에 기초하여, 상기 목표 후보군에 포함된 각 광원의 신호를 순차적으로 식별하는 단계를 포함할 수 있다. In an embodiment, the identifying of the one or more light sources may include generating a target candidate group including the one or more light sources, and setting a priority of each light source included in the target candidate group. , the step of identifying the signal may include sequentially identifying the signal of each light source included in the target candidate group based on the set priority.

일 실시예에서, 상기 우선순위를 설정하는 단계는, 상기 촬영된 이미지에서 각 광원의 밝기 값을 식별하는 단계와, 상기 밝기 값이 높은 순으로 상기 각 광원의 우선순위를 설정하는 단계를 포함할 수 있다. In an embodiment, the step of setting the priority may include identifying a brightness value of each light source in the photographed image, and setting the priority of each light source in the order of the brightness value being high. can

몇몇 실시예에서, 상기 우선순위를 설정하는 단계는, 상기 제2 센서의 감지 영역에 대한 중심 좌표를 식별하는 단계와, 상기 촬영된 이미지에서 각 광원의 좌표를 식별하는 단계와, 상기 중심 좌표와 각 광원의 좌표 간의 거리를 계산하고, 거리가 가까운 순으로 상기 각 광원의 우선순위를 설정하는 단계를 포함할 수 있다. In some embodiments, the setting of the priority includes: identifying central coordinates for the sensing area of the second sensor; identifying coordinates of each light source in the photographed image; The method may include calculating a distance between coordinates of each light source, and setting the priority of each light source in the order of the closest distances.

일 실시예에서, 상기 목표 후보군에 포함된 각 광원의 신호를 순차적으로 식별하는 단계는, 제1 우선순위에 가지는 광원의 신호를 식별하는 단계와, 상기 식별된 광원의 신호가 상기 목표 신호가 아니라는 판정에 응답하여, 다음 번째의 우선순위를 가지는 광원의 신호를 식별하는 단계를 포함할 수 있다. In an embodiment, the sequentially identifying the signal of each light source included in the target candidate group includes identifying a signal of the light source having a first priority, and indicating that the identified signal of the light source is not the target signal. In response to the determination, identifying a signal of the light source having a next priority.

몇몇 실시예에서, 상기 무인 비행체의 이동 방법은, 상기 식별된 신호가 상기 목표 신호가 아니라는 판정에 응답하여, 상기 식별된 신호와 상기 목표 신호 간의 상대적인 위치를 나타내는 위치 정보를 획득하는 단계와, 상기 획득된 위치 정보에 기초하여, 상기 무인 비행체가 이동하는 단계와, 상기 이동된 위치에서 상기 제2 센서를 이용하여, 상기 목표 신호를 식별하는 단계를 더 포함할 수 있다.In some embodiments, the method of moving the unmanned aerial vehicle comprises: in response to determining that the identified signal is not the target signal, obtaining position information indicating a relative position between the identified signal and the target signal; The method may further include moving the unmanned aerial vehicle based on the obtained location information, and identifying the target signal using the second sensor at the moved location.

몇몇 실시예에서, 상기 위치 정보를 획득하는 단계는, 상기 식별된 신호를 관제 서버로 전송하고, 상기 식별된 신호와 상기 목표 신호 간의 상대적인 위치를 나타내는 위치 정보를 상기 관제 서버로부터 수신하는 단계를 포함할 수 있다. In some embodiments, the obtaining of the location information includes transmitting the identified signal to a control server, and receiving location information indicating a relative position between the identified signal and the target signal from the control server can do.

몇몇 실시예에서, 상기 무인 비행체의 이동 방법은, 광원별 신호와 위치 정보를 포함하는 광원 목록을 저장하는 단계를 더 포함할 수 있으며, 상기 상대적인 위치 정보를 획득하는 단계는, 상기 식별된 신호와 대응하는 제1 위치 정보를 상기 광원 목록에서 식별하는 단계와, 상기 목표 신호와 대응되는 제2 위치 정보를 상기 광원 목록에 식별하고, 제1 위치 정보와 제2 위치 정보를 이용하여 상기 상대적인 위치를 나타내는 위치 정보를 획득하는 단계를 포함할 수 있다. In some embodiments, the method of moving the unmanned aerial vehicle may further include storing a light source list including a signal for each light source and location information, and obtaining the relative location information includes: the identified signal and Identifying corresponding first location information from the light source list, identifying second location information corresponding to the target signal in the light source list, and determining the relative location using the first location information and the second location information It may include the step of obtaining the indicated location information.

몇몇 실시예에서, 상대적인 위치 정보는, 상기 목표 지점까지의 거리와 상기 목표 지점에 대한 방위각을 포함할 수 있다. In some embodiments, the relative location information may include a distance to the target point and an azimuth with respect to the target point.

일 실시예에서, 상기 신호를 식별하는 단계는, 상기 광원에 포함된 주파수 또는 파장을 상기 광원의 신호로서 식별하는 단계를 포함할 수 있다. In an embodiment, the identifying the signal may include identifying a frequency or wavelength included in the light source as the signal of the light source.

일 실시예에서, 상기 신호를 식별하는 단계는, 상기 광원에 포함된 주파수들 중에서 가장 강한 세기의 주파수를 식별하는 단계를 포함할 수 있고, 상기 목표 신호인지 여부를 판정하는 단계는, 상기 목표 신호와 대응하는 주파수와 상기 식별된 주파수가 일치하는지를 판정하는 단계를 포함할 수 있다. In an embodiment, the identifying of the signal may include identifying a frequency of the strongest intensity among frequencies included in the light source, and determining whether the target signal is the target signal and determining whether a frequency corresponding to and the identified frequency matches.

일 실시예에서, 각 광원은 서로 상이한 착륙 영역에서 발생되고 서로 상이한 신호를 포함할 수 있다.In one embodiment, each light source is generated at a different landing area and may include a different signal.

일 실시예에서, 상기 제1 센서는 카메라이고, 상기 제2 센서는 적외선 신호 감지 센서일 수 있다.In an embodiment, the first sensor may be a camera, and the second sensor may be an infrared signal detection sensor.

상기 기술적 과제를 해결하기 위한 다른 실시예에 따른 무인 비행체는, 추력을 발생시켜 공중에서 무인 비행체를 이동시키는 추력 발생부와, 제1 센서와 제2 센서를 포함하는 센싱부와, 제어부를 포함하고, 상기 제어부는, 상기 제1 센서를 이용하여 목표 지점 주변의 이미지를 촬영하고, 상기 촬영된 이미지에서 하나 이상의 광원을 식별하고, 제2 센서를 이용하여 상기 식별된 광원에 포함된 신호를 식별하고, 상기 식별된 신호가 목표 지점을 가리키는 목표 신호인지 여부를 판정하고, 상기 식별된 신호가 상기 목표 신호인 것에 응답하여, 상기 추력 발생부를 제어하여 상기 광원의 위치로 상기 무인 비행체를 이동시킬 수 있다. An unmanned aerial vehicle according to another embodiment for solving the above technical problem includes a thrust generating unit for generating a thrust to move the unmanned aerial vehicle in the air, a sensing unit including a first sensor and a second sensor, and a control unit, and , the control unit captures an image around the target point using the first sensor, identifies one or more light sources in the photographed image, and identifies a signal included in the identified light source using a second sensor, , determine whether the identified signal is a target signal indicating a target point, and in response to the identified signal being the target signal, control the thrust generator to move the unmanned aerial vehicle to the position of the light source .

상기 기술적 과제를 해결하기 위한 또 다른 실시예에 따른 센싱 장치는, 목표 지점 주변의 이미지를 촬영하는 제1 센서와, 광원에 포함된 신호를 식별하는 제2 센서와, 상기 제1 센서에서 촬영된 이미지에서 하나 이상의 광원을 식별하고, 제2 센서를 이용하여 상기 식별된 광원에 포함된 신호를 식별하고, 상기 식별된 신호가 목표 지점을 가리키는 목표 신호인지 여부를 판정하는 제어부를 포함할 수 있다. A sensing device according to another embodiment for solving the above technical problem includes a first sensor that captures an image around a target point, a second sensor that identifies a signal included in a light source, and the and a control unit for identifying one or more light sources in the image, identifying a signal included in the identified light source using a second sensor, and determining whether the identified signal is a target signal pointing to a target point.

또 다른 실시예에서, 상기 제어부는, 상기 식별된 신호가 상기 목표 신호인 것에 응답하여, 이동체를 상기 목표 지점으로 이동시키기 위한 명령을 발생시킬 수 있다. In another embodiment, the controller may generate a command for moving the moving object to the target point in response to the identified signal being the target signal.

또 다른 실시예에서, 상기 제어부는 상기 제2 센서의 각도를 변경하여 각도별 상기 광원의 신호 세기를 측정하고, 상기 측정된 각도별 신호 세기에 기초하여, 상기 광원의 신호 세기가 최대로 측정되는 각도로 상기 제2 센서의 각도를 설정할 수 있다. In another embodiment, the control unit measures the signal strength of the light source for each angle by changing the angle of the second sensor, and based on the measured signal strength for each angle, the signal strength of the light source is measured to the maximum The angle of the second sensor may be set as the angle.

도 1은 본 발명의 일 실시예에 따른, 이동 제어 시스템의 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 무인 비행체의 사시도이다.
도 3은 본 발명의 일 실시예에 따른 무인 비행체의 정면도이다.
도 4는 본 발명의 일 실시예에 따른 무인 비행체의 측면도이다.
도 5과 도 6은 복수의 착륙 영역을 예시하는 도면이다.
도 7은 본 발명의 다른 실시예에 따른, 무인 비행체의 이동 방법을 설명하는 순서도이다.
도 8은 도 7의 단계 S300을 보다 자세하게 설명하기 위한 도면이다.
도 9는 도 8의 단계 S330에 대한 일 실시예를 설명하기 위한 도면이다.
도 10은 도 8의 단계 S330에 대한 다른 실시예를 설명하기 위한 도면이다.
도 11은 제1 센서의 감지 영역과 제2 센서의 감지 영역을 예시하는 도면이다.
도 12는 도 7의 단계 S400을 보다 자세하게 설명하기 위한 도면이다.
도 13은 도 12의 단계 S420를 보다 자세하게 설명하기 위한 도면이다.
도 14는 도 7의 단계 S400에 대한 다른 실시예를 설명하기 위한 도면이다.
도 15는 본 발명의 또 다른 실시예에 따른, 센싱 장치의 블록 구성도이다.
도 16는 본 발명의 또 다른 실시예에 따른, 무인 비행체의 블록 구성도이다.
1 is a diagram showing the configuration of a movement control system according to an embodiment of the present invention.
2 is a perspective view of an unmanned aerial vehicle according to an embodiment of the present invention.
3 is a front view of an unmanned aerial vehicle according to an embodiment of the present invention.
4 is a side view of an unmanned aerial vehicle according to an embodiment of the present invention.
5 and 6 are diagrams illustrating a plurality of landing areas.
7 is a flowchart illustrating a method of moving an unmanned aerial vehicle according to another embodiment of the present invention.
FIG. 8 is a diagram for explaining step S300 of FIG. 7 in more detail.
9 is a diagram for explaining an embodiment of step S330 of FIG. 8 .
FIG. 10 is a diagram for explaining another embodiment of step S330 of FIG. 8 .
11 is a diagram illustrating a detection area of a first sensor and a detection area of a second sensor.
12 is a diagram for explaining step S400 of FIG. 7 in more detail.
13 is a diagram for explaining step S420 of FIG. 12 in more detail.
FIG. 14 is a view for explaining another embodiment of step S400 of FIG. 7 .
15 is a block diagram of a sensing device according to another embodiment of the present invention.
16 is a block diagram of an unmanned aerial vehicle according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명의 기술적 사상을 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the technical idea of the present invention is not limited to the following embodiments, but may be implemented in various different forms, and only the following embodiments complete the technical idea of the present invention, and in the technical field to which the present invention belongs It is provided to fully inform those of ordinary skill in the art of the scope of the present invention, and the technical spirit of the present invention is only defined by the scope of the claims.

각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular. The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural, unless specifically stated otherwise in the phrase.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. When it is described that a component is “connected”, “coupled” or “connected” to another component, the component may be directly connected or connected to the other component, but another component is between each component. It should be understood that elements may be “connected,” “coupled,” or “connected.”

명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used herein, "comprises" and/or "comprising" refers to the presence of one or more other components, steps, operations and/or elements mentioned. or addition is not excluded.

이하, 도면들을 참조하여 본 발명의 몇몇 실시예들을 설명한다.Hereinafter, some embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른, 이동 제어 시스템의 구성을 나타내는 도면이다.1 is a diagram showing the configuration of a movement control system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 이동 제어 시스템은 무인 비행체(100), 관제 서버(200) 및 복수의 광원 송출 장치(300-n)를 포함할 수 있으며, 이러한 구성요소 각각은 네트워크를 통해서 서로 통신할 수 있다. 상기 네트워크는 무선통신망과 유선 통신망을 포함하며, 무인 비행체(100)와 관제 서버(200) 간의 통신을 지원할 수 있으며, 또한 관제 서버(200)와 광원 송출 장치(300-n) 간의 통신을 지원할 수 있다.As shown in FIG. 1 , the movement control system according to an embodiment of the present invention may include an unmanned aerial vehicle 100 , a control server 200 , and a plurality of light source transmitting devices 300-n, and such a configuration Each of the elements may communicate with each other via a network. The network includes a wireless communication network and a wired communication network, and can support communication between the unmanned aerial vehicle 100 and the control server 200, and can also support communication between the control server 200 and the light source transmitting device 300-n. have.

관제 서버(200)는 무인 비행체(100)를 관제하는 서버로서, 착륙 장소의 위치 정보와 및 목표 지점에서 발생하는 목표 신호의 정보를 포함하는 착륙 정보를 상기 무인 비행체(100)로 제공할 수 있다. 상기 착륙 장소의 위치 정보는, GNSS(Global Navigation Satellite System) 기반의 위치 정보일 수 있다. 또한, 관제 서버(200)는 무인 비행체(100)로부터 위치 정보를 수신하여, 무인 비행체(100)가 지정된 경로로 이동하고 있는지 여부를 모니터링할 수도 있다. 몇몇 실시예에서, 관제 서버(200)는 각각의 광원 송출 장치(300-n)에 대한 제어를 수행할 수 있다. 즉, 관제 서버(200)는 광원 송출 장치(300-n)에서 송출하는 광원의 세기, 주기 등을 제어할 수 있고, 더불어 광원에 포함된 신호를 제어할 수 있다. 예컨대, 관제 서버(200)는 제1 광원 송출 장치(300-1)에서 송출하는 제1 광원의 송출 주기를 제1 주기에서 제2 주기로 변경할 수 있고, 더불어 제1 광원 송출 장치(300-1)에서 송출하는 제1 광원에 포함된 제1 신호를 제2 신호로 변경할 수 있다. 여기서, 신호를 변경하는 것은, 광원에 포함된 주파수, 파장을 변경하거나 광원에 포함된 코드, 주파수, 파장 등을 변경하는 것일 수 있다. 또한, 관제 서버(200)는 각각의 광원 송출 장치(300-n)의 위치 정보를 저장하고, 각 광원 송출 장치(300-n)에서 송출하는 광원의 신호에 대한 정보를 저장할 수 있다. The control server 200 is a server for controlling the unmanned aerial vehicle 100, and may provide landing information including location information of a landing place and information of a target signal generated at the target point to the unmanned aerial vehicle 100. . The location information of the landing place may be location information based on Global Navigation Satellite System (GNSS). In addition, the control server 200 may receive location information from the unmanned aerial vehicle 100 and monitor whether the unmanned aerial vehicle 100 is moving in a designated path. In some embodiments, the control server 200 may control each light source transmitting device 300 - n. That is, the control server 200 may control the intensity, period, etc. of the light source transmitted from the light source transmitting device 300-n, and may also control a signal included in the light source. For example, the control server 200 may change the transmission period of the first light source transmitted from the first light source transmitting device 300-1 from the first period to the second period, and the first light source transmitting device 300-1 The first signal included in the first light source transmitted from the , may be changed to the second signal. Here, changing the signal may include changing the frequency and wavelength included in the light source or changing the code, frequency, wavelength, etc. included in the light source. In addition, the control server 200 may store location information of each light source transmitting device 300 - n , and may store information on a signal of a light source transmitted from each light source transmitting device 300 - n .

각각의 광원 송출 장치(300-n)는 지정된 착륙 영역별로 설치되고, 해당 착륙 영역에서 서로 다른 신호를 포함하는 광원을 송출할 수 있다. 상기 광원은 무인 비행체(100)의 착륙을 유도하기 위한 신호를 포함할 수 있다. 일 실시예에서, 상기 광원은 적외선 신호일 수 있을 수 있으며, 다른 광원들과 상이한 주파수 또는 파장을 포함할 수 있다. 또한, 각각의 광원 송출 장치(300-n)는 광확산이 가능한 돔(dome) 형태의 덮개로 덮어질 수 있다. 몇몇 실시예에서, 광원 송출 장치(300-n)는 송출하는 광원의 밝기를 정현파(sinusoidal wave) 형태로 지속적으로 변화시킬 수 있다. 이때, 광원 송출 장치(300-n)는 할당된 고유 무선 신호(예컨대, 주파수)를 이용하여 상기 광원의 밝기를 변화시킬 수 있다. Each light source transmitting device 300 - n may be installed for each designated landing area, and may transmit light sources including different signals in the corresponding landing area. The light source may include a signal for inducing landing of the unmanned aerial vehicle 100 . In one embodiment, the light source may be an infrared signal, and may include a different frequency or wavelength than other light sources. In addition, each light source transmitting device 300 - n may be covered with a dome-shaped cover capable of light diffusion. In some embodiments, the light source transmitting apparatus 300 - n may continuously change the brightness of the transmitted light source in the form of a sinusoidal wave. In this case, the light source transmitting apparatus 300 - n may change the brightness of the light source by using the assigned unique radio signal (eg, frequency).

무인 비행체(100)는 지정된 착륙 장소로 자동으로 비행하는 비행 장치로서, 프로펠러와 같은 하나 이상의 추력 발생 수단을 구비하고, 상기 추력 발생 수단을 이용하여 공중으로 자율 비행할 수 있다. 상기 무인 비행체(100)의 자율 비행 방법은, 공지된 기술이 이용될 수 있다. 일 실시예에서, 무인 비행체(100)는 관제 서버(200)로부터 착륙 정보를 수신할 수 있으며, 상기 착륙 정보에 포함된 착륙 장소의 위치 정보에 기초하여, 상기 착륙 장소로 비행할 수 있다. 또한, 무인 비행체(100)는 착륙 장소로 이동한 후에, 복수의 센서를 이용하여 착륙 장소에 포함된 착륙 지점을 식별한 후, 그 착륙 지점으로 이동하고 나서 착륙 지점에 착륙할 수 있다. The unmanned aerial vehicle 100 is a flying device that automatically flies to a designated landing place, has one or more thrust generating means such as a propeller, and can autonomously fly in the air using the thrust generating means. As the autonomous flight method of the unmanned aerial vehicle 100, a known technology may be used. In an embodiment, the unmanned aerial vehicle 100 may receive landing information from the control server 200 and may fly to the landing site based on location information of the landing site included in the landing information. In addition, after moving to the landing site, the unmanned aerial vehicle 100 may use a plurality of sensors to identify a landing point included in the landing site, and then move to the landing site and then land at the landing site.

상기 무인 비행체(100)는 도 2 내지 도 4에서 도시된 바와 같이, 제1 센서(110)와 제2 센서(120)를 구비할 수 있으며, 제1 센서(110)를 이용하여 착륙 장소 주변에서 나타내는 복수의 광원을 식별할 수 있으며, 또한, 제2 센서(120)를 이용하여 복수의 광원 중에서 목표 광원을 식별할 수 있다. 여기서, 목표 광원은 목표 신호를 포함하는 광원으로 이해될 수 있다.As shown in FIGS. 2 to 4 , the unmanned aerial vehicle 100 may include a first sensor 110 and a second sensor 120 , and use the first sensor 110 to move around the landing site. A plurality of indicated light sources may be identified, and a target light source may be identified from among the plurality of light sources using the second sensor 120 . Here, the target light source may be understood as a light source including a target signal.

도 2는 본 발명의 일 실시예에 따른 무인 비행체의 사시도이다.2 is a perspective view of an unmanned aerial vehicle according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 무인 비행체의 정면도이다.3 is a front view of an unmanned aerial vehicle according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 무인 비행체의 측면도이다.4 is a side view of an unmanned aerial vehicle according to an embodiment of the present invention.

도 2 내지 도 4를 참조하면, 본 발명의 일 실시예에 따른 무인 비행체(100)는 추력을 발생시키는 수단으로서 복수의 프로펠러(111-n), 이미지를 촬영하기 위한 제1 센서(110) 및 광원에 포함된 신호를 식별하기 위한 제2 센서(120)를 포함할 수 있다. 몇몇 실시예에서, 무인 비행체(100)는 고정익기 형태의 추력 발생 수단을 포함할 수도 있다. 2 to 4 , the unmanned aerial vehicle 100 according to an embodiment of the present invention includes a plurality of propellers 111-n as means for generating thrust, a first sensor 110 for photographing an image, and A second sensor 120 for identifying a signal included in the light source may be included. In some embodiments, the unmanned aerial vehicle 100 may include a thrust generating means in the form of a fixed wing aircraft.

제1 센서(110), 제2 센서(120) 각각은 짐벌(gimble)에 창작될 수 있다. 이에 따라 제1 센서(110)와 제2 센서(120)의 각도가 변경될 수 있다. 여기서, 각도는 해당 센서가 지향하는 방향 내지 방위로 이해될 수 있다. 일 실시예에서, 짐벌을 통해서, 제1 센서(110)와 제2 센서(120)의 각도는 상하로 변경될 수 있고, 추가적으로 좌우로 변경될 수 있다. Each of the first sensor 110 and the second sensor 120 may be created on a gimbal. Accordingly, the angle of the first sensor 110 and the second sensor 120 may be changed. Here, the angle may be understood as a direction or an orientation toward which a corresponding sensor is directed. In one embodiment, through the gimbal, the angles of the first sensor 110 and the second sensor 120 may be changed up and down, and may additionally be changed left and right.

일 실시예에서, 제1 센서(110)는 카메라일 수 있으며, 제2 센서(120)는 적외선 신호 감지 센서일 수 있다. 제1 센서(110)와 제2 센서(120) 모두 하"?향?* 촬영할 수 있는 무인 비행체(100)의 위치에 설치될 수 있다. 또한, 제1 센서(110)의 감지 영역은, 제2 센서(120)의 감지 영역보다 클 수 있다. 여기서, 감지 영역은 360도 전체 영역 중에서 제1 센서(110) 또는 제2 센서(120)가 측정할 수 영역의 범위로서, FOV(Field of View)와 대응될 수 있다. In one embodiment, the first sensor 110 may be a camera, and the second sensor 120 may be an infrared signal detection sensor. Both the first sensor 110 and the second sensor 120 may be installed at a position of the unmanned aerial vehicle 100 capable of photographing “downward?*. In addition, the sensing area of the first sensor 110 is It may be larger than the sensing area of the two sensors 120. Here, the sensing area is a range of an area that can be measured by the first sensor 110 or the second sensor 120 among the entire 360 degree area, and is a field of view (FOV). ) can be matched with

무인 비행체(100)는 제1 센서(110)에서 촬영한 이미지를 분석하여 하나 이상의 광원을 이미지에서 식별하고, 제2 센서(120)를 이용하여 광원에 포함된 신호를 식별할 수 있다. 일 실시예에서, 무인 비행체(100)는 광원에 포함된 신호가 목표 신호와 일치하는지 여부를 판정하고, 판정 결과 상기 광원에 포함된 신호가 목표 신호에 일치하면, 그 목표 신호의 위치를 목표 위치로서 판정하여, 상기 목표 신호의 위치까지 이동한 후, 그 목표 신호의 위치에 착륙할 수 있다.The unmanned aerial vehicle 100 may identify one or more light sources in the image by analyzing the image captured by the first sensor 110 , and may identify a signal included in the light source using the second sensor 120 . In one embodiment, the unmanned aerial vehicle 100 determines whether the signal included in the light source matches the target signal, and if the determination result that the signal included in the light source matches the target signal, the location of the target signal is set to the target position , and after moving to the position of the target signal, it can land at the position of the target signal.

광원에 따라 무인 비행체(100)가 이동하는 방법에 대해서는 도 7 내지 도 14를 참조하여 보다 구체적으로 설명한다. A method of moving the unmanned aerial vehicle 100 according to the light source will be described in more detail with reference to FIGS. 7 to 14 .

도 5과 도 6은 복수의 착륙 영역을 예시하는 도면이다. 5 and 6 are diagrams illustrating a plurality of landing areas.

도 5와 도 6을 참조하면, 착륙 장소에는 서로 다른 위치를 가지는 복수의 착륙 영역(10, 20, 30)이 배치될 수 있다. 여기서, 착륙 장소는 착륙 영역 보다 더 큰 면적을 가지는 것으로, 착륙 장소에는 복수의 착륙 영역이 마련될 수 있다. 일 실시예에 따르면, 각각의 착륙 영역(10, 20, 30)마다 광원 송출 장치(300-1, 300-2, 300-3)가 설치될 수 있다. 상기 광원 송출 장치(300-1, 300-2, 300-3)는 착륙 영역(10, 20, 30)의 중앙에 설치될 수 있고, 또는 중앙 이외에 다른 지점에 설치될 수 있다. 도 6에서는 광원 송출 장치(300-1, 300-2, 300-3)가 양각 형태로 돌출된 것으로 예시되어 있으나, 무인 비행체(100)의 착륙을 방해하지 않기 위해 음각 형태로 착륙 영역(300-1, 300-2, 300-3)에 설치될 수 있다.5 and 6 , a plurality of landing areas 10 , 20 , and 30 having different positions may be disposed at the landing site. Here, the landing area has a larger area than the landing area, and a plurality of landing areas may be provided at the landing site. According to an embodiment, the light source transmitting apparatuses 300 - 1 , 300 - 2 and 300 - 3 may be installed in each of the landing areas 10 , 20 , and 30 . The light source transmitting devices 300 - 1 , 300 - 2 , and 300 - 3 may be installed in the center of the landing areas 10 , 20 , and 30 , or may be installed at a point other than the center. In FIG. 6 , the light source transmitting devices 300-1, 300-2, and 300-3 are illustrated as protruding in a embossed form, but in order not to interfere with the landing of the unmanned aerial vehicle 100, the landing area 300- 1, 300-2, 300-3) can be installed.

또한, 각각의 착륙 영역(10, 20, 30)에 설치된 광원 송출 장치(300-1, 300-2, 300-3)는 서로 다른 광원(IR1, IR2, IR3)을 송출할 수 있다. 도 6에서는, 제1 광원 송출 장치(300-1)는 제1 광원(IR1)을 송출하고, 제2 광원 송출 장치(300-2)는 제2 광원(IR2)을 송출하며, 제3 광원 송출 장치(300-3)는 제3 광원(IR3)을 송출하는 것으로 예시되어 있다. 또한, 각각의 광원은 서로 다른 신호를 포함하고 있다. 도 6에서는, 제1 광원(IR1)은 제1 신호(S1)를 포함하고, 제2 광원(IR2)은 제2 신호(S2)를 포함하며, 제3 광원(IR3)은 제1 신호(S3)를 포함할 수 있다. 상기 광원에 포함된 신호는 세기, 주파수, 파장, 코드 등일 수 있다. In addition, the light source transmitting devices 300-1, 300-2, 300-3 installed in each of the landing areas 10, 20, 30 may transmit different light sources IR 1 , IR 2 , IR 3 . . In FIG. 6 , the first light source transmitting device 300-1 transmits the first light source IR 1 , the second light source transmitting device 300-2 transmits the second light source IR 2 , and the third The light source transmitting device 300 - 3 is exemplified as transmitting the third light source IR 3 . Also, each light source contains a different signal. In FIG. 6 , the first light source IR 1 includes the first signal S1 , the second light source IR 2 includes the second signal S2 , and the third light source IR 3 includes the first signal S1 . signal S3. The signal included in the light source may be intensity, frequency, wavelength, code, or the like.

또한, 도 6에 예시된 바와 같이, 각각의 광원 송출 장치(300-1, 300-2, 300-3)은 끝단은 광확산이 가능한 돔(dome) 형태의 덮개로 덮어질 수 있다. 이에 따라, 광원 송출 장치(300-1, 300-2, 300-3)에서 송출하는 광원은 보다 넓은 범위로 확산될 수 있다. In addition, as illustrated in FIG. 6 , the ends of each of the light source transmitting devices 300-1, 300-2, and 300-3 may be covered with a dome-shaped cover capable of light diffusion. Accordingly, the light source transmitted from the light source transmitting apparatuses 300-1, 300-2, and 300-3 may be spread over a wider range.

이하, 도 7 내지 도 14를 참조하여, 본 발명의 다른 실시예에 따른 무인 비행체의 이동 방법에 대해서 설명한다.Hereinafter, a method of moving an unmanned aerial vehicle according to another embodiment of the present invention will be described with reference to FIGS. 7 to 14 .

도 7은 본 발명의 다른 실시예에 따른, 무인 비행체의 이동 방법을 설명하는 순서도이다.7 is a flowchart illustrating a method of moving an unmanned aerial vehicle according to another embodiment of the present invention.

도 7을 참조하면, 무인 비행체(100)는 관제 서버(200)로부터 착륙 정보를 수신할 수 있다(S100). 상기 착륙 정보는, 착륙 장소의 위치 정보와 및 목표 지점에서 발생하는 목표 신호의 식별정보를 포함할 수 있다. 상기 목표 신호는 특정 주파수 또는 파장을 포함할 수 있다. 몇몇 실시예에서, 관제 서버(200)는 착륙 장소에 위치한 광원별 신호와 광원별 위치 정보(즉, 광원 송출 장치의 위치 정보)를 포함하는 광원 목록을 무인 비행체(100)로 추가적으로 전송할 수 있다. 상기 광원 목록은 후술하는 바와 같이, 목표 지점과의 상대적인 위치를 획득하는데 이용될 수 있다. 상대적인 위치를 획득하는 방법과 그에 따른 무인 이동체(100)의 이동 방법은 도 14를 참조하여 보다 자세하게 설명된다.Referring to FIG. 7 , the unmanned aerial vehicle 100 may receive landing information from the control server 200 ( S100 ). The landing information may include location information of a landing place and identification information of a target signal generated at a target point. The target signal may include a specific frequency or wavelength. In some embodiments, the control server 200 may additionally transmit to the unmanned aerial vehicle 100 a light source list including a signal for each light source located at the landing site and location information for each light source (ie, location information of the light source transmitting device). The light source list may be used to obtain a position relative to a target point, as will be described later. A method of acquiring a relative position and a method of moving the unmanned moving object 100 accordingly will be described in more detail with reference to FIG. 14 .

이어서, 무인 비행체(100)는 상기 착륙 정보에 포함된 착륙 장소의 위치 정보에 기초하여, 착륙 장소로 자율 비행하여 이동할 수 있다(S200). 일 실시예에서, 무인 비행체(100)는 현재의 위치 정보와 착륙 장소의 위치 정보를 비교하여, 착륙 장소까지 방향과 거리를 식별한 후, 그 식별된 방향과 거리에 기초하여 착륙 장소까지 이동할 수 있다.Subsequently, the unmanned aerial vehicle 100 may autonomously fly to and move to the landing site based on the location information of the landing site included in the landing information (S200). In one embodiment, the unmanned aerial vehicle 100 compares the current location information with the location information of the landing place, identifies the direction and distance to the landing site, and then moves to the landing site based on the identified direction and distance. have.

착륙 장소까지 이동한 무인 비행체(100)는 제1 센서(110)를 이용하여 착륙 장소에서 발생하는 하나 이상의 광원을 탐색하고, 그 탐색된 광원들 포함하는 목표 후보군을 선정할 수 있다. 일 실시예에서, 무인 비행체(100)는 제1 센서(110)를 이용하여 착륙 장소의 이미지를 촬영하고, 그 이미지에서 하나 이상의 광원을 식별할 수 있다. 여기서, 촬영된 이미지는 착륙 장소의 전체 이미지가 아니라, 착륙 장소의 일부만을 촬영한 이미지일 수 있다. 이에 따라, 착륙 장소에서 발생한 모든 광원 중에서 일부 광원만이 이미지에 포함될 수 있다. 또한, 무인 비행체(100)는 목표 후보군에 포함된 각각의 광원에 대한 우선순위를 설정할 수 있다. 단계 S300에 대해서는 도 8 내지 도 11을 참조하여 보다 자세하게 설명하기로 한다.The unmanned aerial vehicle 100 that has moved to the landing site may search for one or more light sources generated at the landing site using the first sensor 110 and select a target candidate group including the searched light sources. In an embodiment, the unmanned aerial vehicle 100 may take an image of the landing site using the first sensor 110 and identify one or more light sources in the image. Here, the photographed image may be an image obtained by photographing only a part of the landing site, not the entire image of the landing site. Accordingly, among all the light sources generated at the landing site, only some light sources may be included in the image. In addition, the unmanned aerial vehicle 100 may set a priority for each light source included in the target candidate group. Step S300 will be described in more detail with reference to FIGS. 8 to 11 .

무인 비행체(100)는 목표 후보군에 포함된 각 광원의 신호를 기초로 목표 지점을 식별하고, 그 목표 지점으로 이동할 수 있다(S400). 일 실시예에서, 무인 비행체(100)는 제2 센서(120)를 이용하여, 목표 후보군에 포함된 각 광원의 신호와 목표 신호를 비교하여, 목표 신호와 일치하는 신호를 포함하는 광원의 위치(즉, 광원 송출 장치의 위치)가 목표 지점인 것으로 판정할 수 있다. 몇몇 실시예에서, 무인 비행체(100)는 제2 센서(120)의 감지 영역에 검증 대상의 광원이 포함될 수 있도록, 무인 비행체(100)의 자세를 변경하거나 무인 비행체(100)의 위치를 변경하거나 상기 제2 센서의 각도(120)를 변경하는 수 있다. 단계 S400에 대해서는 도 12 내지 도 14를 참조하며 보다 자세하게 설명하기로 한다.The unmanned aerial vehicle 100 may identify a target point based on a signal of each light source included in the target candidate group and move to the target point (S400). In one embodiment, the unmanned aerial vehicle 100 uses the second sensor 120 to compare the signal of each light source included in the target candidate group with the target signal, and the position ( That is, it may be determined that the position of the light source transmitting device) is the target point. In some embodiments, the unmanned aerial vehicle 100 may change the posture of the unmanned aerial vehicle 100 or change the position of the unmanned aerial vehicle 100 so that the light source of the verification target may be included in the detection area of the second sensor 120 , or The angle 120 of the second sensor may be changed. Step S400 will be described in more detail with reference to FIGS. 12 to 14 .

목표 지점으로 이동을 완료한 무인 비행체(100)는 그 목표 지점으로 착륙을 진행할 수 있다(S500). 상기 목표 지점은 목표 신호를 포함한 광원을 송출하는 광원 송출 장치(300-n)의 위치일 수 있다.The unmanned aerial vehicle 100 that has completed the movement to the target point may proceed to land at the target point (S500). The target point may be a location of the light source transmitting device 300 - n for transmitting the light source including the target signal.

무인 비행체(100)는 착륙이 정상적으로 완료되면, 착륙 완료 알림 메시지를 관제 서버(200)로 전송할 수 있다(S600).When the landing is normally completed, the unmanned aerial vehicle 100 may transmit a landing completion notification message to the control server 200 (S600).

본 실시예에 따르면, 무인 비행체(100)는 착륙 장소를 우선 이동한 후, 제1 센서(110)를 이용하여 착륙 장소 주변의 광원을 식별하고, 제2 센서(120)를 이용하여 식별된 광원의 신호가 목표 신호인지 여부를 검증한 후, 검증에 성공하면 해당 신호를 포함하는 광원의 위치로 이동할 수 있다. 이에 따라, 무인 비행체(100)는 보다 정밀하게 지정된 위치로 이동할 수 있다. 부연하면, GNSS를 이용한 위치 측정 기술은 오차가 발생하여 GNSS 기반으로 착륙을 수행하는 경우, 목표가 되는 지점과 실제 착륙되는 지점 간의 오차가 발생할 수 있다. 하지만, 본 실시예에 따르면, 무인 비행체(100)는 먼저 착륙 장소로 이동한 후에, 광원의 신호를 기초로 목표 지점까지의 정밀하게 이동하여 착륙할 수 있다. 즉, 오차가 거의 발생하지 않고, 의도하는 목표 지점에 무인 비행체(100)가 착륙할 수 있다. 또한, 본 실시예에서는 제1 센서(110)를 이용하여 촬영된 이미지를 분석하여 광원을 식별하기 때문에, 간섭, 반사, 회절 등으로 인하여 장거리까지 도달하지 않은 광원을 정확하게 식별할 수 있다.According to this embodiment, the unmanned aerial vehicle 100 first moves to the landing site, then uses the first sensor 110 to identify a light source around the landing site, and uses the second sensor 120 to identify the identified light source. After verifying whether the signal of is the target signal, if the verification is successful, it can move to the position of the light source including the corresponding signal. Accordingly, the unmanned aerial vehicle 100 may move to a more precisely designated position. In other words, an error occurs in the positioning technology using GNSS, and when landing is performed based on GNSS, an error may occur between the target point and the actual landing point. However, according to the present embodiment, the unmanned aerial vehicle 100 may first move to the landing site and then move precisely to the target point based on the signal of the light source to land. That is, the unmanned aerial vehicle 100 may land at the intended target point with little error occurring. In addition, in the present embodiment, since the light source is identified by analyzing the photographed image using the first sensor 110, it is possible to accurately identify the light source that does not reach a long distance due to interference, reflection, diffraction, etc.

도 8을 참조하여, 도 7의 단계 S300에 대해서 보다 자세하게 설명한다.Referring to FIG. 8 , step S300 of FIG. 7 will be described in more detail.

착륙 장소로 이동한 무인 비행체(100)는 제1 센서(110)를 이용하여 착륙 장소 주변의 이미지를 촬영할 수 있다(S310). 일 실시예에서, 무인 비행체(100)는 착륙 장소의 바닥면이 일정 면적 이상으로 촬영될 수 있도록, 고도를 조절할 수 있으며 제1 센서(110)의 촬영 각도를 조절할 수 있다. 상기 고도를 사전에 설정될 수 있으며, 또한 제1 센서(110)의 촬영 각도도 사전에 설정될 수 있다.The unmanned aerial vehicle 100 that has moved to the landing site may use the first sensor 110 to take an image around the landing site (S310). In one embodiment, the unmanned aerial vehicle 100 may adjust the altitude so that the floor surface of the landing site can be photographed over a certain area, and may adjust the photographing angle of the first sensor 110 . The altitude may be preset, and a photographing angle of the first sensor 110 may also be preset.

이어서, 무인 비행체(100)는 촬영된 이미지에서 소정의 형상을 가지는 객체를 식별하고, 이 객체를 광원으로서 식별할 수 있다(S320). 일 실시예에서, 상기 소정의 형상은 블랍(blob)일 수 있다. 이 경우, 무인 비행체(100)는 공지된 블랍 검출 알고리즘을 이용하여, 촬영 이미지에서 블랍을 검출하고, 그 블랍을 광원인 것으로 식별할 수 있다.Subsequently, the unmanned aerial vehicle 100 may identify an object having a predetermined shape in the photographed image, and identify the object as a light source ( S320 ). In one embodiment, the predetermined shape may be a blob. In this case, the unmanned aerial vehicle 100 may detect a blob in a photographed image using a known blob detection algorithm, and identify the blob as a light source.

다음으로, 무인 비행체(100)는 이미지로부터 식별된 하나 이상을 광원을 기초로 목표 후보군을 생성할 수 있다(S330). 일 실시예에서, 무인 비행체(100)는 상기 식별된 하나 이상의 광원을 모두 포함하는 목표 후보군을 생성할 수 있다. 또한, 무인 비행체(100)는 목표 후보군에 포함된 광원에 대한 우선순위를 설정할 수 있다. 무인 비행체(100)는 이미지 상에서 광원의 밝기 값 또는 광원의 위치를 기초로 각 광원에 대한 우선순위를 설정할 수 있다.Next, the unmanned aerial vehicle 100 may generate a target candidate group based on one or more light sources identified from the image (S330). In an embodiment, the unmanned aerial vehicle 100 may generate a target candidate group including all of the identified one or more light sources. In addition, the unmanned aerial vehicle 100 may set a priority for the light source included in the target candidate group. The unmanned aerial vehicle 100 may set a priority for each light source based on the brightness value of the light source or the position of the light source on the image.

도 9 및 도 10을 참조하면, 목표 후보군에 포함된 광원의 우선순위를 설정하는 다양한 실시예에 대해서 설명한다.9 and 10 , various embodiments of setting priorities of light sources included in a target candidate group will be described.

도 9는 도 8의 단계 S330에 대한 일 실시예를 설명하기 위한 도면이다. 9 is a diagram for explaining an embodiment of step S330 of FIG. 8 .

도 9를 참조하면, 무인 비행체(100)는 이미지 상에서 식별된 각 광원의 밝기 값을 식별할 수 있다(S331). 무인 비행체(100)는 이미지 상에서 광원을 나타내는 소정의 형상(예컨대, 블랍)에 대한 밝기 값을 상기 광원에 대한 밝기 값인 것으로 식별할 수 있다. 일 실시예에서, 무인 비행체(100)는 상기 소정의 형상을 구성하는 각 픽셀 별 명도 값을 획득하고, 그 명도 값의 평균을 해당 광원의 밝기 값으로서 식별할 수 있다.Referring to FIG. 9 , the unmanned aerial vehicle 100 may identify the brightness value of each light source identified on the image ( S331 ). The unmanned aerial vehicle 100 may identify a brightness value for a predetermined shape (eg, blob) representing a light source on an image as a brightness value for the light source. In an embodiment, the unmanned aerial vehicle 100 may obtain a brightness value for each pixel constituting the predetermined shape, and identify an average of the brightness values as a brightness value of the corresponding light source.

이어서, 무인 비행체(100)는 각 광원의 밝기 값을 기초로, 각 광원의 우선순위를 설정할 수 있다(S332). 일 실시예에서, 무인 비행체(100)는 광원의 밝기 값이 높은 순으로 정렬하고(즉, 밝은 순서로 정렬하고), 정렬된 순으로 높은 우선순위를 각 광원에 부여할 수 있다. Subsequently, the unmanned aerial vehicle 100 may set the priority of each light source based on the brightness value of each light source (S332). In one embodiment, the unmanned aerial vehicle 100 may sort the light sources in the order of the highest brightness value (ie, sort them in the bright order), and give each light source a higher priority in the sorted order.

다음으로, 무인 비행체(100)는 우선순위가 설정된 광원을 포함하는 목표 후보군을 생성할 수 있다(S333). Next, the unmanned aerial vehicle 100 may generate a target candidate group including a light source for which priority is set ( S333 ).

본 실시예에서와 같이, 이미지 상에서 식별된 광원의 밝기 값을 기초로 광원별 우선순위를 설정하고, 그 우선순위가 설정된 광원을 포함하는 목표 후보군을 생성할 수 있다. As in the present embodiment, it is possible to set a priority for each light source based on the brightness value of the light source identified on the image, and to generate a target candidate group including the light source whose priority is set.

도 10은 도 8의 단계 S330에 대한 다른 실시예를 설명하기 위한 도면이다. FIG. 10 is a diagram for explaining another embodiment of step S330 of FIG. 8 .

도 11은 제1 센서(110)의 감지 영역과 제2 센서(120)의 감지 영역을 예시하는 도면이다.11 is a diagram illustrating a detection area of the first sensor 110 and a detection area of the second sensor 120 .

도 10 및 도 11을 참조하면, 무인 비행체(100)는 제2 센서(120)가 감지할 수 있는 제2 감지 영역(60)에 대한 중심 좌표(61)를 식별할 수 있다(S335). 여기서 중심 좌표(61)는 2차원 평면 좌표일 수 있다. 또한, 제2 감지 영역(60)은 제1 센서(110)가 감지할 수 있는 제1 감지 영역(50) 안에 포함될 수도 있다. 상기 제1 감지 영역(50)은 제1 센서(110)의 FOV(Field of View) 일 수 있으며, 제2 감지 영역(60)은 제2 센서(120)의 FOV일 수 있다. 일 실시예에서, 제1 센서(110)의 시야각 범위와 제2 센서의 시야각 범위를 모두를 커버할 수 있는 전체 영역을 미리 생성하고, 그 전체 영역에 대한 좌표를 미리 설정할 수 있다. 또한, 무인 비행체(100)는 제1 센서(110)의 현재 각도와 시야각을 기초하여 제1 감지 영역(50)이 전체 영역에 차지하는 위치를 결정할 수 있으며, 마찬가지로 제2 센서(120)의 현재 각도와 시야각을 기초하여 제2 감지 영역(60)이 전체 영역에 차지하는 위치를 결정할 수 있다.10 and 11 , the unmanned aerial vehicle 100 may identify the center coordinate 61 of the second sensing area 60 that the second sensor 120 can detect ( S335 ). Here, the center coordinates 61 may be two-dimensional plane coordinates. In addition, the second sensing region 60 may be included in the first sensing region 50 that can be detected by the first sensor 110 . The first sensing area 50 may be a field of view (FOV) of the first sensor 110 , and the second sensing area 60 may be a field of view of the second sensor 120 . In an embodiment, an entire area that can cover both the viewing angle range of the first sensor 110 and the viewing angle range of the second sensor may be generated in advance, and coordinates for the entire area may be preset. In addition, the unmanned aerial vehicle 100 may determine the position occupied by the first sensing area 50 in the entire area based on the current angle and the viewing angle of the first sensor 110 , and similarly, the current angle of the second sensor 120 . A position occupied by the second sensing area 60 over the entire area may be determined based on the and the viewing angle.

이어서, 무인 비행체(100)는 제1 센서(110)의 제1 감지 영역(50)에 나타난 각 광원의 좌표를 식별할 수 있다(S336). 여기서 각 광원 좌표는 2차원 좌표일 수 있다.Subsequently, the unmanned aerial vehicle 100 may identify the coordinates of each light source appearing in the first sensing area 50 of the first sensor 110 ( S336 ). Here, each light source coordinate may be a two-dimensional coordinate.

도 11에서 상대적으로 큰 사각형은 제1 센서(110)의 제1 감지 영역(50)을 예시하고, 상대적으로 작은 사각형은 제2 센서(120)의 제2 감지 영역(60)을 예시할 수 있다. 도 11에서는 제2 감지 영역(60)의 중심 좌표가 참조부호 61로서 예시되어 있다.In FIG. 11 , a relatively large rectangle may exemplify the first sensing area 50 of the first sensor 110 , and a relatively small rectangle may exemplify the second sensing region 60 of the second sensor 120 . . In FIG. 11 , the coordinates of the center of the second sensing region 60 are exemplified by reference numeral 61 .

이어서, 무인 비행체(100)는 제2 감지 영역(60)의 중심 좌표(61)와 각 광원 간의 거리를 계산하고, 제2 감지 영역(60)의 중심 좌표의 각 광원 간의 거리를 기초로 각 광원의 우선순위를 설정할 수 있다(S337). 일 실시예에서, 무인 비행체(100)는 제2 감지 영역(60)의 중심 좌표(61)와 광원 간의 거리가 가까운 순으로 정렬하고, 정렬된 순으로 높은 우선순위를 각 광원에 부여할 수 있다. Then, the unmanned aerial vehicle 100 calculates the distance between the central coordinates 61 of the second sensing area 60 and each light source, and based on the distance between each light source of the central coordinates of the second sensing area 60 , each light source It is possible to set the priority of (S337). In one embodiment, the unmanned aerial vehicle 100 may arrange the distance between the light source and the central coordinate 61 of the second sensing area 60 in the order of closest, and give high priority to each light source in the sorted order. .

도 11에 따른 이미지는 총 3개의 광원(71, 72, 73)이 식별된 것으로 예시하고 있고, 이 중에서 제3 광원(73)은 제2 감지 영역(60)에 포함된 것으로 예시하고 있다. The image according to FIG. 11 exemplifies that a total of three light sources 71 , 72 , and 73 are identified, and among them, the third light source 73 is illustrated as being included in the second sensing region 60 .

도 11과 같은 광원이 식별된 경우, 무인 비행체(100)는 제2 감지 영역(60)의 중심 좌표(61)와 가장 가까운 거리(d1)를 가지는 제3 광원(73)을 최우선 순위가 되게 설정하고, 중심 좌표(61)와 중간 거리(d2)를 가지는 제2 광원(72)을 두 번째 우선순위가 되게 설정하고, 중심 좌표(61)와 최장 거리(d3)를 가지는 제1 광원(71)을 세 번째 우선순위가 되게 설정할 수 있다.When the light source as shown in FIG. 11 is identified, the unmanned aerial vehicle 100 sets the third light source 73 having the closest distance d1 to the center coordinate 61 of the second sensing area 60 as the highest priority. and set the second light source 72 having the center coordinate 61 and the intermediate distance d2 to be the second priority, and the first light source 71 having the center coordinate 61 and the longest distance d3 can be set to be the third priority.

다음으로, 무인 비행체(100)는 우선순위가 설정된 광원을 포함하는 목표 후보군을 생성할 수 있다(S338). Next, the unmanned aerial vehicle 100 may generate a target candidate group including a light source for which priority is set ( S338 ).

본 실시예에서와 같이, 이미지 상에서 식별된 광원과 제2 점유 영역의 중심 좌표 간의 거리를 기초로 광원별 우선순위를 설정하고, 그 우선순위가 설정된 광원을 포함하는 목표 후보군을 생성할 수 있다. As in the present embodiment, a priority may be set for each light source based on the distance between the light source identified on the image and the coordinates of the center of the second occupied area, and a target candidate group including the light source whose priority is set may be generated.

이하, 도 12를 참조하여, 목표 지점을 식별하여 이동하는 도 7의 단계 S400에 대해서 보다 자세하게 설명한다.Hereinafter, with reference to FIG. 12 , step S400 of FIG. 7 for identifying and moving a target point will be described in more detail.

목표 후보군이 선정되고 나서, 무인 비행체(100)는 목표 후보군에 포함된 광원 중에서 최우선 순위를 가지는 광원을 식별할 수 있다(S410). After the target candidate group is selected, the unmanned aerial vehicle 100 may identify a light source having the highest priority among the light sources included in the target candidate group (S410).

이어서, 무인 비행체(100)는 광원에 포함된 신호의 세기가 최대로 측정될 수 있도록, 제2 센서(120)의 각도를 조절할 수 있다(S420). 제2 센서의 각도를 조절하는 구체적인 방법에 대해서는 도 13을 참조하여 보다 자세하게 설명한다. 몇몇 실시예에서, 무인 비행체(100)는 제2 센서(120)의 감지 영역에 최우선 순위의 광원이 포함될 수 있도록, 무인 비행체(100)의 자세를 변경하거나 무인 비행체(100)의 위치를 변경하거나 상기 제2 센서(120)의 각도를 변경할 수 있다. 몇몇 실시예에서, 제2 센서(120)는 짐벌에 창작될 수 있으며, 이 경우 무인 비행체(100)는 제2 센서(120)의 감지 영역에 최우선 순위의 광원이 포함될 수 있도록, 상기 짐벌의 각도를 조절하여, 제2 센서(120)의 각도를 변경할 수 있다.Then, the unmanned aerial vehicle 100 may adjust the angle of the second sensor 120 so that the intensity of the signal included in the light source can be measured to the maximum ( S420 ). A specific method of adjusting the angle of the second sensor will be described in more detail with reference to FIG. 13 . In some embodiments, the unmanned aerial vehicle 100 may change the posture of the unmanned aerial vehicle 100 or change the position of the unmanned aerial vehicle 100 so that the light source of the highest priority may be included in the detection area of the second sensor 120 , or The angle of the second sensor 120 may be changed. In some embodiments, the second sensor 120 may be created on the gimbal, and in this case, the unmanned aerial vehicle 100 may include the light source of the highest priority in the sensing area of the second sensor 120, the angle of the gimbal. can be adjusted to change the angle of the second sensor 120 .

다음으로, 무인 비행체(100)는 최우선 순위를 가지는 광원을 검증 대상 광원으로 선정하고 그 검증 대상 광원의 방향으로 이동한 후, 제2 센서(120)를 이용하여 상기 광원에 포함된 신호를 식별할 수 있다(S430). 일 실시예에서, 무인 비행체(100)는 광원의 위치와 방향을 식별하고, 이 광원의 위치와 방향에 기초하여 상기 광원의 위치로 이동할 수 있다. 몇몇 실시예에서, 무인 비행체(100)는 현재 무인 비행체(100)의 위치(예컨대, 위도, 경도 및 고도), 무인 비행체(100)와 상기 최우선 순위의 광원까지의 각도 및 광원까지의 거리를 기초로, 상기 광원의 위치와 방향을 식별할 수 있다. Next, the unmanned aerial vehicle 100 selects the light source having the highest priority as the verification target light source, moves in the direction of the verification target light source, and uses the second sensor 120 to identify the signal included in the light source. can be (S430). In one embodiment, the unmanned aerial vehicle 100 may identify the position and direction of the light source, and move to the position of the light source based on the position and direction of the light source. In some embodiments, the unmanned aerial vehicle 100 is based on the current location of the unmanned aerial vehicle 100 (eg, latitude, longitude and altitude), the angle between the unmanned aerial vehicle 100 and the highest priority light source, and the distance to the light source. Thus, the position and direction of the light source can be identified.

일 실시예에서, 무인 비행체(100)는 광원에 포함된 신호로서 상기 광원에 포함된 주파수 또는 파장을 식별할 수 있다. 몇몇 실시예에 따르면, 상기 광원에는 복수의 주파수가 포함될 수 있다. 즉, 광원 송출 장치(300-n)은 복수의 주파수를 포함하는 광원을 송출할 수 있되, 하나 이상의 주파수의 세기를 상이하게 할 수 있다. 이 경우, 무인 비행체(100)는 광원에 포함된 복수의 주파수와 그 세기를 식별하고, 이 중에서 가장 강한 세기의 주파수를 상기 광원에 포함된 신호로서 식별할 수 있다. In an embodiment, the unmanned aerial vehicle 100 may identify a frequency or wavelength included in the light source as a signal included in the light source. According to some embodiments, the light source may include a plurality of frequencies. That is, the light source transmitting apparatus 300 - n may transmit a light source including a plurality of frequencies, but may have different intensities of one or more frequencies. In this case, the unmanned aerial vehicle 100 may identify a plurality of frequencies and intensities included in the light source, and identify a frequency of the strongest intensity among them as a signal included in the light source.

이어서, 무인 비행체(100)는 제2 센서(120)를 이용하여 식별된 광원의 신호가 목표 신호와 일치하는지 여부를 판정할 수 있다(S440). 상기 목표 신호는 관제 서버(200)로부터 수신한 착륙 정보에 포함될 수 있다. 광원에서 주파수를 식별한 경우, 무인 비행체(100)는 식별된 주파수와 상기 목표 신호로서 설정된 주파수가 일치하는지 여부를 판정할 수 있다. Subsequently, the unmanned aerial vehicle 100 may determine whether the signal of the identified light source matches the target signal using the second sensor 120 ( S440 ). The target signal may be included in the landing information received from the control server 200 . When the frequency is identified from the light source, the unmanned aerial vehicle 100 may determine whether the identified frequency matches the frequency set as the target signal.

식별된 광원의 신호가 목표 신호와 일치한다는 판정에 응답하여, 무인 비행체(100)는 최우선 순위의 광원의 위치까지 이동할 수 있다(S450). 부연하면, 무인 비행체(100)는 최우선 순위의 광원의 방향으로 이동하면서 광원에 포함된 신호를 식별하고, 그 식별된 광원이 목표 신호와 일치하면 상기 광원의 위치를 목표 지점인 것으로 판정하여, 상기 광원의 위치까지 이동할 수 있다.In response to the determination that the signal of the identified light source matches the target signal, the unmanned aerial vehicle 100 may move to the position of the light source of the highest priority (S450). In other words, the unmanned aerial vehicle 100 identifies the signal included in the light source while moving in the direction of the light source of the highest priority, and when the identified light source matches the target signal, it is determined that the position of the light source is the target point, It can move to the position of the light source.

식별된 광원의 신호가 목표 신호와 일치하지 않는다는 판정에 응답하여, 무인 비행체(100)는 목표 후보군에 검증되지 않은 광원이 존재하는지 여부를 판정할 수 있다(S460). In response to the determination that the signal of the identified light source does not match the target signal, the unmanned aerial vehicle 100 may determine whether an unverified light source exists in the target candidate group ( S460 ).

목표 후보군에 검증되지 않은 광원이 존재하다는 단계 S460의 판정에 응답하여, 무인 비행체(100)는 목표 후보군에서 다음 번째의 우선순위를 가지는 광원을 검증 대상 광원으로 선정할 수 있다(S470). 이어서, 무인 비행체(100)는 그 검증 대상 광원의 신호 세기가 가장 강하게 수신할 수 있도록, 제2 센서의 각도를 조절하고, 더불어 그 검증 대상 광원의 방향으로 이동한 후, 검증 대상의 광원(즉, 다음 번째 우선순위를 가지는 광원)의 신호가 목표 신호와 일치하는지 여부를 판정할 수 있다. 몇몇 실시예에서, 무인 비행체(100)는 제2 센서(120)의 감지 영역에 다음 번째 순위의 광원이 포함될 수 있도록, 무인 비행체(100)의 자세를 변경하거나 무인 비행체(100)의 위치를 변경하거나 제2 센서(120)의 각도를 변경할 수 있다. 몇몇 실시예에서, 제2 센서(120)는 짐벌에 창작될 수 있으며, 이 경우 무인 비행체(100)는 제2 센서(120)의 감지 영역에 다음 번째 순위의 광원이 포함될 수 있도록, 상기 짐벌의 각도를 조절하여, 제2 센서(120)의 각도를 변경할 수 있다.In response to the determination in step S460 that an unverified light source exists in the target candidate group, the unmanned aerial vehicle 100 may select a light source having the next priority in the target candidate group as the verification target light source (S470). Then, the unmanned aerial vehicle 100 adjusts the angle of the second sensor so that the signal strength of the verification target light source can be received the strongest, and also moves in the direction of the verification target light source, and then the verification target light source (that is, , it may be determined whether the signal of the light source having the next priority) matches the target signal. In some embodiments, the unmanned aerial vehicle 100 changes the posture of the unmanned aerial vehicle 100 or changes the position of the unmanned aerial vehicle 100 so that the light source of the next rank may be included in the detection area of the second sensor 120 . Alternatively, the angle of the second sensor 120 may be changed. In some embodiments, the second sensor 120 may be created on the gimbal, and in this case, the unmanned aerial vehicle 100 may include the light source of the next order in the sensing area of the second sensor 120 . By adjusting the angle, the angle of the second sensor 120 may be changed.

목표 후보군에 검증되지 않은 광원이 존재하지 않는다는 단계 S460의 판정에 응답하여, 무인 비행체(100)는 현재의 위치에서, 제1 센서(110)를 이용하여 이미지를 다시 촬영하고, 그 촬영된 이미지에서 하나 이상의 광원을 식별한 후, 식별된 하나 이상의 광원을 포함하는 새로운 목표 후보군을 선정할 수 있다(S480). 즉, 무인 비행체(100)는 목표 후보군에 포함된 모든 광원의 신호의 목표 신호와 일치하지 않은 경우, 상이한 광원을 포함하는 새로운 목표 후보군을 다시 선정할 수 있다.In response to the determination in step S460 that there is no unverified light source in the target candidate group, the unmanned aerial vehicle 100 takes an image again using the first sensor 110 at the current position, and After one or more light sources are identified, a new target candidate group including the identified one or more light sources may be selected ( S480 ). That is, when the target signals of signals of all light sources included in the target candidate group do not match the target signals, the unmanned aerial vehicle 100 may select a new target candidate group including a different light source again.

도 13을 참조하여, 검증 대상이 되는 광원의 신호 세기가 최대치가 되도록, 제2 센서(120)의 각도를 조절하는 도 12의 단계 S420에 대해서 보다 자세하게 설명한다.Referring to FIG. 13 , step S420 of FIG. 12 in which the angle of the second sensor 120 is adjusted so that the signal strength of the light source to be verified becomes the maximum will be described in more detail.

도 13을 참조하면, 무인 비행체(100)는 제2 센서(120)의 각도를 최소 각도로 변경할 수 있다(S421). 여기서, 최소 각도는 제1 방향으로 최대한 회전된 각도일 수 있으면, 최대 각도는 제1 방향과 반대되는 제2 방향으로 최대한 회전된 각도일 수 있다. 일 실시예에서, 제2 센서(120)는 짐벌(gimbal)에 장착될 수 있고, 무인 비행체(100)는 상기 짐벌의 각도를 최소 각도로 변경하여, 제2 센서(120)의 각도를 최소 각도로 설정할 수 있다. Referring to FIG. 13 , the unmanned aerial vehicle 100 may change the angle of the second sensor 120 to a minimum angle ( S421 ). Here, the minimum angle may be an angle maximally rotated in the first direction, and the maximum angle may be an angle maximally rotated in a second direction opposite to the first direction. In one embodiment, the second sensor 120 may be mounted on a gimbal, and the unmanned aerial vehicle 100 changes the angle of the gimbal to the minimum angle, and the angle of the second sensor 120 is changed to the minimum angle. can be set to

이어서, 무인 비행체(100)는 제2 센서(120)가 최소 각도로 변경된 상태에서, 상기 제2 센서(120)를 이용하여 검증 대상이 되는 광원의 신호 세기를 측정할 수 있다(S422).Subsequently, the unmanned aerial vehicle 100 may measure the signal strength of the light source to be verified using the second sensor 120 in a state where the second sensor 120 is changed to the minimum angle (S422).

다음으로, 무인 비행체(100)는 현재 설정된 제2 센서(120)의 각도가 최대 각도인지 여부를 판정할 수 있다(S423).Next, the unmanned aerial vehicle 100 may determine whether the currently set angle of the second sensor 120 is the maximum angle (S423).

현재 설정된 제2 센서(120)의 각도가 최대 각도가 아니라는 판정에 응답하여, 무인 비행체(100)는 제2 센서(120)의 각도를 사전에 설정된 소정의 각도만큼 상승, 하강, 좌측 회전 또는 우측 회전시킬 수 있다(S424). 일 실시예에서, 무인 비행체(100)는 제2 센서(120)가 장착된 짐벌의 각도를 소정 각도로 변경할 수 있다. In response to determining that the currently set angle of the second sensor 120 is not the maximum angle, the unmanned aerial vehicle 100 raises, descends, rotates left or right by a preset angle of the second sensor 120 . It can be rotated (S424). In an embodiment, the unmanned aerial vehicle 100 may change the angle of the gimbal to which the second sensor 120 is mounted to a predetermined angle.

이어서, 무인 비행체(100)는 제2 센서(120)의 현재 각도에서, 검증 대상이 되는 광원의 신호 세기를 측정할 수 있다(S425).Subsequently, the unmanned aerial vehicle 100 may measure the signal strength of the light source to be verified at the current angle of the second sensor 120 ( S425 ).

단계 S421 내지 단계 S425를 통해서, 제2 센서(120)의 각도는 소정의 각도로 단계적으로 변경되고, 무인 비행체(100)는 각 각도에서 감지되는 광원의 신호 세기를 측정할 수 있다. 일 실시예에서, 무인 비행체(100)는 짐벌의 각도를 단계적으로 변경하여, 제2 센서(120)의 각도를 단계적으로 변경할 수 있다.Through steps S421 to S425, the angle of the second sensor 120 is gradually changed to a predetermined angle, and the unmanned aerial vehicle 100 may measure the signal strength of the light source detected at each angle. In an embodiment, the unmanned aerial vehicle 100 may change the angle of the gimbal in stages, thereby changing the angle of the second sensor 120 in stages.

한편, 현재 설정된 제2 센서(120)의 각도가 최대 각도인 경우(즉, 모든 각도에서 광원의 신호 세기 측정이 완료된 경우), 무인 비행체(100)는 단계적으로 변경된 각도들 중에서, 광원의 최대 신호 세기가 측정된 제2 센서(120)의 각도를 식별할 수 있다(S426). On the other hand, when the currently set angle of the second sensor 120 is the maximum angle (that is, when the signal intensity measurement of the light source at all angles is completed), the unmanned aerial vehicle 100 is the maximum signal of the light source among the angles changed in stages. The angle of the second sensor 120 whose intensity is measured may be identified (S426).

이어서, 무인 비행체(100)는 제2 센서(120)의 각도를, 식별된 각도(즉, 광원의 최대 신호 세기가 측정된 각도)로 설정할 수 있다(S427). 즉, 무인 비행체(100)는 광원의 최대 신호 세기가 측정된 각도를 가지도록, 제2 센서(120)의 각도를 변경할 수 있다. 이에 따라, 검증 대상 광원의 신호 세기를 최대한 측정할 수 있는 각도로 제2 센서(120)가 설정된 상태에서, 무인 비행체(100)는 검증 대상 광원의 방향으로 이동하면서, 검증 대상의 광원에 포함된 신호를 식별하고, 그 식별된 신호와 목표 신호가 일치하는지 여부를 판정할 수 있다.Subsequently, the unmanned aerial vehicle 100 may set the angle of the second sensor 120 to the identified angle (ie, the angle at which the maximum signal strength of the light source is measured) ( S427 ). That is, the unmanned aerial vehicle 100 may change the angle of the second sensor 120 to have the angle at which the maximum signal strength of the light source is measured. Accordingly, in the state where the second sensor 120 is set at an angle that can measure the maximum signal strength of the verification target light source, the unmanned aerial vehicle 100 moves in the direction of the verification target light source, A signal may be identified and it may be determined whether the identified signal matches the target signal.

본 실시예에 따르면, 제2 센서(120)의 각도를 검증 대상 광원의 신호를 최대 크기로 수신할 수 있도록 조정함으로써, 해당 광원에 포함된 신호를 보다 확실하게 식별할 수 있다. 또한, 본 실시예에 따르면, 광원의 반사, 회전 등과 같은 왜곡 현상에 보다 강인하게 대처할 수 있다. According to the present embodiment, by adjusting the angle of the second sensor 120 so that the signal of the light source to be verified can be received at the maximum level, it is possible to more reliably identify the signal included in the light source. In addition, according to the present embodiment, it is possible to more robustly cope with distortion phenomena such as reflection and rotation of the light source.

이하, 도 14를 참조하여, 목표 지점을 식별하여 이동하는 도 7의 단계 S400에 대한 다른 실시예에 대해서 설명한다. Hereinafter, with reference to FIG. 14 , another embodiment of step S400 of FIG. 7 for identifying and moving a target point will be described.

도 14를 참조한 설명에서, 도 12와 동일한 참조부호를 가지는 단계는 도 12을 설명한 해당 단계와 동일하므로, 이하에서는 상이한 참조부호를 가지는 단계에 대해서 설명한다.In the description with reference to FIG. 14, since the steps having the same reference numerals as those of FIG. 12 are the same as the corresponding steps described in FIG. 12, the steps having different reference numerals will be described below.

도 14를 참조하면, 식별된 광원의 신호가 목표 신호와 일치하지 않는다는 단계 S440의 판정에 응답하여, 무인 비행체(100)는 단계에서 S430에서 식별된 광원의 신호를 기초로, 목표 지점과의 상대적인 위치 정보를 획득할 수 있다(S491). 일 실시예에서, 상기 상대적인 위치 정보는 목표 신호와 식별된 신호 간의 상대적인 위치를 나타내는 위치 정보일 수 있다. 여기서 목표 신호의 위치는, 목표 신호를 포함하는 광원을 송출하는 광원 송출 장치의 위치일 수 있고, 식별된 신호의 위치는 현재 식별된 신호를 포함하는 광원을 송출하는 타 광원 송출 장치의 위치일 수 있다. 또한, 위치 정보에는, 식별된 신호의 위치를 기준으로 목표 신호를 바라보는 방위각 및 목표 신호의 위치와 식별된 신호의 위치 간의 거리가 포함될 수 있다. Referring to FIG. 14 , in response to the determination in step S440 that the signal of the identified light source does not match the target signal, the unmanned aerial vehicle 100 performs a relative relationship with the target point based on the signal of the light source identified in step S430 in step S440 . It is possible to obtain location information (S491). In an embodiment, the relative position information may be position information indicating a relative position between the target signal and the identified signal. Here, the position of the target signal may be a position of a light source transmitting device that transmits a light source including the target signal, and the position of the identified signal may be a position of another light source transmitting device that transmits a light source including the currently identified signal. have. Also, the location information may include an azimuth at which the target signal is viewed based on the location of the identified signal and a distance between the location of the target signal and the location of the identified signal.

일 실시예에서, 무인 비행체(100)는 상기 식별된 광원의 신호를 관제 서버(200)로 전송하고 이에 대한 응답으로, 관제 서버(200)로부터 상대적인 위치 정보를 수신할 수 있다. 이때, 관제 서버(200)는 목표 신호의 광원을 송출하는 광원 송출 기기(300-N)의 제2 위치와 식별된 신호의 광원을 송출하는 타 광원 송출 기기(300-N)의 제1 위치를 비교하여, 목표 신호에 대한 방위각과 목표 신호까지의 거리를 포함하는 위치 정보를 무인 비행체(100)로 전송할 수 있다. In an embodiment, the unmanned aerial vehicle 100 may transmit a signal of the identified light source to the control server 200 and receive relative position information from the control server 200 in response thereto. At this time, the control server 200 determines the second position of the light source transmitting device 300-N for transmitting the light source of the target signal and the first position of the other light source transmitting device 300-N for transmitting the identified light source of the signal. By comparison, location information including an azimuth with respect to the target signal and a distance to the target signal may be transmitted to the unmanned aerial vehicle 100 .

다른 실시예에서, 무인 비행체(100)는 광원별 신호와 광원별 위치 정보(즉, 광원 송출 장치의 위치 정보)를 포함하는 광원 목록을 저장할 수 있으며, 이 경우 무인 비행체(100)는 상기 식별된 신호와 대응하는 제1 위치 정보를 상기 광원 목록에서 식별하고, 상기 목표 신호와 대응되는 제2 위치 정보를 상기 광원 목록에 식별한 후, 제1 위치 정보와 제2 위치 정보를 비교하여 목표 신호에 대한 방위각과 목표 신호까지의 거리를 포함하는 위치 정보를 획득할 수 있다.In another embodiment, the unmanned aerial vehicle 100 may store a light source list including a signal for each light source and location information for each light source (ie, location information of the light source transmitting device), in this case, the unmanned aerial vehicle 100 is the identified After identifying the first position information corresponding to the signal in the light source list, and identifying the second position information corresponding to the target signal in the light source list, the first position information and the second position information are compared to the target signal. It is possible to obtain location information including the azimuth angle for the target signal and the distance to the target signal.

상대적인 위치 정보가 획득되면, 무인 비행체(100)는 상기 위치 정보를 기초로 이동하여 목표 광원을 식별할 수 있다(S492). 이때, 무인 비행체(100)는 위치 정보에 포함된 방위각 방향으로 목표 신호까지의 거리만큼 이동할 수 있다.When the relative position information is obtained, the unmanned aerial vehicle 100 may move based on the position information to identify the target light source (S492). In this case, the unmanned aerial vehicle 100 may move by the distance to the target signal in the azimuth direction included in the location information.

몇몇 실시예에서, 무인 비행체(100)는 목표 후보군을 선정하는 것을 생략할 수 있다. 이 경우, 무인 비행체(100)는 제1 센서(110)를 이용하여 식별된 광원들 중에서, 어느 하나의 광원의 방향으로 이동한 후, 그 광원의 신호가 목표 신호와 일치하는지 여부를 판정하여 일치하지 않은 경우, 상기 식별된 광원의 신호를 기초로 목표 신호와의 상대적인 위치를 나타내는 위치 정보를 획득할 수 있다. 이어서, 무인 비행체(100)는 상기 위치 정보를 기초로 이동하고, 이동된 위치에서의 식별된 광원으로부터 목표 신호를 식별할 수 있다.In some embodiments, the unmanned aerial vehicle 100 may omit selecting a target candidate group. In this case, the unmanned aerial vehicle 100 moves in the direction of any one light source among the light sources identified using the first sensor 110 , and determines whether the signal of the light source matches the target signal. If not, position information indicating a relative position with the target signal may be obtained based on the identified signal of the light source. Subsequently, the unmanned aerial vehicle 100 may move based on the location information, and may identify a target signal from the identified light source at the moved location.

도 15는 본 발명의 또 다른 실시예에 따른, 센싱 장치의 블록 구성도이다. 15 is a block diagram of a sensing device according to another embodiment of the present invention.

도 15에 도시된 바와 같이, 본 발명의 또 다른 실시예에 따른 센싱 장치(400)는 제1 센서(110), 제2 센서(120) 및 센싱 데이터 분석 모듈(430)을 포함할 수 있다. 15 , the sensing device 400 according to another embodiment of the present invention may include a first sensor 110 , a second sensor 120 , and a sensing data analysis module 430 .

제1 센서(110)는 이미지를 촬영할 수 있다. 일 실시예에서, 제1 센서(110)는 카메라일 수 있다.The first sensor 110 may capture an image. In one embodiment, the first sensor 110 may be a camera.

또한, 제2 센서(120)는 광원에 포함된 신호를 감지할 수 있다. 제2 센서(120)는 광원에 포함된 파장 또는 주파수를 상기 신호로서 감지할 수 있다. Also, the second sensor 120 may detect a signal included in the light source. The second sensor 120 may detect a wavelength or frequency included in the light source as the signal.

센싱 데이터 분석 모듈(430)은 제1 센서(110)에서 획득된 센싱 데이터와 제2 센서(120)에서 획득된 센싱 데이터를 분석하는 기능을 수행할 수 있다. 센싱 데이터 분석 모듈(430)은 센싱 데이터의 분석 결과에 기초하여 명령을 발생시키는 기능을 수행할 수 있다. 이러한 점에서 센싱 데이터 분석 모듈(430)은 센싱 장치(400)의 제어부로서 이해될 수 있다.The sensing data analysis module 430 may perform a function of analyzing the sensing data obtained from the first sensor 110 and the sensing data obtained from the second sensor 120 . The sensing data analysis module 430 may perform a function of generating a command based on an analysis result of the sensed data. In this regard, the sensing data analysis module 430 may be understood as a control unit of the sensing device 400 .

일 실시예에서, 센싱 데이터 분석 모듈(430)은 제1 센서(110)에서 촬영한 이미지를 분석하여 하나 이상의 광원을 이미지에서 식별하고, 제2 센서(120)를 이용하여 각 광원에 포함된 신호를 식별하고, 그 식별된 신호가 목표 신호와 일치하는 여부를 판정할 수 있다. 일 실시예에서, 센싱 데이터 분석 모듈(430)은 판정 결과에 따라 이동 명령을 발생시킬 수 있다. 여기서, 이동 명령은 무인 비행체(100)를 이동시키는 명령일 수 있으며, 또는 다른 이동체 예컨대, 무인 로봇, 무인 자동차 등을 이동시키기 위한 명령일 수 있다. 센싱 데이터 분석 모듈(430)은 식별된 신호가 목표 신호에 일치되면, 식별된 신호를 포함하는 광원의 위치로 이동체를 이동시키는 명령을 발생시킬 수 있다. In one embodiment, the sensing data analysis module 430 analyzes the image taken by the first sensor 110 to identify one or more light sources in the image, and a signal included in each light source using the second sensor 120 . can be identified, and it can be determined whether the identified signal matches the target signal. In an embodiment, the sensing data analysis module 430 may generate a movement command according to the determination result. Here, the movement command may be a command to move the unmanned aerial vehicle 100 , or may be a command to move another movable object, for example, an unmanned robot or an unmanned vehicle. When the identified signal matches the target signal, the sensing data analysis module 430 may generate a command to move the moving object to the position of the light source including the identified signal.

한편, 센싱 데이터 분석 모듈(430)은 식별된 신호가 목표 신호와 일치되지 않으면, 다른 광원의 포함된 신호를 식별하고, 그 식별된 신호와 목표 신호를 비교할 수 있다. Meanwhile, when the identified signal does not match the target signal, the sensing data analysis module 430 may identify a signal included in another light source and compare the identified signal with the target signal.

센싱 데이터 분석 모듈(430)은 도 8 내지 도 10에 따른 프로세스를 진행할 수 있다. 즉, 센싱 데이터 분석 모듈(430)은 제1 센서(110)를 이용하여 촬영한 이미지에서 식별된 광원들을 포함하는 목표 후보군을 생성하되, 광원의 밝기 또는 광원의 거리를 기초로 각 광원의 우선순위를 설정할 수 있다. The sensing data analysis module 430 may perform the process according to FIGS. 8 to 10 . That is, the sensing data analysis module 430 generates a target candidate group including the light sources identified in the image captured by using the first sensor 110 , and prioritizes each light source based on the brightness of the light source or the distance between the light sources. can be set.

게다가, 센싱 데이터 분석 모듈(430)은 도 12 또는 도 14에 따른 프로세스를 진행할 수 있다, 즉, 센싱 데이터 분석 모듈(430)은 검증 대상이 되는 광원의 방향으로 이동체가 이동하도록 하는 명령을 발생시키고, 검증 대상이 되는 광원의 신호가 목표 신호와 일치하면, 그 광원의 위치까지 이동체가 이동하도록 명령을 발생시킬 수 있다. 반면에, 센싱 데이터 분석 모듈(430)은 검증 대상이 되는 광원의 신호가 목표 신호와 일치하지 않으면, 다른 광원(예컨대, 다음 번째의 우선순위 광원)의 방향으로 이동체가 이동하도록 명령을 발생시킬 수 있다. 또 다른 실시예로서, 센싱 데이터 분석 모듈(430)은 검증 대상이 되는 광원의 신호가 목표 신호와 일치하지 않으면, 목표 신호와의 상대적인 위치를 나타내는 위치 정보를 획득하기 위한 명령을 발생시키고, 그 명령에 응답하여 위치 정보가 획득되면, 상기 위치 정보에 기초하여 이동체가 이동하도록 명령을 발생시킬 수 있다. In addition, the sensing data analysis module 430 may proceed with the process according to FIG. 12 or 14 , that is, the sensing data analysis module 430 generates a command to move the moving object in the direction of the light source to be verified, and , when the signal of the light source to be verified matches the target signal, it is possible to generate a command to move the moving object to the position of the light source. On the other hand, if the signal of the light source to be verified does not match the target signal, the sensing data analysis module 430 may generate a command to move the moving object in the direction of another light source (eg, the next priority light source). have. As another embodiment, the sensing data analysis module 430 generates a command for obtaining position information indicating a relative position with the target signal when the signal of the light source to be verified does not match the target signal, and the command When the location information is obtained in response to , a command to move the moving object may be generated based on the location information.

또한, 센싱 데이터 분석 모듈(430)은 도 13에 따른 프로세스를 진행할 수 있다. 즉, 센싱 데이터 분석 모듈(430)은 검증 대상이 되는 광원의 신호 세기가 최대치가 되도록, 제2 센서(120)의 각도를 조절할 수 있다. Also, the sensing data analysis module 430 may perform the process according to FIG. 13 . That is, the sensing data analysis module 430 may adjust the angle of the second sensor 120 so that the signal strength of the light source to be verified is the maximum.

제1 센서(110)와 제2 센서(120) 및 센싱 데이터 분석 모듈(430)은 타 이동체에 탑재될 수 있다. 예컨대, 센싱 데이터 분석 모듈(430)은 무인 로봇, 자율 주행 차량 등에 탑재될 수 있다. The first sensor 110 , the second sensor 120 , and the sensing data analysis module 430 may be mounted on another moving object. For example, the sensing data analysis module 430 may be mounted on an unmanned robot, an autonomous vehicle, or the like.

도 16는 본 발명의 또 다른 실시예에 따른, 무인 비행체의 블록 구성도이다. 16 is a block diagram of an unmanned aerial vehicle according to another embodiment of the present invention.

도 16에 도시된 바와 같이, 본 발명의 다른 실시예에 따른 무인 비행체(100)는 센싱부(180), 저장부(130), 무선통신부(140), 위성신호 수신기(150), 추력 발생부(160) 및 제어부(170)를 포함하여 구성될 수 있다. As shown in FIG. 16 , the unmanned aerial vehicle 100 according to another embodiment of the present invention has a sensing unit 180 , a storage unit 130 , a wireless communication unit 140 , a satellite signal receiver 150 , and a thrust generating unit. 160 and the control unit 170 may be included.

도 16에 따른 무인 비행체(100)은 도 15에 따른 센싱 장치(400)의 구성요소가 포함할 수 있다. 즉, 센싱 장치(400)에 포함된 제1 센서(110) 및 제2 센서(120)는 센싱부(180)에 포함되어 있으며, 센싱 데이터 분석 모듈(430)은 제어부(170)에 포함되어 있다. 상기 센싱 데이터 분석 모듈(430)은 소프트웨어 또는 하드웨어 형태로 제어부(170)에 탑재될 수 있으며, 또는 소프트웨어와 하드웨어의 조합을 통해서 제어부(170)에 탑재될 수 있다.The unmanned aerial vehicle 100 according to FIG. 16 may include components of the sensing device 400 according to FIG. 15 . That is, the first sensor 110 and the second sensor 120 included in the sensing device 400 are included in the sensing unit 180 , and the sensing data analysis module 430 is included in the control unit 170 . . The sensing data analysis module 430 may be mounted on the control unit 170 in the form of software or hardware, or may be mounted on the control unit 170 through a combination of software and hardware.

무선통신부(140)는 관제 서버(200), 타 서버 또는 타 통신 장치와 무선통신을 수행할 수 있다. 상기 무선통신부(140)는 관제 서버(200)로부터 착륙 정보를 수신할 수 있으며, 또는 목표 지점까지의 상대적인 위치를 나타내는 위치 정보를 수신할 수도 있다.The wireless communication unit 140 may perform wireless communication with the control server 200 , another server, or another communication device. The wireless communication unit 140 may receive landing information from the control server 200 or may receive location information indicating a relative position to a target point.

저장부(130)는 메모리 등과 같은 저장수단으로서, 무인 비행체(100)의 운행에 필요한 각종 데이터를 저장한다. 저장부(130)는 상술한 착륙 정보를 저장할 수 있다, 또한, 저장부(130)는 광원별 신호와 위치 정보를 포함하는 광원 목록을 저장할 수 있다.The storage unit 130 is a storage means such as a memory, and stores various data necessary for the operation of the unmanned aerial vehicle 100 . The storage unit 130 may store the above-described landing information, and the storage unit 130 may store a light source list including signals and location information for each light source.

센싱부(180)는 제1 센서(110)와 제2 센서(120)를 포함할 수 있다. 센싱부(180)는 가속도 센서 및 자이로 센서(도면에 도시되지 않음)를 더 포함할 수 있다. 센싱부(180)는 자이로 센서와 가속도 센서를 통하여 무인 비행체(100)의 요(yaw), 피치(pitch) 및 롤(roll)을 측정할 수 있다. 또한, 센싱부(180)는 기압계, 초음파 센서, 거리측정 센서 등과 같은 기타 센서(도면에 도시되지 않음)를 더 포함할 수도 있다. 센싱부(180)는 위성신호 수신기(150)에서 수신한 복수의 위성신호, 상기 기타 센서에서 측정된 센싱 데이터 중에서 하나 이상을 이용하여, 무인 비행체(100)의 현재 속도도 측정할 수 있다.The sensing unit 180 may include a first sensor 110 and a second sensor 120 . The sensing unit 180 may further include an acceleration sensor and a gyro sensor (not shown). The sensing unit 180 may measure yaw, pitch, and roll of the unmanned aerial vehicle 100 through the gyro sensor and the acceleration sensor. Also, the sensing unit 180 may further include other sensors (not shown in the drawings) such as a barometer, an ultrasonic sensor, and a distance measuring sensor. The sensing unit 180 may also measure the current speed of the unmanned aerial vehicle 100 by using one or more of a plurality of satellite signals received by the satellite signal receiver 150 and sensing data measured by the other sensors.

위성신호 수신기(150)는 GNSS(Global Navigation Satellite System) 기반의 위치 측정에 이용되는 다수의 인공위성 신호(일명, GPS 신호)를 수신할 수 있다.The satellite signal receiver 150 may receive a plurality of satellite signals (so-called GPS signals) used for location measurement based on a global navigation satellite system (GNSS).

추력 발생부(160)는 무인 비행체에 구비된 하나 이상의 프로펠러(111-n)를 구동시켜 무인 비행체(100)에 추력을 발생시킬 수 있다. 추력 발생부(160)는 제어부(170)로부터 전달받은 제어신호에 근거하여, 프로펠러(111-n)를 구동하거나 회전속도를 제어할 수 있다. 상기 추력 발생부(160)는 프로펠러 회전속도를 프로펠러별로 상이하게 제어할 수 있으며, 또한 프로펠러의 추진 방향을 제어하여 무인 비행체의 이동 방향을 제어할 수 있다. 몇몇 실시예에서, 추력 발생부(160)는 고정익기 형태의 추력 발생 수단을 포함할 수고, 고정익기에 양력을 발생시키는 양력 발생 수단을 더 포함할 수 있다. 이 경우, 추력 발생부(160)는 고정익기의 각도 또는 양력 크기 등을 조절하여 무인 비행체의 이동 방향을 제어할 수 있다. The thrust generating unit 160 may generate thrust in the unmanned aerial vehicle 100 by driving one or more propellers 111 - n provided in the unmanned aerial vehicle. The thrust generating unit 160 may drive the propeller 111-n or control the rotational speed based on the control signal received from the control unit 170 . The thrust generating unit 160 may control the propeller rotation speed differently for each propeller, and may also control the propelling direction of the propeller to control the moving direction of the unmanned aerial vehicle. In some embodiments, the thrust generating unit 160 may include a thrust generating means in the form of a fixed wing aircraft, and may further include a lift generating means for generating lift in the fixed wing aircraft. In this case, the thrust generating unit 160 may control the moving direction of the unmanned aerial vehicle by adjusting the angle or the amount of lift of the fixed wing aircraft.

제어부(170)는 마이크로프로세서와 같은 제어 수단으로서, 무인 비행체(100)에 포함된 각종 구성요소들을 제어할 수 있다. 일 실시예에서, 제어부(170)는 센싱 데이터 분석 모듈(430)을 포함할 수 있다. 제어부(170)는 센싱 데이터 분석 모듈(430)을 이용하여, 도 9 내지 도 14를 참조하여 설명한 방법을 수행할 수 있다. The controller 170 is a control means such as a microprocessor, and may control various components included in the unmanned aerial vehicle 100 . In an embodiment, the controller 170 may include a sensing data analysis module 430 . The controller 170 may use the sensing data analysis module 430 to perform the method described with reference to FIGS. 9 to 14 .

또한, 제어부(170)는 센싱부(180)를 통해서 무인 비행체의 롤, 요 및 피치가 포함된 자세 정보를 계속적으로 획득할 수 있다. 제어부(170)는 센싱부(180)를 통해서 무인 비행체의 자세를 식별하고, 무인 비행체의 자세가 안정적으로 유지될 수 있도록, 추력 발생부(160)를 제어할 수 있다. 또한, 제어부(170)는 의도하는 방향 또는 장소로 이동할 수 있도록, 추력 발생부(160)를 제어할 수 있다. Also, the controller 170 may continuously acquire posture information including the roll, yaw, and pitch of the unmanned aerial vehicle through the sensing unit 180 . The controller 170 may identify the posture of the unmanned aerial vehicle through the sensing unit 180 and control the thrust generating unit 160 so that the posture of the unmanned aerial vehicle may be stably maintained. In addition, the control unit 170 may control the thrust generating unit 160 to move in an intended direction or place.

일 실시예에서, 제어부(170)는 제1 센서(110)를 이용하여 목표 지점 주변의 이미지를 촬영하고 촬영된 이미지에서 하나 이상의 광원을 식별하고, 제2 센서(120)를 이용하여 상기 식별된 광원에 포함된 신호를 식별하고, 상기 식별된 신호가 목표 지점을 가리키는 목표 신호인지 여부를 판정하고, 상기 식별된 신호가 상기 목표 신호인 것에 응답하여, 추력 발생부(160)를 제어하여 상기 광원의 위치로 상기 무인 비행체(100)를 이동시킬 수 있다. In one embodiment, the controller 170 captures an image around the target point using the first sensor 110 , identifies one or more light sources in the captured image, and uses the second sensor 120 to identify the identified Identifies a signal included in the light source, determines whether the identified signal is a target signal pointing to a target point, and controls the thrust generator 160 in response to the identified signal being the target signal to control the light source It is possible to move the unmanned aerial vehicle 100 to a position of

지금까지 도 1 내지 도 16을 참조하여 본 발명의 다양한 실시예들 및 그 실시예들에 따른 효과들을 언급하였다. 본 발명의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.So far, various embodiments of the present invention and effects according to the embodiments have been described with reference to FIGS. 1 to 16 . Effects according to the technical spirit of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

지금까지 도 1 내지 도 16을 참조하여 설명된 본 발명의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The technical idea of the present invention described with reference to FIGS. 1 to 16 may be implemented as computer-readable codes on a computer-readable medium. The computer-readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disk, USB storage device, removable hard disk) or a fixed recording medium (ROM, RAM, computer-equipped hard disk). can The computer program recorded in the computer-readable recording medium may be transmitted to another computing device through a network such as the Internet and installed in the other computing device, thereby being used in the other computing device.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명의 기술적 사상이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.In the above, even though all the components constituting the embodiment of the present invention are described as being combined or operating in combination, the technical spirit of the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all of the components may operate by selectively combining one or more.

도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although acts are shown in a particular order in the drawings, it should not be understood that the acts must be performed in the specific order or sequential order shown, or that all depicted acts must be performed to obtain a desired result. In certain circumstances, multitasking and parallel processing may be advantageous. Moreover, the separation of the various components in the embodiments described above should not be construed as necessarily requiring such separation, and the program components and systems described may generally be integrated together into a single software product or packaged into multiple software products. It should be understood that there is

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 발명이 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although embodiments of the present invention have been described above with reference to the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can practice the present invention in other specific forms without changing the technical spirit or essential features. can understand that there is Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent range should be interpreted as being included in the scope of the technical ideas defined by the present invention.

Claims (20)

무인 비행체에 의해 수행되는 이동 방법에 있어서,
제1 센서를 이용하여 목표 지점 주변의 이미지를 촬영하는 단계;
상기 촬영된 이미지에서 하나 이상의 광원을 식별하는 단계;
제2 센서를 이용하여 상기 식별된 광원에 포함된 신호를 식별하는 단계;
상기 식별된 신호가 목표 지점을 가리키는 목표 신호인지 여부를 판정하는 단계; 및
상기 식별된 신호가 상기 목표 신호인 것에 응답하여, 상기 무인 비행체가 상기 광원의 위치로 이동하는 단계를 포함하되,
상기 하나 이상의 광원을 식별하는 단계는,
상기 하나 이상의 광원을 포함하는 목표 후보군을 생성하는 단계; 및
상기 목표 후보군에 포함된 각 광원의 우선순위를 설정하는 단계를 포함하고,
상기 신호를 식별하는 단계는,
상기 설정된 우선순위에 기초하여, 상기 목표 후보군에 포함된 각 광원의 신호를 순차적으로 식별하는 단계를 포함하는,
이동 방법
In the moving method performed by the unmanned aerial vehicle,
photographing an image around a target point using a first sensor;
identifying one or more light sources in the photographed image;
identifying a signal included in the identified light source using a second sensor;
determining whether the identified signal is a target signal pointing to a target point; and
In response to the identified signal being the target signal, comprising the step of moving the unmanned aerial vehicle to the position of the light source,
The step of identifying the one or more light sources comprises:
generating a target candidate group including the one or more light sources; and
setting the priority of each light source included in the target candidate group,
The step of identifying the signal comprises:
Based on the set priority, comprising the step of sequentially identifying the signal of each light source included in the target candidate group,
How to move
제1항에 있어서,
상기 신호를 식별하는 단계는,
상기 제2 센서의 감지 영역에 상기 광원이 포함될 수 있도록, 상기 무인 비행체의 자세를 변경하거나 상기 무인 비행체의 위치를 변경하거나 상기 제2 센서의 각도를 변경하는 단계를 포함하는,
이동 방법.
According to claim 1,
The step of identifying the signal comprises:
Changing the posture of the unmanned aerial vehicle, changing the position of the unmanned aerial vehicle, or changing the angle of the second sensor so that the light source may be included in the detection area of the second sensor,
How to move.
제1항에 있어서,
상기 신호를 식별하는 단계는,
상기 제2 센서의 각도를 변경하여 각도별 상기 광원의 신호 세기를 측정하는 단계; 및
상기 측정된 각도별 신호 세기에 기초하여, 상기 광원의 신호 세기가 최대로 측정되는 각도로 상기 제2 센서의 각도를 설정하는 단계를 포함하는,
이동 방법.
According to claim 1,
The step of identifying the signal comprises:
measuring the signal strength of the light source for each angle by changing the angle of the second sensor; and
Based on the measured signal strength for each angle, comprising the step of setting the angle of the second sensor to the angle at which the signal strength of the light source is measured to the maximum,
How to move.
제3항에 있어서,
상기 제2 센서는 짐벌(gimbal)에 장착되고,
상기 광원의 신호 세기를 측정하는 단계는,
상기 짐벌의 각도를 단계적으로 변경하여, 상기 각도별 상기 광원의 신호 세기를 측정하는 단계를 포함하는,
이동 방법.
4. The method of claim 3,
The second sensor is mounted on a gimbal,
Measuring the signal strength of the light source comprises:
By changing the angle of the gimbal step by step, comprising the step of measuring the signal strength of the light source for each angle,
How to move.
삭제delete 제1항에 있어서,
상기 우선순위를 설정하는 단계는,
상기 촬영된 이미지에서 각 광원의 밝기 값을 식별하는 단계; 및
상기 밝기 값이 높은 순으로 상기 각 광원의 우선순위를 설정하는 단계를 포함하는,
이동 방법.
According to claim 1,
The step of setting the priority is,
identifying a brightness value of each light source in the photographed image; and
Comprising the step of setting the priority of each light source in the order of the brightness value,
How to move.
제1항에 있어서,
상기 우선순위를 설정하는 단계는,
상기 제2 센서의 감지 영역에 대한 중심 좌표를 식별하는 단계;
상기 촬영된 이미지에서 각 광원의 좌표를 식별하는 단계; 및
상기 중심 좌표와 각 광원의 좌표 간의 거리를 계산하고, 거리가 가까운 순으로 상기 각 광원의 우선순위를 설정하는 단계를 포함하는,
이동 방법.
The method of claim 1,
The step of setting the priority is,
identifying center coordinates for the sensing area of the second sensor;
identifying coordinates of each light source in the photographed image; and
Calculating the distance between the center coordinates and the coordinates of each light source, and setting the priority of each light source in the order of the closest distance,
How to move.
제1항에 있어서,
상기 목표 후보군에 포함된 각 광원의 신호를 순차적으로 식별하는 단계는,
제1 우선순위에 가지는 광원의 신호를 식별하는 단계; 및
상기 식별된 광원의 신호가 상기 목표 신호가 아니라는 판정에 응답하여, 다음 번째의 우선순위를 가지는 광원의 신호를 식별하는 단계를 포함하는,
이동 방법.
According to claim 1,
The step of sequentially identifying the signals of each light source included in the target candidate group,
identifying a signal of a light source having a first priority; and
in response to determining that the identified light source's signal is not the target signal, identifying the light source's signal having a next priority;
How to move.
제1항에 있어서,
상기 식별된 신호가 상기 목표 신호가 아니라는 판정에 응답하여, 상기 식별된 신호와 상기 목표 신호 간의 상대적인 위치를 나타내는 위치 정보를 획득하는 단계;
상기 획득된 위치 정보에 기초하여, 상기 무인 비행체가 이동하는 단계; 및
상기 이동된 위치에서 상기 제2 센서를 이용하여, 상기 목표 신호를 식별하는 단계를 더 포함하는,
이동 방법.
According to claim 1,
in response to determining that the identified signal is not the target signal, obtaining position information indicative of a relative position between the identified signal and the target signal;
moving the unmanned aerial vehicle based on the obtained location information; and
Using the second sensor at the moved position, further comprising the step of identifying the target signal,
How to move.
제9항에 있어서,
상기 위치 정보를 획득하는 단계는,
상기 식별된 신호를 관제 서버로 전송하고, 상기 식별된 신호와 상기 목표 신호 간의 상대적인 위치를 나타내는 위치 정보를 상기 관제 서버로부터 수신하는 단계를 포함하는,
이동 방법.
10. The method of claim 9,
The step of obtaining the location information includes:
Transmitting the identified signal to a control server, and receiving position information indicating a relative position between the identified signal and the target signal from the control server,
How to move.
제9항에 있어서,
광원별 신호와 위치 정보를 포함하는 광원 목록을 저장하는 단계를 더 포함하고,
상기 상대적인 위치 정보를 획득하는 단계는,
상기 식별된 신호와 대응하는 제1 위치 정보를 상기 광원 목록에서 식별하는 단계; 및
상기 목표 신호와 대응되는 제2 위치 정보를 상기 광원 목록에 식별하고, 제1 위치 정보와 제2 위치 정보를 이용하여 상기 상대적인 위치를 나타내는 위치 정보를 획득하는 단계를 포함하는,
이동 방법.
10. The method of claim 9,
Further comprising the step of storing a light source list including the signal and location information for each light source,
The step of obtaining the relative location information includes:
identifying first location information corresponding to the identified signal from the light source list; and
Identifying second position information corresponding to the target signal in the light source list, and obtaining position information indicating the relative position by using the first position information and the second position information,
How to move.
제9항에 있어서,
상기 상대적인 위치 정보는
상기 목표 지점까지의 거리와 상기 목표 지점에 대한 방위각을 포함하는,
이동 방법.
10. The method of claim 9,
The relative location information is
including a distance to the target point and an azimuth to the target point,
How to move.
제1항에 있어서,
상기 신호를 식별하는 단계는,
상기 광원에 포함된 주파수 또는 파장을 상기 광원의 신호로서 식별하는 단계를 포함하는,
이동 방법.
According to claim 1,
The step of identifying the signal comprises:
identifying a frequency or wavelength contained in the light source as a signal of the light source;
How to move.
제1항에 있어서,
상기 신호를 식별하는 단계는,
상기 광원에 포함된 주파수들 중에서 가장 강한 세기의 주파수를 식별하는 단계를 포함하고,
상기 목표 신호인지 여부를 판정하는 단계는,
상기 목표 신호와 대응하는 주파수와 상기 식별된 주파수가 일치하는지를 판정하는 단계를 포함하는,
이동 방법.
According to claim 1,
The step of identifying the signal comprises:
Including the step of identifying the frequency of the strongest intensity among the frequencies included in the light source,
The step of determining whether the target signal is
determining whether a frequency corresponding to the target signal matches the identified frequency;
How to move.
제1항에 있어서,
각 광원은 서로 상이한 착륙 영역에서 발생되고 서로 상이한 신호를 포함하는 것인,
이동 방법.
According to claim 1,
each light source is generated at a different landing area and contains a different signal.
How to move.
제1항에 있어서,
상기 제1 센서는 카메라이고,
상기 제2 센서는 적외선 신호 감지 센서인 것인,
이동 방법.
According to claim 1,
The first sensor is a camera,
The second sensor is an infrared signal detection sensor,
How to move.
추력을 발생시켜 공중에서 무인 비행체를 이동시키는 추력 발생부;
제1 센서와 제2 센서를 포함하는 센싱부; 및
제어부를 포함하고,
상기 제어부는,
상기 제1 센서를 이용하여 목표 지점 주변의 이미지를 촬영하고,
상기 촬영된 이미지에서 하나 이상의 광원을 식별하고, 제2 센서를 이용하여 상기 식별된 광원에 포함된 신호를 식별하고,
상기 식별된 신호가 목표 지점을 가리키는 목표 신호인지 여부를 판정하고,
상기 식별된 신호가 상기 목표 신호인 것에 응답하여, 상기 추력 발생부를 제어하여 상기 광원의 위치로 상기 무인 비행체를 이동시키는,
무인 비행체.
a thrust generating unit for generating thrust to move the unmanned aerial vehicle in the air;
a sensing unit including a first sensor and a second sensor; and
including a control unit;
The control unit is
Taking an image around the target point using the first sensor,
identifying one or more light sources in the photographed image, and using a second sensor to identify signals included in the identified light sources,
determining whether the identified signal is a target signal pointing to a target point;
In response to the identified signal being the target signal, controlling the thrust generating unit to move the unmanned aerial vehicle to the position of the light source,
unmanned aerial vehicle.
목표 지점 주변의 이미지를 촬영하는 제1 센서;
광원에 포함된 신호를 식별하는 제2 센서; 및
상기 제1 센서에서 촬영된 이미지에서 하나 이상의 광원을 식별하고, 제2 센서를 이용하여 상기 식별된 광원에 포함된 신호를 식별하고, 상기 식별된 신호가 목표 지점을 가리키는 목표 신호인지 여부를 판정하는 제어부를 포함하는,
센싱 장치.
a first sensor for capturing an image around the target point;
a second sensor for identifying a signal included in the light source; and
identifying one or more light sources in the image taken by the first sensor, identifying a signal included in the identified light source using a second sensor, and determining whether the identified signal is a target signal pointing to a target point comprising a control unit,
sensing device.
제18항에 있어서,
상기 제어부는,
상기 식별된 신호가 상기 목표 신호인 것에 응답하여, 이동체를 상기 목표 지점으로 이동시키기 위한 명령을 발생시키는,
센싱 장치.
19. The method of claim 18,
The control unit is
in response to the identified signal being the target signal, generating a command to move the moving object to the target point;
sensing device.
제18항에 있어서,
상기 제어부는,
상기 제2 센서의 각도를 변경하여 각도별 상기 광원의 신호 세기를 측정하고, 상기 측정된 각도별 신호 세기에 기초하여, 상기 광원의 신호 세기가 최대로 측정되는 각도로 상기 제2 센서의 각도를 설정하는,
센싱 장치.
19. The method of claim 18,
The control unit is
The angle of the second sensor is measured by changing the angle of the second sensor to measure the signal strength of the light source for each angle, and based on the measured signal strength for each angle, the angle of the second sensor is the angle at which the signal strength of the light source is measured to the maximum. to set,
sensing device.
KR1020210160900A 2021-11-22 2021-11-22 Moving method in unmanned aerial vehicle and the unmanned aerial vehicle KR102447601B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210160900A KR102447601B1 (en) 2021-11-22 2021-11-22 Moving method in unmanned aerial vehicle and the unmanned aerial vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210160900A KR102447601B1 (en) 2021-11-22 2021-11-22 Moving method in unmanned aerial vehicle and the unmanned aerial vehicle

Publications (1)

Publication Number Publication Date
KR102447601B1 true KR102447601B1 (en) 2022-09-27

Family

ID=83452304

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210160900A KR102447601B1 (en) 2021-11-22 2021-11-22 Moving method in unmanned aerial vehicle and the unmanned aerial vehicle

Country Status (1)

Country Link
KR (1) KR102447601B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190139169A (en) * 2019-11-26 2019-12-17 엘지전자 주식회사 Unmanned aerial vehicle and Station
KR20210048027A (en) * 2019-10-22 2021-05-03 엘지전자 주식회사 Positioning method using unmanned aerial robot and device for supporting same in unmanned aerial system
KR20210081580A (en) 2019-12-24 2021-07-02 장백산 Drone apparatus for landing at drone station and method therefor
KR20210088142A (en) * 2020-01-06 2021-07-14 세종대학교산학협력단 System for detecting and tracking target of unmanned aerial vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210048027A (en) * 2019-10-22 2021-05-03 엘지전자 주식회사 Positioning method using unmanned aerial robot and device for supporting same in unmanned aerial system
KR20190139169A (en) * 2019-11-26 2019-12-17 엘지전자 주식회사 Unmanned aerial vehicle and Station
KR20210081580A (en) 2019-12-24 2021-07-02 장백산 Drone apparatus for landing at drone station and method therefor
KR20210088142A (en) * 2020-01-06 2021-07-14 세종대학교산학협력단 System for detecting and tracking target of unmanned aerial vehicle

Similar Documents

Publication Publication Date Title
US20210064024A1 (en) Scanning environments and tracking unmanned aerial vehicles
US8554395B2 (en) Method and system for facilitating autonomous landing of aerial vehicles on a surface
US10414494B2 (en) Systems and methods for reliable relative navigation and autonomous following between unmanned aerial vehicle and a target object
EP3387397B1 (en) Airborne inspection systems comprising infrared camera
US8457813B2 (en) Measuring of a landing platform of a ship
JP3345113B2 (en) Target object recognition method and target identification method
JP7025156B2 (en) Data processing equipment, data processing method and data processing program
WO2017116841A1 (en) Unmanned aerial vehicle inspection system
US11490005B2 (en) Overhead line image capturing system and overhead line image capturing method
KR102263307B1 (en) System and method for controlling cluster flight of unmanned aerial vehicle
JP7141538B2 (en) A method for forest measurement, a forest measurement system, a method for determining a flight path of an unmanned aerial vehicle, a photographing method, a spraying method, and a computer program
EP3868652B1 (en) Information processing system, information processing method, and program
US20220153413A1 (en) Flight Control System For Unmanned Aerial Vehicle And Topography Measuring System
JP2018119852A (en) Position specification device, position specification method, position specification system, program for position specification, unmanned aircraft, and target for identifying unmanned aircraft
WO2017138049A1 (en) Flying body and control system therefor
JP6934367B2 (en) Positioning device, position measuring method and position measuring program
KR102447601B1 (en) Moving method in unmanned aerial vehicle and the unmanned aerial vehicle
KR102333350B1 (en) Vertical takeoff and landing system of UAV and its operation method
JP7254934B2 (en) Method for making forest measurements, forest measurement system and computer program
CN110515086A (en) A kind of naval target search simulation system and method applied to unmanned boat
RU2722599C1 (en) Method for correcting strapdown inertial navigation system of unmanned aerial vehicle of short range using intelligent system of geospatial information
KR102237342B1 (en) Apparatus and method for generating flight plan information
WO2023170940A1 (en) Control device, flying object, measurement system, control method, flying object control method, and storage medium
JP2022079851A (en) Under bridge inspection system
KR20230105412A (en) Method for precision landing of drone and device thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant