KR20230016730A - An automatic landing system to guide the drone to land precisely at the landing site - Google Patents

An automatic landing system to guide the drone to land precisely at the landing site Download PDF

Info

Publication number
KR20230016730A
KR20230016730A KR1020210097617A KR20210097617A KR20230016730A KR 20230016730 A KR20230016730 A KR 20230016730A KR 1020210097617 A KR1020210097617 A KR 1020210097617A KR 20210097617 A KR20210097617 A KR 20210097617A KR 20230016730 A KR20230016730 A KR 20230016730A
Authority
KR
South Korea
Prior art keywords
drone
landing
marker
camera
land
Prior art date
Application number
KR1020210097617A
Other languages
Korean (ko)
Other versions
KR102585428B1 (en
Inventor
신수용
강호현
이만희
Original Assignee
주식회사 제이슨랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제이슨랩 filed Critical 주식회사 제이슨랩
Priority to KR1020210097617A priority Critical patent/KR102585428B1/en
Publication of KR20230016730A publication Critical patent/KR20230016730A/en
Application granted granted Critical
Publication of KR102585428B1 publication Critical patent/KR102585428B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F1/00Ground or aircraft-carrier-deck installations
    • B64F1/18Visual or acoustic landing aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/04Control of altitude or depth
    • G05D1/06Rate of change of altitude or depth
    • G05D1/0607Rate of change of altitude or depth specially adapted for aircraft
    • G05D1/0653Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
    • G05D1/0676Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C25/00Alighting gear
    • B64C25/32Alighting gear characterised by elements which contact the ground or similar surface 
    • B64C2025/325Alighting gear characterised by elements which contact the ground or similar surface  specially adapted for helicopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The present invention relates to an automatic landing system for guiding a drone to land precisely at a landing point, which comprises: a drone which is formed to autonomously fly along a route and is formed to shoot surrounding images through a camera; and a landing pad including a marker formed at designated coordinates for the drone to land and providing position, attitude, and direction information through the camera so that the drone can land.

Description

착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템{An automatic landing system to guide the drone to land precisely at the landing site}An automatic landing system to guide the drone to land precisely at the landing site}

본 발명은 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템에 관한 것으로서, 더욱 상세하게는 지정된 경로를 따라 비행하는 드론이 착륙 위치에 도달하면 착륙 지점을 정밀하게 인식하여 오차범위를 감소시킬 수 있는 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템에 관한 것이다.The present invention relates to an automatic landing system for inducing a drone to land precisely at a landing point, and more particularly, when a drone flying along a designated path arrives at a landing location, the landing point is precisely recognized and the error range is reduced. It relates to an automatic landing system that guides a drone to precisely land at a landing point that can be reduced.

최근 기술 발달에 따라 자율주행이 가능한 드론이 개발됨에 따라 지정된 경로로 비행하며 경로 상의 화재, 사건, 사고를 감시하거나 각종 물건을 이송하는 무인 택배기능이 구현되도록 기술이 발전되고 있다.As drones capable of self-driving have been developed according to recent technological developments, technology is being developed to implement an unmanned delivery function that flies along a designated route and monitors fires, incidents, accidents, or transports various items on the route.

드론이 지정된 경로를 따라 자율주행하게 되면 경로상의 영상을 관제실에서 모니터링 할 수 있도록 카메라로 촬영하게 되는데, 카메라로 촬영된 영상을 저장하고 이를 무선으로 전송하기 위해 많은 전력소모가 발생되게 된다.When a drone autonomously drives along a designated route, the video on the route is captured with a camera so that the control room can monitor it. However, a lot of power is consumed to store the video captured by the camera and transmit it wirelessly.

또한 드론이 비행하면서 발생되는 동력부의 전력소모도 함께 발생되므로 배터리 소모가 설정된 값에 도달되기 전에 드론을 회수하거나 충전할 수 있도록 착륙지점으로 이동된 후 자동 착륙하게 된다.In addition, since the power consumption of the power unit generated while the drone is flying is also generated, the drone is automatically landed after being moved to the landing point so that the drone can be retrieved or charged before the battery consumption reaches the set value.

이때 자율주행 드론은 지정된 경로 및 착륙위치에 대한 좌표를 인식할 수 있도록 GPS가 탑재되어 있고, 카메라를 통해 착륙지점에 형성된 마커를 촬영하고 인식하여 착륙하게 된다.At this time, the self-driving drone is equipped with a GPS so that it can recognize the coordinates of the designated route and landing location, and lands after photographing and recognizing the marker formed at the landing point through the camera.

그러나 착륙지점에 형성된 마커는 외부 환경에 노출되어 있기 때문에 자외선에 의한 화학적 손상이나 충격에 의한 물리적인 손상이 발생될 수 있어 드론이 이러한 마커를 제대로 인식하지 못한다는 문제점이 있었다.However, since the markers formed at the landing site are exposed to the external environment, chemical damage due to ultraviolet rays or physical damage due to impact may occur, so there is a problem that the drone does not properly recognize these markers.

또한 마커를 인식한 후 마커를 향해 드론이 하강하여 착륙하게 되는데 카메라의 촬영 각도에 따라 마커로부터 이격된 위치에 드론이 착륙하여 착륙지점이 아닌 장소에 착륙하게 되는 문제점이 있었다.In addition, after recognizing the marker, the drone descends and lands toward the marker, but there is a problem that the drone lands at a location away from the marker depending on the shooting angle of the camera and lands at a place other than the landing point.

또한 착륙을 위해 마커를 인식할 때 착륙 지점만 인식이 가능하므로 마커와 드론 사이의 거리나 드론이 착륙할 때 취하는 자세를 추종할 수 없어 드론이 착륙 중 불안정한 자세에서 착륙하면서 랜딩기어가 파손되는 문제점이 있었다.In addition, when recognizing a marker for landing, only the landing point can be recognized, so the distance between the marker and the drone or the attitude the drone takes when landing cannot be followed, so the landing gear is damaged while the drone lands in an unstable posture during landing. there was

한국 등록특허 제10-1617411호Korean Patent Registration No. 10-1617411

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 드론이 착륙할 때 마커를 순차적으로 인식하여 착륙지점에 설정된 자세로 정확하게 착륙할 수 있는 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템을 제공하는 것이다.An object of the present invention to solve the above problems is to recognize the markers sequentially when the drone lands and automatically lands the drone to precisely land at the landing site where it can accurately land in the attitude set at the landing site. to provide the system.

또한 본 발명의 다른 목적은 드론이 착륙할 때 마커를 통해 드론이 착륙하는 자세를 추종하고 착륙 자세 및 방향을 제어하여 안정적으로 착륙할 수 있는 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템을 제공하는 것이다.Another object of the present invention is to follow the landing posture of the drone through a marker when the drone lands and to control the landing posture and direction so that the drone can accurately land at a landing point where it can land stably. to provide a landing system.

또한 본 발명의 다른 목적은 드론의 착륙지점에 근처에 도달하면 마커가 있는 위치로 드론을 유도하여 드론이 마커를 인식할 수 있도록 하는 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템을 제공하는 것이다.Another object of the present invention is an automatic landing system that guides the drone to a location with a marker when it arrives near the landing point of the drone so that the drone can precisely land at the landing point so that the drone can recognize the marker. is to provide

상기 과제를 해결하기 위한 본 발명의 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템은 경로를 따라 자율비행을 할 수 있도록 형성되며 카메라를 통해 주변 영상을 촬영할 수 있도록 형성되는 드론과, 상기 드론이 착륙할 수 있도록 지정된 좌표에 형성되며 상기 카메라를 통해 상기 드론이 착륙할 수 있도록 위치, 자세, 방향 정보를 제공하는 마커가 포함된 착륙패드를 포함하는 것을 특징으로 한다.The automatic landing system for inducing the drone to land precisely at the landing point of the present invention for solving the above problems is formed to autonomously fly along the route and is formed to capture surrounding images through a camera. , It is formed at coordinates designated for the drone to land and includes a landing pad including a marker providing position, attitude, and direction information so that the drone can land through the camera.

또한 본 발명의 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 상기 드론은 상기 카메라를 통해 촬영된 상기 마커 이미지를 딥러닝 방식으로 영상처리하여 상기 마커를 인식하는 제어부를 더 포함하며, 상기 제어부는 상기 마커를 인식할 때 딥러닝 방식을 통해 주변 사물이나 장애물에 의해 상기 마커 중 일부만 인식되더라도 미인식된 부분을 추정하여 상기 마커를 인식 수 있는 것을 특징으로 한다.In addition, the drone of the automatic landing system for inducing the drone to precisely land at the landing point of the present invention further includes a control unit that recognizes the marker by processing the marker image captured by the camera using a deep learning method. When recognizing the markers, the control unit can recognize the markers by estimating unrecognized portions even if only some of the markers are recognized by surrounding objects or obstacles through a deep learning method.

또한 본 발명의 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 상기 드론의 하부에 형성되어 상기 카메라를 지지할 수 있도록 형성되고 상기 카메라를 회전시켜 촬영각도를 제어하는 지지대를 더 포함하며, 상기 카메라는 상기 지지대를 통해 설정된 각도로 회전되면서 상기 마커를 인식할 수 있는 것을 특징으로 한다.In addition, a support is formed at the lower part of the drone of the automatic landing system for inducing the drone to precisely land at the landing point of the present invention to support the camera and controls the shooting angle by rotating the camera. And, the camera is characterized in that it can recognize the marker while being rotated at a set angle through the support.

또한 본 발명의 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 상기 착륙패드는 상기 드론이 원거리에서 인식할 수 있도록 형성되며 착륙지점으로 유도하도록 위치정보를 제공하는 제1마커와, 상기 제1마커의 중앙에 형성되어 상기 드론이 착륙할 때 상기 드론의 방향 및 자세를 추정할 수 있도록 3차원 기준 좌표를 제공하는 제2마커로 이루어지는 것을 특징으로 한다.In addition, the landing pad of the automatic landing system for guiding the drone to precisely land at the landing site of the present invention is formed so that the drone can be recognized from a distance and includes a first marker that provides location information to guide the drone to the landing site. , It is characterized in that it consists of a second marker formed at the center of the first marker to provide three-dimensional reference coordinates so that the direction and posture of the drone can be estimated when the drone lands.

또한 본 발명의 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 상기 드론은 GPS를 통해 설정된 착륙지점 좌표로 이동된 후 상기 카메라를 통해 상기 착륙패드에 형성된 제1마커를 인식한 후 상기 제1마커 상부로 이동하고, 상기 제1마커를 향해 하강하여 고도를 낮추면서 상기 제2마커를 인식하여 상기 드론의 착륙 방향 및 착륙 자세를 추정 및 보정한 후 착륙하는 것을 특징으로 한다.In addition, the drone of the automatic landing system for inducing the drone to land precisely at the landing point of the present invention is moved to the coordinates of the landing point set through GPS, and recognizes the first marker formed on the landing pad through the camera. Then, it moves to the top of the first marker, descends toward the first marker, recognizes the second marker while lowering its altitude, estimates and corrects the landing direction and landing posture of the drone, and then lands.

또한 본 발명의 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 상기 드론은 상기 카메라를 통해 상기 마커를 인식할 때 상기 카메라가 촬영하고 있는 각도를 기반으로 상기 마커와 상기 카메라 간의 촬영 각도를 분석하고 상기 마커로부터 추출된 위치, 자세, 방향 정보를 취득할 때 상기 촬영 각도를 기반으로 정보를 보정하는 것을 특징으로 한다.In addition, when the drone of the automatic landing system for inducing the drone to precisely land at the landing point of the present invention recognizes the marker through the camera, the distance between the marker and the camera is based on the angle the camera is photographing. When a photographing angle is analyzed and position, posture, and direction information extracted from the marker is acquired, the information is corrected based on the photographing angle.

또한 본 발명의 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 상기 드론은 상기 착륙패드에 접촉하여 상기 드론의 하부면을 지면으로부터 이격시키고 충격을 감소시키는 다수 개의 랜딩기어와, 상기 랜딩기어의 하부면에 형성되어 상기 드론이 상기 착륙패드에 접근할 때 상기 착륙패드와 상기 랜딩기어 사이의 거리를 측정하여 하강 위치를 분석하는 하강센서를 더 포함하는 것을 특징으로 한다.In addition, the drone of the automatic landing system for inducing the drone to land precisely at the landing point of the present invention includes a plurality of landing gears that contact the landing pad to separate the lower surface of the drone from the ground and reduce impact, It may further include a descent sensor formed on a lower surface of the landing gear to analyze a descent position by measuring a distance between the landing pad and the landing gear when the drone approaches the landing pad.

상술한 바와 같이, 본 발명에 따른 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템에 의하면, 드론이 착륙할 때 마커를 순차적으로 인식하여 착륙지점에 설정된 자세로 정확하게 착륙할 수 있는 효과가 있다.As described above, according to the automatic landing system for inducing the drone to land precisely at the landing site according to the present invention, the markers are sequentially recognized when the drone lands, and the drone can accurately land in the attitude set at the landing site. It works.

또한 본 발명에 따른 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템에 의하면, 드론이 착륙할 때 마커를 통해 드론이 착륙하는 자세를 추종하고 착륙 자세 및 방향을 제어하여 안정적으로 착륙할 수 있는 효과가 있다.In addition, according to the automatic landing system for inducing the drone to land precisely at the landing site according to the present invention, when the drone lands, it follows the landing posture of the drone through a marker and controls the landing posture and direction to land stably. There are effects that can be done.

또한 본 발명에 따른 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템에 의하면, 드론의 착륙지점에 근처에 도달하면 마커가 있는 위치로 드론을 유도하여 드론이 마커를 인식할 수 있도록 하는 효과가 있다.In addition, according to the automatic landing system for inducing the drone to land precisely at the landing point according to the present invention, when the drone arrives near the landing point, it guides the drone to the location where the marker is located so that the drone can recognize the marker. has the effect of

도 1은 본 발명에 따른 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 전체적인 구성를 나타낸 구성도.
도 2는 본 발명에 따른 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 드론의 구조를 간략하게 도시한 도면.
도 3은 본 발명에 따른 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 드론이 착륙패드를 인식하는 모습을 나타낸 도면.
도 4는 본 발명에 따른 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 착륙패드에 형성된 마커를 나타낸 도면.
1 is a configuration diagram showing the overall configuration of an automatic landing system for inducing a drone to precisely land at a landing point according to the present invention.
Figure 2 is a schematic diagram showing the structure of a drone of an automatic landing system for inducing a drone to precisely land at a landing point according to the present invention.
3 is a view showing how a drone of an automatic landing system that guides a drone to precisely land at a landing point according to the present invention recognizes a landing pad.
4 is a diagram showing a marker formed on a landing pad of an automatic landing system for inducing a drone to precisely land at a landing point according to the present invention.

본 발명의 구체적 특징 및 이점들은 이하에서 첨부도면을 참조하여 상세히 설명한다. 이에 앞서 본 발명에 관련된 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 구체적인 설명을 생략하기로 한다.Specific features and advantages of the present invention will be described in detail below with reference to the accompanying drawings. Prior to this, if it is determined that the detailed description of functions and configurations related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

본 발명은 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템에 관한 것으로서, 더욱 상세하게는 지정된 경로를 따라 비행하는 드론이 착륙 위치에 도달하면 착륙 지점을 정밀하게 인식하여 오차범위를 감소시킬 수 있는 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템에 관한 것이다.The present invention relates to an automatic landing system for inducing a drone to land precisely at a landing point, and more particularly, when a drone flying along a designated path arrives at a landing location, the landing point is precisely recognized and the error range is reduced. It relates to an automatic landing system that guides a drone to precisely land at a landing point that can be reduced.

이하, 본 발명의 바람직한 실시 예를 첨부한 도면을 참고로 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 전체적인 구성를 나타낸 구성도이며, 도 2는 본 발명에 따른 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 드론의 구조를 간략하게 도시한 도면이고, 도 3은 본 발명에 따른 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 드론이 착륙패드를 인식하는 모습을 나타낸 도면이며, 도 4는 본 발명에 따른 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템의 착륙패드에 형성된 마커를 나타낸 도면이다.1 is a configuration diagram showing the overall configuration of an automatic landing system for inducing a drone to precisely land at a landing site according to the present invention, and FIG. 2 is a configuration diagram showing a precise landing for a drone at a landing site according to the present invention. Figure 3 shows the drone of the automatic landing system recognizing the landing pad, which guides the drone to precisely land at the landing point according to the present invention. FIG. 4 is a diagram showing a marker formed on a landing pad of an automatic landing system for guiding a drone to precisely land at a landing point according to the present invention.

도 1 내지 도 4에 도시된 바와 같이, 본 발명에 따른 착륙지점에 드론(100)이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템은 경로를 따라 자율비행을 할 수 있도록 형성되며 카메라(110)를 통해 주변 영상을 촬영할 수 있도록 형성되는 드론(100)과, 드론(100)이 착륙할 수 있도록 지정된 좌표에 형성되며 카메라(110)를 통해 드론(100)이 착륙할 수 있도록 위치, 자세, 방향 정보를 제공하는 마커가 포함된 착륙패드(200)를 포함하는 것을 특징으로 한다.As shown in FIGS. 1 to 4, the automatic landing system for inducing the drone 100 to precisely land at the landing point according to the present invention is formed to autonomously fly along a route, and the camera 110 The drone 100 formed to capture the surrounding image through the drone 100, the drone 100 is formed at designated coordinates for landing, and the position, attitude, and direction so that the drone 100 can land through the camera 110 It is characterized in that it includes a landing pad 200 including a marker providing information.

착륙패드(200)는 드론(100)이 원거리에서 인식할 수 있도록 형성되며 착륙지점으로 유도하도록 위치정보를 제공하는 제1마커(210)와, 제1마커(210)의 중앙에 형성되어 드론(100)이 착륙할 때 드론(100)의 방향 및 자세를 추정할 수 있도록 3차원 기준 좌표를 제공하는 제2마커(220)로 이루어지는 것을 특징으로 한다.The landing pad 200 is formed so that the drone 100 can recognize it from a distance, and the first marker 210 that provides location information to guide it to the landing point, and is formed in the center of the first marker 210 so that the drone ( 100) is characterized in that it consists of a second marker 220 that provides three-dimensional reference coordinates so that the direction and attitude of the drone 100 can be estimated when landing.

드론(100)은 GPS(130)를 통해 설정된 착륙지점 좌표로 이동된 후 카메라(110)를 통해 착륙패드(200)에 형성된 제1마커(210)를 인식한 후 제1마커(210) 상부로 이동하고, 제1마커(210)를 향해 하강하여 고도를 낮추면서 제2마커(220)를 인식하여 드론(100)의 착륙 방향 및 착륙 자세를 추정 및 보정한 후 착륙하는 것을 특징으로 한다.The drone 100 moves to the coordinates of the landing point set through the GPS 130, recognizes the first marker 210 formed on the landing pad 200 through the camera 110, and then moves to the top of the first marker 210. It is characterized by moving, descending toward the first marker 210 and recognizing the second marker 220 while lowering the altitude, estimating and correcting the landing direction and landing attitude of the drone 100, and then landing.

또한 드론(100)은 카메라(110)를 통해 촬영된 마커 이미지를 딥러닝 방식으로 영상처리하여 마커를 인식하는 제어부(120)를 더 포함하며, 제어부(120)는 마커를 인식할 때 딥러닝 방식을 통해 주변 사물이나 장애물에 의해 마커 중 일부만 인식되더라도 미인식된 부분을 추정하여 마커를 인식할 수 있는 것을 특징으로 한다.In addition, the drone 100 further includes a controller 120 for recognizing markers by image processing of marker images captured by the camera 110 using a deep learning method, and the controller 120 recognizes markers using a deep learning method. It is characterized in that the marker can be recognized by estimating an unrecognized part even if only some of the markers are recognized by surrounding objects or obstacles.

드론(100)은 상부에 다수 개의 프로펠러(150)가 형성되어 있어 고도 및 비행 방향을 제어할 수 있도록 형성되며, 하부에는 다수 개의 랜딩기어(140)가 마련되어 있어 드론(100)이 지면에 착륙할 때 드론(100)에 가해지는 충격을 감소시키고 드론(100)의 본체가 파손되는 것을 방지할 수 있게 된다.The drone 100 has a plurality of propellers 150 formed on the upper part to control the altitude and flight direction, and a plurality of landing gears 140 are provided on the lower part so that the drone 100 can land on the ground. It is possible to reduce the impact applied to the drone 100 and prevent the main body of the drone 100 from being damaged.

또한 드론(100)의 하부에는 카메라(110)가 형성되어 있어 드론(100)이 비행하는 방향에 존재하는 주변영상을 이미지로 촬영하여 저장할 수 있게 되며, 필요에 따라 저장된 이미지를 원격으로 송신하여 관제소(300)에서 실시간으로 촬영된 이미지를 확인할 수도 있다.In addition, a camera 110 is formed at the lower part of the drone 100, so that the image of the surroundings in the direction in which the drone 100 flies can be captured and stored as an image, and the stored image is remotely transmitted as needed to the control center. In 300 , a photographed image may be checked in real time.

또한 드론(100)이 자율 비행을 할 수 있도록 하기 위해 드론(100) 내부에는 드론(100)의 동작을 제어하고 경로를 파악할 수 있는 제어부(120)가 형성되어 있으며, 제어부(120)는 내부에 비행할 경로 좌표가 저장된 데이터베이스가 형성되어 있다.In addition, in order to allow the drone 100 to fly autonomously, a control unit 120 capable of controlling the operation of the drone 100 and determining a route is formed inside the drone 100, and the control unit 120 is inside the drone 100. A database is formed in which coordinates of a route to be flown are stored.

이때 드론(100)이 데이터베이스에 저장된 경로 좌표를 따라 이동할 수 있도록 드론(100) 내부에는 GPS(130)가 형성되어 있어 드론(100)이 현재 비행하고 있는 좌표를 확인할 수 있게 되며, 이를 통해 제어부(120)는 데이터베이스에 저장된 경로 좌표에 맞게 드론(100)이 비행하고 있는지 확인할 수 있게 된다.At this time, a GPS 130 is formed inside the drone 100 so that the drone 100 can move along the route coordinates stored in the database, so that the coordinates at which the drone 100 is currently flying can be checked, and through this, the controller ( 120) can check whether the drone 100 is flying according to the route coordinates stored in the database.

제어부(120)의 제어에 따라 드론(100)은 설정된 경로 좌표를 따라 순차적으로 이동할 수 있게 되며, 카메라(110)를 통해 주변을 촬영하여 경로 상의 화재, 사건, 사고 발생 유무를 관제소(300)로 보내 신속한 대응을 유도할 수 있게 된다.Under the control of the control unit 120, the drone 100 can move sequentially along the set route coordinates, and the surroundings are photographed through the camera 110 to determine whether a fire, incident, or accident has occurred on the route to the control center 300. sent to induce a rapid response.

또한 드론(100)은 사람이 접근하기 힘든 지역을 순찰하도록 경로 좌표를 지정할 수도 있게 되며 지정된 경로를 따라 이동될 수 있고, 필요에 따라 감시기능이 아닌 물품을 운반하는 기능으로도 사용될 수 있다.In addition, the drone 100 can designate route coordinates to patrol an area that is difficult for people to access, move along a designated route, and can be used as a function to transport goods other than a monitoring function as needed.

물품을 운반하는 경우 물품이 운송되어야할 지정 좌표를 데이터베이스에 저장할 수 있게 되며, 드론(100)은 지정된 지정 좌표로 물품을 운반하여 이동시킬 수 있게 된다.In the case of transporting an item, the designated coordinates to which the item should be transported can be stored in the database, and the drone 100 can transport and move the item to the designated designated coordinates.

드론(100)에 내장된 배터리는 드론(100)의 동작 시간에 따라 소모되기 때문에 드론(100)의 배터리가 10~20%정도만 남게 되면 배터리가 방전되기 전 제어부(120)는 드론(100)의 현재 위치에서 가까운 착륙패드(200)가 형성된 좌표를 검색하여 드론(100)이 착륙패드(200)로 이동되도록 제어하게 된다.Since the battery built in the drone 100 is consumed according to the operation time of the drone 100, when the battery of the drone 100 is only about 10 to 20% left, the controller 120 controls the operation of the drone 100 before the battery is discharged. The drone 100 is controlled to move to the landing pad 200 by searching the coordinates where the landing pad 200 close to the current location is formed.

이때 배터리의 잔여 용량에 따라 착륙패드(200)로 이동할 수 있으나 설정된 순찰, 감시, 운반 등의 임무가 완료되면 착륙패드(200)로 이동하여 드론(100)을 회수할 수 있도록 제어될 수도 있다.At this time, it can move to the landing pad 200 according to the remaining capacity of the battery, but it can also be controlled to move to the landing pad 200 and retrieve the drone 100 when the set missions such as patrol, monitoring, and transportation are completed.

착륙패드(200)는 드론(100)이 착륙할 때 발생되는 충격을 감소시키고 드론(100)이 착륙패드(200)에 형성된 마커를 인식하여 지정된 위치에 안정적으로 착륙할 수 있도록 유도하기 위해 형성된다.The landing pad 200 is formed to reduce the shock generated when the drone 100 lands and guide the drone 100 to stably land at a designated location by recognizing a marker formed on the landing pad 200. .

이때 착륙패드(200)에는 하나의 드론(100)만 착륙할 수 있도록 형성되어 있어 마커의 중심 상부에 드론(100)이 수직으로 하강되어 착륙되도록 구성되어 있으나, 필요에 따라 마커를 기준으로 주위에 다수 개의 착륙 위치가 격자 형태로 구분되어 있어, 드론(100)이 마커를 인식한 후 격자 형태로 구분된 좌표 내 빈 공간에 착륙할 수 있도록 유도될 수도 있게 된다.At this time, the landing pad 200 is formed so that only one drone 100 can land, so that the drone 100 is vertically lowered and landed at the upper center of the marker. Since a plurality of landing locations are divided into a grid form, the drone 100 may be guided to land in an empty space within coordinates divided into a grid form after recognizing a marker.

착륙패드(200)에는 H자 형태로 형성된 제1마커(210)가 형성되어 있어 드론(100)이 원거리에서 착륙패드(200)의 위치를 카메라(110)로 촬영할 수 있게 된다.A first marker 210 formed in an H shape is formed on the landing pad 200 so that the drone 100 can photograph the location of the landing pad 200 with the camera 110 from a distance.

드론(100)은 착륙패드(200)가 형성된 좌표를 따라 이동된 후 카메라(110)를 이용하여 주변을 촬영하여 이미지를 생성하고, 제어부(120)는 촬영된 이미지 중 착륙패드(200)에 H자로 형성된 제1마커(210)가 존재하지 분석하게 된다.After the drone 100 is moved along the coordinates where the landing pad 200 is formed, it uses the camera 110 to photograph the surroundings to create an image, and the controller 120 assigns H to the landing pad 200 among the captured images. The existence of the first marker 210 formed as a ruler is analyzed.

제어부(120)는 착륙패드(200)의 제1마커(210)가 인식되지 않으면 드론(100)을 이동시켜 다시 주변을 촬영하여 착륙패드(200)에 형성된 제1마커(210)가 포함된 이미지가 취득될 수 있도록 유도하게 된다.If the first marker 210 of the landing pad 200 is not recognized, the control unit 120 moves the drone 100 and takes pictures of the surroundings again to capture an image including the first marker 210 formed on the landing pad 200. will lead to acquisition.

카메라(110)에서 착륙패드(200) 및 제1마커(210)가 촬영되는 경우 제어부(120)는 이미지에서 제1마커(210)가 맞는지 이미지를 비교 검증하게 되며, 딥러닝 방식을 통해 학습된 이미지 정보를 기반으로 촬영된 이미지에 제1마커(210)가 있는 것인지 유사한 형태인지 구분할 수 있게 된다.When the landing pad 200 and the first marker 210 are captured by the camera 110, the control unit 120 compares and verifies whether the first marker 210 is correct in the image, and learns through the deep learning method. Based on the image information, it is possible to distinguish whether the first marker 210 is present in the captured image or has a similar shape.

즉, 딥러닝 방식을 이용하여 저장된 제1마커(210) 이미지, 유사 이미지, 촬영된 이미지를 비교 검토하여 제1마커(210)가 맞는지 확인할 수 있게 되며, 분석 정확도가 떨어지는 경우 드론(100)을 이동시켜 제1마커(210)를 촬영함으로써 해상도가 높은 이미지를 취득하여 재분석하게 된다.That is, it is possible to check whether the first marker 210 is correct by comparing and reviewing the stored first marker 210 image, similar image, and captured image using the deep learning method, and if the analysis accuracy is low, the drone 100 By moving and photographing the first marker 210, a high-resolution image is acquired and reanalyzed.

제어부(120)에 의해 촬영된 이미지에 제1마커(210)가 존재하는 것이 검증되면 드론(100)은 제1마커(210)가 형성된 위치로 이동되어 제1마커(210)를 향해 하강하도록 제어하게 된다.When it is verified that the first marker 210 exists in the captured image by the controller 120, the drone 100 is moved to the position where the first marker 210 is formed and is controlled to descend toward the first marker 210. will do

이때 드론(100)은 카메라(110)를 통해 제1마커(210)의 H자 중심에 위치된 제2마커(220)를 촬영하게 되는데, 제2마커(220)는 Aruco 모듈로 형성되거나 QR코드로 형성되어 있고 착륙하는 드론(100)의 3차원 기준 좌표를 제공하여 드론(100)의 방향이나 자세를 추종하여 착륙지점에 안정적으로 착륙할 수 있도록 유도하게 된다.At this time, the drone 100 photographs the second marker 220 located at the center of the letter H of the first marker 210 through the camera 110. The second marker 220 is formed of an Aruco module or a QR code. It is formed of , and provides three-dimensional reference coordinates of the landing drone 100 to follow the direction or posture of the drone 100 to induce a stable landing at the landing site.

제어부(120)는 촬영된 이미지에서 제2마커(220)를 실시간으로 분석하여 제2마커(220)를 통해 확인된 착륙패드(200)의 3차원 기준 좌표를 확인할 수 있게 되며, 분석된 3차원 기준좌표와 현재 드론(100)의 자세를 비교하여 착륙패드(200)와 수평상태가 되도록 자세를 제어할 수 있게 된다.The control unit 120 analyzes the second marker 220 in the captured image in real time to check the 3D reference coordinates of the landing pad 200 identified through the second marker 220, and the analyzed 3D By comparing the reference coordinates with the current posture of the drone 100, the posture can be controlled to be in a horizontal state with the landing pad 200.

즉, 제2마커(220)를 통해 인식된 드론(100)의 자세 및 방향에 따라 상기 착륙지점의 중앙에 위치되도록 자세 및 방향을 보정하게 되며, 제2마커(220)가 형성된 상부에 드론(100)이 하강되면서 랜딩기어(140)가 접촉되어 착륙하게 된다.That is, according to the posture and direction of the drone 100 recognized through the second marker 220, the posture and direction are corrected to be located in the center of the landing point, and the drone 100 is formed on the top where the second marker 220 is formed ( 100) descends, and the landing gear 140 contacts and lands.

또한 착륙패드(200)에 격자 형태로 다수 개의 드론(100)이 착륙할 수 있도록 형성되어 있는 경우 제2마커(220)는 디스플레이로 출력되도록 형성되어 있어 드론(100)이 없는 빈 공간의 착륙지점에 드론(100)이 착륙할 수 있도록 착륙을 유도할 수도 있게 된다.In addition, when the landing pad 200 is formed so that a plurality of drones 100 can land in a grid form, the second marker 220 is formed to be output to the display, so that the landing point in an empty space without the drone 100 It is also possible to induce landing so that the drone 100 can land.

이를 통해 다수 개의 드론(100)이 하나의 착륙패드(200) 내에 형성된 구획에 순차적으로 안착할 수 있게 된다.Through this, a plurality of drones 100 can be sequentially seated in a compartment formed in one landing pad 200.

또한 제어부(120)는 딥러닝 방식을 이용하어 제1마커(210)와 제2마커(220)를 인식할 수 있기 때문에 착륙패드(200) 주변의 이물질, 수풀이 존재하거나 마커가 손상되어 정상적으로 인식되지 않더라도 촬영된 마커의 부분 이미지를 이용하여 마커가 맞는지 추정할 수 있게 된다.In addition, since the controller 120 can recognize the first marker 210 and the second marker 220 using the deep learning method, foreign substances or bushes around the landing pad 200 are present or the markers are damaged and recognized normally. Even if it is not, it is possible to estimate whether the marker is correct using the captured partial image of the marker.

이를 통해 착륙 좌표 주변에서 원거리로 촬영된 이미지에 제1마커(210)가 수풀에 가려져 일부분만 촬영되더라도 제어부(120)는 부분적으로 형성된 제1마커(210)를 서로 연결시켜 제1마커(210)에 대응되는 형상인지 추정할 수 있게 된다.Through this, even if only a part of the first marker 210 is captured in the image taken at a distance around the landing coordinates because it is covered by a bush, the control unit 120 connects the partially formed first markers 210 to each other so that the first marker 210 It is possible to estimate whether the shape corresponds to .

또한 제1마커(210)는 제어부(120)가 부분적으로 인식할 수 있도록 정사각형 형태로 구획이 나누어져 있고 색상이 칠해져 있어 색상을 통해 제1마커(210)를 부분적으로 인식시킬 수도 있게 된다.In addition, the first marker 210 is divided into square shapes and colored so that the controller 120 can partially recognize the first marker 210, so that the first marker 210 can be partially recognized through color.

즉, 제1마커(210)가 일부분만 촬영되더라도 제어부(120)에서 미촬영된 구간의 이미지를 복원할 수 있게 되며, 복원된 이미지를 기준으로 제1마커(210)인지 식별하기 때문에 제1마커(210)를 찾는 시간이 감소될 수 있게 된다.That is, even if only a portion of the first marker 210 is captured, the controller 120 can restore an image of an unphotographed section, and based on the restored image, it is identified whether the first marker 210 is the first marker 210 or not. The time to find 210 can be reduced.

또한 드론(100)의 하부에 형성되어 카메라(110)를 지지할 수 있도록 형성되고 카메라(110)를 회전시켜 촬영각도를 제어하는 지지대(170)를 더 포함하며, 카메라(110)는 지지대(170)를 통해 설정된 각도로 회전되면서 마커를 인식할 수 있는 것을 특징으로 한다.In addition, the drone 100 further includes a support 170 that is formed to support the camera 110 and controls a shooting angle by rotating the camera 110. The camera 110 includes a support 170 It is characterized in that the marker can be recognized while being rotated at an angle set through ).

드론(100)은 카메라(110)를 통해 마커를 인식할 때 카메라(110)가 촬영하고 있는 각도를 기반으로 마커와 카메라(110) 간의 촬영 각도를 분석하고 마커로부터 추출된 위치, 자세, 방향 정보를 취득할 때 촬영 각도를 기반으로 정보를 보정하는 것을 특징으로 한다.When the drone 100 recognizes a marker through the camera 110, the camera 110 analyzes the shooting angle between the marker and the camera 110 based on the angle at which the camera 110 is shooting, and the location, posture, and direction information extracted from the marker. It is characterized in that information is corrected based on the shooting angle when acquiring .

지지대(170)는 드론(100)의 하부에 형성되며 카메라(110)의 위치를 고정시키고 카메라(110)가 설정된 방향으로 회전될 수 있도록 각도를 조절하기 위해 사용된다.The support 170 is formed below the drone 100 and is used to fix the position of the camera 110 and adjust the angle so that the camera 110 can be rotated in a set direction.

지지대(170)는 카메라(110)를 지지할 수 있도록 형성되면 어떤 형태로 이루어져도 상관없으며, 모터에 의해 카메라(110)의 각도를 수직 또는 수평 방향으로 회전시킬 수 있도록 하는 것이 바람직하다.The support 170 may be formed in any shape as long as it is formed to support the camera 110, and it is preferable to rotate the angle of the camera 110 in a vertical or horizontal direction by a motor.

지지대(170)를 통해 카메라(110)는 드론(100)이 비행할 때는 비행 방향을 향해 카메라(110)가 전면을 향하도록 회전될 수 있게 되며, 착륙할 때는 마커의 인식이 용이하도록 하부 방향을 향하도록 제어할 수 있게 된다.Through the support 170, the camera 110 can be rotated so that the camera 110 faces the front in the flight direction when the drone 100 flies, and the camera 110 can be rotated downward to facilitate recognition of the marker when landing. You will be able to control your direction.

이때 지지대(170)에 형성된 모터는 카메라(110)의 회전각도를 파악할 수 있도록 엔코더가 형성되어 있거나 스텝모터로 이루어져 있으며, 이를 통해 카메라(110)의 회전각도를 파악하여 현재 촬영되고 있는 이미지의 촬영각도를 파악할 수 있게 된다.At this time, the motor formed on the support 170 is formed with an encoder or a step motor so that the rotation angle of the camera 110 can be grasped. You can figure out the angle.

제어부(120)는 이를 통해 제1마커(210) 또는 제2마커(220)를 인식할 때 카메라(110)의 촬영각도를 파악할 수 있게 되며, 촬영각도를 기반으로 촬영된 이미지에 촬영각도에 대한 보정값을 반영하여 현재 드론(100)과 제1마커(210) 또는 제2마커(220) 사이의 위치값을 정밀하게 분석할 수 있게 된다.Through this, the controller 120 can grasp the shooting angle of the camera 110 when recognizing the first marker 210 or the second marker 220, and the information about the shooting angle is displayed in the captured image based on the shooting angle. The position value between the current drone 100 and the first marker 210 or the second marker 220 can be accurately analyzed by reflecting the correction value.

특히 제어부(120)가 제1마커(210)가 촬영된 이미지를 분석할 때 드론(100)과 제1마커(210) 간의 거리가 촬영각도에 따라 달라질 수 있기 때문에 카메라(110)의 회전 각도를 기반으로 촬영된 각도를 통해 제1마커(210)와 드론(100) 사이의 거리를 보정하여 제1마커(210) 상부에 드론(100)이 위치되도록 위치값을 보정할 수 있게 된다.In particular, since the distance between the drone 100 and the first marker 210 may vary according to the shooting angle when the controller 120 analyzes the image of the first marker 210, the rotation angle of the camera 110 is determined. Based on this, the distance between the first marker 210 and the drone 100 is corrected through the photographed angle so that the drone 100 is located above the first marker 210, and the position value can be corrected.

이러한 방법은 제2마커(220)를 인식할 때도 동일하게 사용될 수 있으며, 특히 다수 개의 격자로 착륙지점이 나누어져 있는 경우 촬영 각도를 통해 제2마커(220)로부터 이격된 거리를 확인하여 착륙좌표에 정확하게 안착시킬 수 있게 된다.This method can be equally used when recognizing the second marker 220. In particular, when the landing point is divided into a plurality of grids, the distance away from the second marker 220 is checked through the shooting angle to determine the landing coordinates. can be accurately seated.

또한 드론(100)은 착륙패드(200)에 접촉하여 드론(100)의 하부면을 지면으로부터 이격시키고 충격을 감소시키는 다수 개의 랜딩기어(140)와, 랜딩기어(140)의 하부면에 형성되어 드론(100)이 착륙패드(200)에 접근할 때 착륙패드(200)와 랜딩기어(140) 사이의 거리를 측정하여 하강 위치를 분석하는 하강센서(160)를 더 포함하는 것을 특징으로 한다.In addition, the drone 100 is formed on the lower surface of the landing gear 140 and a plurality of landing gears 140 that contact the landing pad 200 to separate the lower surface of the drone 100 from the ground and reduce impact, When the drone 100 approaches the landing pad 200, it is characterized in that it further includes a descent sensor 160 that analyzes the descent position by measuring the distance between the landing pad 200 and the landing gear 140.

랜딩기어(140)는 드론(100)의 하부에 위치되어 있으며, 드론(100)의 하부면을 지면으로부터 이격시켜 드론(100) 하부에 위치된 카메라(110)가 손상되지 않도록 방지하기 위한 것이다.The landing gear 140 is located below the drone 100 and is intended to prevent the camera 110 located below the drone 100 from being damaged by separating the lower surface of the drone 100 from the ground.

랜딩기어(140)는 하부면에는 하강센서(160)가 형성되어 있어 드론(100)이 고도를 낮추어 하강할 때 착륙 지점의 상부면과 각각의 랜딩기어(140)가 접촉되는 거리를 측정할 수 있게 된다.The landing gear 140 has a descent sensor 160 formed on the lower surface, so that when the drone 100 descends by lowering the altitude, the contact distance between the upper surface of the landing site and each landing gear 140 can be measured. there will be

이때 랜딩기어(140)가 4개인 경우 하강센서(160)도 4개로 구성될 수 있으며, 각각의 하강센서(160)에서 측정된 거리 정보는 제어부(120)로 전송되고, 제어부(120)는 드론(100)이 지면으로부터 수평상태로 유지될 수 있도록 제어하게 된다.At this time, if there are four landing gears 140, the descent sensor 160 may also be composed of four, and the distance information measured by each descent sensor 160 is transmitted to the controller 120, and the controller 120 is a drone. (100) is controlled so that it can be maintained in a horizontal state from the ground.

특히 착륙지점의 지면이 기울어진 상태인 경우 하강센서(160)로부터 측정된 거리 정보를 기반으로 드론(100)이 지면과 평행한 상태로 유지시켜 4개의 랜딩기어(140)가 지면에 동시에 접촉될 수 있도록 제어할 수 있게 된다.In particular, when the ground at the landing site is in an inclined state, the drone 100 is kept parallel to the ground based on the distance information measured from the descent sensor 160 so that the four landing gears 140 are in contact with the ground at the same time to be able to control it.

또한 착륙패드(200) 주변에는 드론(100)에 수동으로 조작 신호를 전송할 수 있는 송수신기가 마련되어 있으며, 송수신기는 관제소(300)와 연결되어 있어 관제소(300)에서 드론(100)에게 직접 제어할 수 있도록 제어 신호를 송출할 수 있게 된다.In addition, a transceiver capable of manually transmitting a manipulation signal to the drone 100 is provided around the landing pad 200, and the transceiver is connected to the control center 300 so that the control center 300 can directly control the drone 100. control signals can be sent out.

이때 관제소(300)는 드론(100)이 착륙지점 근처에 도달하면 착륙지점을 안내할 수 있도록 드론(100)이 인식할 수 있는 인식신호(310)를 송출할 수 있게 되며, 인식신호(310)는 착륙패드(200) 주변에 비행 중인 드론(100)과 교신하여 착륙이 필요한 드론(100)만 인식할 수 있도록 형성되는 신호이다.At this time, the control center 300 can transmit a recognition signal 310 that can be recognized by the drone 100 so that the drone 100 can guide the landing point when the drone 100 arrives near the landing point, and the recognition signal 310 Is a signal formed so that only the drone 100 that needs to land can be recognized by communicating with the drone 100 in flight around the landing pad 200.

인식신호(310)는 비행 중인 드론(100)이 착륙이 필요할 때 드론(100)에서 먼저 착륙요청신호를 주변으로 발생시키고, 인식신호(310)는 이를 감지한 후 착륙이 맞는지 드론(100)에게 신호를 보내 교차 검증하도록 형성된다.The recognition signal 310 first generates a landing request signal from the drone 100 to the surroundings when the drone 100 in flight needs to land, and the recognition signal 310 detects this and then informs the drone 100 whether the landing is correct. Signals are formed to cross-validate.

이를 통해 서로 다른 드론(100)이 동일 경로에 존재할 때 착륙이 필요없는 드론(100)에게 인식신호(310)가 전송되는 것을 방지할 수 있게 된다.Through this, when different drones 100 exist on the same path, it is possible to prevent the recognition signal 310 from being transmitted to the drones 100 that do not need to land.

좌표신호(320)는 현재 드론(100)의 위치로부터 착륙패드(200)가 형성된 위치까지의 거리 좌표를 포함하고 있어 드론(100)의 위치를 착륙패드(200) 근처로 유도할 수 있게 된다.The coordinate signal 320 includes distance coordinates from the current position of the drone 100 to the position where the landing pad 200 is formed, so that the position of the drone 100 can be guided to the vicinity of the landing pad 200.

좌표신호(320)를 통해 드론(100)은 착륙패드(200)가 형성된 위치까지 빠르게 이동할 수 있으며, 이동된 상태에서 카메라(110)를 통해 제1마커(210)와 제2마커(220)를 순차적으로 촬영하여 인식할 수 있게 된다.Through the coordinate signal 320, the drone 100 can quickly move to the position where the landing pad 200 is formed, and in the moved state, the first marker 210 and the second marker 220 through the camera 110 It can be recognized by shooting sequentially.

환경신호(330)는 착륙패드(200) 주변의 식생이나 장애물 등의 착륙에 방해되는 정보를 제공하기 위한 것으로, 착륙패드(200)가 손상되거나 드론(100)이 착륙하기 위험한 상태인 경우 드론(100)이 다른 착륙지점으로 이동되도록 유도할 수 있게 된다.The environmental signal 330 is to provide information that interferes with landing, such as vegetation or obstacles around the landing pad 200, and when the landing pad 200 is damaged or the drone 100 is in a dangerous state to land, the drone ( 100) can be induced to move to another landing point.

또한 착륙패드(200) 주변의 기상정보를 드론(100)에게 전송하여 드론(100)이 착륙할 때 바람이나 비에 의해 착륙위치가 틀어지는 것을 방지하기 위해 사용될 수도 있다.In addition, weather information around the landing pad 200 may be transmitted to the drone 100 to prevent the landing position from being distorted due to wind or rain when the drone 100 lands.

보정신호(340)는 드론(100)이 착륙할 때 착륙패드(200)에 각종 장애물이 존재하거나 토사가 쌓여 있어 정상 착륙이 어려울 때 제3자의 시선에서 에서 착륙이 가능한 자세를 제공하기 위해 사용되는 것으로, 드론(100)의 자세를 지형지물 및 드론(100)의 착륙자세에 맞게 보정할 수 있도록 신호를 송출하게 된다.The correction signal 340 is used to provide a posture capable of landing from a third party's gaze when the drone 100 lands, when it is difficult to land normally due to various obstacles on the landing pad 200 or soil piled up. As a result, a signal is transmitted so that the posture of the drone 100 can be corrected according to the geographical feature and the landing posture of the drone 100.

인식신호(310), 좌표신호(320), 환경신호(330), 보정신호(340)는 관제소(300)에서 제어할 수 있도록 형성되나, 관제소(300)는 각 착륙패드(200) 주변에 별도의 인공지능으로 드론(100)의 착륙을 보조하는 착륙보조장치를 마련하고, 착륙보조장치가 드론(100)의 착륙상태에 따라 신호를 송출하도록 형성될 수도 있다.The recognition signal 310, the coordinate signal 320, the environment signal 330, and the correction signal 340 are formed to be controlled by the control center 300, but the control center 300 is separately located around each landing pad 200. A landing assistance device assisting the landing of the drone 100 may be provided with the artificial intelligence of, and the landing assistance device may be formed to transmit a signal according to the landing state of the drone 100.

상술한 바와 같이, 본 발명에 따른 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템에 의하면, 드론이 착륙할 때 마커를 순차적으로 인식하여 착륙지점에 설정된 자세로 정확하게 착륙할 수 있고, 드론이 착륙할 때 마커를 통해 드론이 착륙하는 자세를 추종하고 착륙 자세 및 방향을 제어하여 안정적으로 착륙할 수 있으며, 드론의 착륙지점에 근처에 도달하면 마커가 있는 위치로 드론을 유도하여 드론이 마커를 인식할 수 있도록 하는 효과가 있다.As described above, according to the automatic landing system for inducing the drone to precisely land at the landing site according to the present invention, the drone can sequentially recognize markers when landing and accurately land in the attitude set at the landing site. , When the drone lands, it follows the landing attitude of the drone through the marker and controls the landing attitude and direction so that the drone can land stably. This has the effect of making the marker recognizable.

이상과 같이 본 발명은, 바람직한 실시 예를 중심으로 설명하였지만 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 특허청구범위에 기재된 기술적 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 또는 변형하여 실시할 수 있다. 따라서 본 발명의 범주는 이러한 많은 변형의 예들을 포함하도록 기술된 청구범위에 의해서 해석되어야 한다.As described above, the present invention has been described with a focus on preferred embodiments, but those skilled in the art can make the present invention various within the range that does not deviate from the technical spirit and scope described in the claims of the present invention. It can be implemented by modifying or transforming accordingly. Accordingly, the scope of the present invention should be construed by the claims which are written to include examples of these many variations.

100 : 드론
110 : 카메라
120 : 제어부
130 : GPS
140 : 랜딩기어
150 : 프로펠러
160 : 하강센서
170 : 지지대
200 : 착륙패드
210 : 제1마커
220 : 제2마커
300 : 관제소
310 : 인식신호
320 : 좌표신호
330 : 환경신호
340 : 보정신호
100: drone
110: camera
120: control unit
130: GPS
140: landing gear
150: propeller
160: descent sensor
170: support
200: landing pad
210: first marker
220: second marker
300: control center
310: recognition signal
320: coordinate signal
330: environmental signal
340: correction signal

Claims (7)

경로를 따라 자율비행을 할 수 있도록 형성되며 카메라를 통해 주변 영상을 촬영할 수 있도록 형성되는 드론과;
상기 드론이 착륙할 수 있도록 지정된 좌표에 형성되며 상기 카메라를 통해 상기 드론이 착륙할 수 있도록 위치, 자세, 방향 정보를 제공하는 마커가 포함된 착륙패드;를 포함하는 것을 특징으로 하는
착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템.
A drone formed to autonomously fly along the route and to capture surrounding images through a camera;
A landing pad formed at designated coordinates for the drone to land and including a marker providing position, attitude, and direction information so that the drone can land through the camera;
An automatic landing system that guides drones to land precisely at the landing site.
제 1항에 있어서,
상기 드론은 상기 카메라를 통해 촬영된 상기 마커 이미지를 딥러닝 방식으로 영상처리하여 상기 마커를 인식하는 제어부;를 더 포함하며,
상기 제어부는 상기 마커를 인식할 때 딥러닝 방식을 통해 주변 사물이나 장애물에 의해 상기 마커 중 일부만 인식되더라도 미인식된 부분을 추정하여 상기 마커를 인식 수 있는 것을 특징으로 하는
착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템.
According to claim 1,
The drone further includes a control unit for recognizing the marker by image processing of the marker image captured by the camera using a deep learning method,
When recognizing the marker, the control unit can recognize the marker by estimating an unrecognized portion even if only some of the markers are recognized by surrounding objects or obstacles through a deep learning method. Characterized in that
An automatic landing system that guides drones to land precisely at the landing site.
제 1항에 있어서,
상기 드론의 하부에 형성되어 상기 카메라를 지지할 수 있도록 형성되고 상기 카메라를 회전시켜 촬영각도를 제어하는 지지대;를 더 포함하며,
상기 카메라는 상기 지지대를 통해 설정된 각도로 회전되면서 상기 마커를 인식할 수 있는 것을 특징으로 하는
착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템.
According to claim 1,
A support is formed on the lower part of the drone to support the camera and rotates the camera to control the shooting angle;
Characterized in that the camera can recognize the marker while rotating at an angle set through the support
An automatic landing system that guides drones to land precisely at the landing site.
상기 착륙패드는
상기 드론이 원거리에서 인식할 수 있도록 형성되며 착륙지점으로 유도하도록 위치정보를 제공하는 제1마커와;
상기 제1마커의 중앙에 형성되어 상기 드론이 착륙할 때 상기 드론의 방향 및 자세를 추정할 수 있도록 3차원 기준 좌표를 제공하는 제2마커;로 이루어지는 것을 특징으로 하는
착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템.
the landing pad
a first marker configured to be recognized by the drone at a distance and providing location information to guide the drone to a landing point;
A second marker formed at the center of the first marker to provide three-dimensional reference coordinates so that the direction and posture of the drone can be estimated when the drone lands.
An automatic landing system that guides drones to land precisely at the landing site.
제 4항에 있어서,
상기 드론은 GPS를 통해 설정된 착륙지점 좌표로 이동된 후 상기 카메라를 통해 상기 착륙패드에 형성된 제1마커를 인식한 후 상기 제1마커 상부로 이동하고,
상기 제1마커를 향해 하강하여 고도를 낮추면서 상기 제2마커를 인식하여 상기 드론의 착륙 방향 및 착륙 자세를 추정 및 보정한 후 착륙하는 것을 특징으로 하는
착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템.
According to claim 4,
The drone moves to the coordinates of the landing point set through GPS, recognizes a first marker formed on the landing pad through the camera, and then moves above the first marker,
Characterized in that, while descending toward the first marker and lowering the altitude, the second marker is recognized, the landing direction and landing posture of the drone are estimated and corrected, and then landed.
An automatic landing system that guides drones to land precisely at the landing site.
제 1항에 있어서,
상기 드론은
상기 카메라를 통해 상기 마커를 인식할 때 상기 카메라가 촬영하고 있는 각도를 기반으로 상기 마커와 상기 카메라 간의 촬영 각도를 분석하고 상기 마커로부터 추출된 위치, 자세, 방향 정보를 취득할 때 상기 촬영 각도를 기반으로 정보를 보정하는 것을 특징으로 하는
착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템.
According to claim 1,
the drone
When recognizing the marker through the camera, the shooting angle between the marker and the camera is analyzed based on the angle at which the camera is shooting, and when position, posture, and direction information extracted from the marker are acquired, the shooting angle characterized by correcting information based on
An automatic landing system that guides drones to land precisely at the landing site.
제 1항에 있어서,
상기 드론은
상기 착륙패드에 접촉하여 상기 드론의 하부면을 지면으로부터 이격시키고 충격을 감소시키는 다수 개의 랜딩기어와;
상기 랜딩기어의 하부면에 형성되어 상기 드론이 상기 착륙패드에 접근할 때 상기 착륙패드와 상기 랜딩기어 사이의 거리를 측정하여 하강 위치를 분석하는 하강센서;를 더 포함하는 것을 특징으로 하는
착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템.
According to claim 1,
the drone
a plurality of landing gears contacting the landing pad to separate the lower surface of the drone from the ground and reduce impact;
And a descent sensor formed on the lower surface of the landing gear to analyze the descent position by measuring the distance between the landing pad and the landing gear when the drone approaches the landing pad.
An automatic landing system that guides drones to land precisely at the landing site.
KR1020210097617A 2021-07-26 2021-07-26 An automatic landing system to guide the drone to land precisely at the landing site KR102585428B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210097617A KR102585428B1 (en) 2021-07-26 2021-07-26 An automatic landing system to guide the drone to land precisely at the landing site

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210097617A KR102585428B1 (en) 2021-07-26 2021-07-26 An automatic landing system to guide the drone to land precisely at the landing site

Publications (2)

Publication Number Publication Date
KR20230016730A true KR20230016730A (en) 2023-02-03
KR102585428B1 KR102585428B1 (en) 2023-10-11

Family

ID=85226101

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210097617A KR102585428B1 (en) 2021-07-26 2021-07-26 An automatic landing system to guide the drone to land precisely at the landing site

Country Status (1)

Country Link
KR (1) KR102585428B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116620596A (en) * 2023-07-21 2023-08-22 国网四川省电力公司成都供电公司 Intelligent airport control method for unmanned aerial vehicle

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101617411B1 (en) 2015-08-17 2016-05-18 박시몽 Method and system for controlling a drone
JP2017502568A (en) * 2014-08-29 2017-01-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Unmanned aerial vehicle and voice data collection method using unmanned aerial vehicle
JP2018063512A (en) * 2016-10-12 2018-04-19 本郷飛行機株式会社 Attitude control system of moving body
KR20180047055A (en) * 2016-10-31 2018-05-10 한국항공우주연구원 Apparatus and method for precision landing guidance
US20190208097A1 (en) * 2017-12-29 2019-07-04 Vivotek Inc. Image analysis method, camera and image capturing system thereof
KR20190078098A (en) * 2017-12-26 2019-07-04 주식회사 솔탑 Method and apparatus for controlling drone landing
CN112960127A (en) * 2019-12-13 2021-06-15 陕西勃源科技发展有限公司 Night navigation machine carries early warning device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017502568A (en) * 2014-08-29 2017-01-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Unmanned aerial vehicle and voice data collection method using unmanned aerial vehicle
KR101617411B1 (en) 2015-08-17 2016-05-18 박시몽 Method and system for controlling a drone
JP2018063512A (en) * 2016-10-12 2018-04-19 本郷飛行機株式会社 Attitude control system of moving body
KR20180047055A (en) * 2016-10-31 2018-05-10 한국항공우주연구원 Apparatus and method for precision landing guidance
KR20190078098A (en) * 2017-12-26 2019-07-04 주식회사 솔탑 Method and apparatus for controlling drone landing
US20190208097A1 (en) * 2017-12-29 2019-07-04 Vivotek Inc. Image analysis method, camera and image capturing system thereof
CN112960127A (en) * 2019-12-13 2021-06-15 陕西勃源科技发展有限公司 Night navigation machine carries early warning device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116620596A (en) * 2023-07-21 2023-08-22 国网四川省电力公司成都供电公司 Intelligent airport control method for unmanned aerial vehicle

Also Published As

Publication number Publication date
KR102585428B1 (en) 2023-10-11

Similar Documents

Publication Publication Date Title
US11550315B2 (en) Unmanned aerial vehicle inspection system
US11604479B2 (en) Methods and system for vision-based landing
CN110062919B (en) Drop-off location planning for delivery vehicles
US11042074B2 (en) Flying camera with string assembly for localization and interaction
US20220144419A1 (en) Unmanned aerial vehicle inspection system
US9513635B1 (en) Unmanned aerial vehicle inspection system
EP3428766B1 (en) Multi-sensor environmental mapping
KR102254491B1 (en) Automatic fly drone embedded with intelligent image analysis function
US10654584B2 (en) Refueling system and method
US20180005534A1 (en) Autonomous navigation of an unmanned aerial vehicle
JP2012071645A (en) Automatic taking-off and landing system
CN111506091A (en) Unmanned aerial vehicle accurate landing control system and method based on dynamic two-dimensional code
CN109690250A (en) UAV system secondary navigation system and method
KR102585428B1 (en) An automatic landing system to guide the drone to land precisely at the landing site
WO2021146973A1 (en) Unmanned aerial vehicle return-to-home control method, device, movable platform and storage medium
CN113933871A (en) Flood disaster detection system based on unmanned aerial vehicle and Beidou positioning
US20240124137A1 (en) Obstacle avoidance for aircraft from shadow analysis
Zolich et al. Unmanned Aerial System for deployment and recovery of research equipment at sea

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right