KR102384333B1 - Apparatus for Terrain flight including lidar sensor - Google Patents

Apparatus for Terrain flight including lidar sensor Download PDF

Info

Publication number
KR102384333B1
KR102384333B1 KR1020200139720A KR20200139720A KR102384333B1 KR 102384333 B1 KR102384333 B1 KR 102384333B1 KR 1020200139720 A KR1020200139720 A KR 1020200139720A KR 20200139720 A KR20200139720 A KR 20200139720A KR 102384333 B1 KR102384333 B1 KR 102384333B1
Authority
KR
South Korea
Prior art keywords
terrain
information
flight
distance
unit
Prior art date
Application number
KR1020200139720A
Other languages
Korean (ko)
Other versions
KR20210155322A (en
Inventor
정호
김대성
정철훈
정형균
김정선
이호원
Original Assignee
주식회사 이노드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이노드 filed Critical 주식회사 이노드
Publication of KR20210155322A publication Critical patent/KR20210155322A/en
Application granted granted Critical
Publication of KR102384333B1 publication Critical patent/KR102384333B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • B64C2201/141
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 실시예들은 지형 비행 장치에 있어서, 주변의 지형 또는 물체를 감지하여 라이다 데이터를 생성하는 회전형 라이다 센서, 지형 비행 장치의 위치정보, 지형 비행 장치의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어하는 비행 제어부 및 라이다 데이터를 기반으로 지형 정보를 생성하고, 지형 정보 및 비행 데이터를 이용하여 이동 위치 정보를 산출하는 정보 생성부를 포함하는 지형 비행 장치를 제안한다.These embodiments include at least one of a rotary LiDAR sensor that detects surrounding terrain or objects to generate LiDAR data, location information of the terrain flying device, and attitude information or speed data of the terrain flying device in the terrain flying device It includes a flight controller that collects flight data, receives movement location information to control flight, and an information generator that generates terrain information based on lidar data, and calculates movement location information using terrain information and flight data We propose a terrain flying device that does

Description

라이다 센서를 포함하는 지형 비행 장치{Apparatus for Terrain flight including lidar sensor} Apparatus for Terrain flight including lidar sensor

본 발명은 지형 비행 장치에 관한 것으로, 특히 라이다 센서를 포함하는 지형 비행 장치에 관한 것이다.The present invention relates to a terrain flying device, and more particularly to a terrain flying device including a lidar sensor.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information for the present embodiment and does not constitute the prior art.

무인 비행체(UAV: Unmanned Aerial Vehicle)는 일정한 임무를 수행하기 위하여 조종사가 탑승하지 않고 지상에서 원격으로 조종하거나 사전에 입력된 임무 프로그램으로 비행체가 주위환경을 인식하고 판단하여 스스로 비행하는 비행체를 말한다.An unmanned aerial vehicle (UAV) refers to an aircraft that is remotely controlled from the ground without a pilot on board to perform a certain mission, or that the aircraft recognizes and judges the surrounding environment through a pre-entered mission program and flies by itself.

무인 비행체는 주변의 장애물이나 지형 등을 확인하고 이에 기초하여 주행 경로를 설정하는 기술이 전제가 되야 한다. 따라서 주변의 장애물이나 지형 등의 확인을 위한 라이다 센서(LIDAR Sensor: Light Detection And Ranging Sensor)가 제공되고 있으며, 이러한 라이다 장치는 레이저를 목표물을 향하여 조사하고, 목표물로부터 반사된 광을 수신함으로써, 사물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 감지할 수 있다.The premise of the unmanned aerial vehicle is the technology to check the surrounding obstacles or terrain and set the driving route based on this. Therefore, a LIDAR sensor (Light Detection And Ranging Sensor) is provided to check surrounding obstacles or terrain, etc., and such a LIDAR device irradiates a laser toward a target and receives the reflected light from the target. , distance to an object, direction, speed, temperature, material distribution and concentration characteristics, etc. can be detected.

특히, 무인 비행체가 기울어진 상황에서 라이다 센서가 주변의 장애물을 검출하는 경우나 또는 라이다 장치의 회전 속도가 불균일할 경우 주변 장애물의 정확한 위치의 검출이 어렵다는 문제가 있다.In particular, there is a problem in that it is difficult to detect the exact position of the surrounding obstacle when the lidar sensor detects the surrounding obstacle in a situation where the unmanned aerial vehicle is tilted or the rotation speed of the lidar device is non-uniform.

본 발명의 실시예들은 무인 비행체에 구비된 라이다 센서를 이용하여 지형 정보 및 회피 정보를 획득하여 주변의 장애물이나 지형 등을 정확하게 파악하여 무인 비행체의 이동을 제어하는데 발명의 주된 목적이 있다.Embodiments of the present invention have a main object of the invention to control the movement of the unmanned aerial vehicle by acquiring terrain information and avoidance information using a lidar sensor provided in the unmanned aerial vehicle to accurately identify surrounding obstacles or terrain, etc.

본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Other objects not specified in the present invention may be additionally considered within the scope that can be easily inferred from the following detailed description and effects thereof.

본 실시예의 일 측면에 의하면, 본 발명은 지형 비행 장치에 있어서, 주변의 지형 또는 물체를 감지하여 라이다 데이터를 생성하는 회전형 라이다 센서, 상기 지형 비행 장치의 위치정보, 상기 지형 비행 장치의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어하는 비행 제어부 및 상기 라이다 데이터를 기반으로 지형 정보를 생성하고, 상기 지형 정보 및 상기 비행 데이터를 이용하여 상기 이동 위치 정보를 산출하는 정보 생성부를 포함하는 지형 비행 장치를 제안한다.According to one aspect of this embodiment, in the present invention, in a terrain flight device, a rotary lidar sensor that detects surrounding terrain or objects to generate lidar data, location information of the terrain flight device, and the terrain flight device It collects flight data including at least one attitude information or speed data, receives movement location information to control flight, and generates terrain information based on the lidar data, and collects the terrain information and the flight data. We propose a terrain flying device including an information generating unit for calculating the moving location information using the.

바람직하게는, 상기 회전형 라이다 센서는 상기 지형 비행 장치와 수직인 지표면까지의 고도를 나타내는 제1 거리 및 상기 지형 비행 장치와 수직인 지표면을 기준으로 일정 각도만큼 회전하여 상기 지형 또는 물체까지의 거리를 나타내는 제2 거리를 감지하여 상기 라이다 데이터를 생성하는 것을 특징으로 한다.Preferably, the rotary lidar sensor rotates by a predetermined angle based on a first distance indicating an altitude to the ground surface perpendicular to the terrain flying device and the ground surface perpendicular to the terrain flying device to reach the terrain or object. It is characterized in that the lidar data is generated by sensing a second distance indicating the distance.

바람직하게는, 상기 정보 생성부는 상기 라이다 데이터 및 상기 비행 데이터를 이용하여 지형 정보를 생성하는 지형 정보 생성부를 포함하고, 상기 지형 정보 생성부는 상기 지형 또는 물체의 위치에서 상기 일정 각도에 따른 지표면까지의 거리를 나타내는 제3 거리를 산출하고, 상기 제1 거리, 상기 제2 거리 및 상기 제3 거리를 이용하여 상기 일정 각도에서 감지한 상기 지형 또는 물체의 고도를 나타내는 제4 거리를 산출하는 것을 특징으로 한다.Preferably, the information generator includes a terrain information generator that generates terrain information by using the lidar data and the flight data, and the terrain information generator includes a location of the terrain or object to the ground surface according to the predetermined angle. calculating a third distance representing the distance of , and calculating a fourth distance representing the altitude of the terrain or object sensed at the predetermined angle using the first distance, the second distance, and the third distance do it with

바람직하게는, 상기 지형 정보 생성부는 상기 제2 거리, 상기 비행 데이터 및 상기 지형 비행 장치의 가속도 값에 의한 보정값을 이용하여 상기 일정 각도를 계산하는 것을 특징으로 한다.Preferably, the terrain information generating unit is characterized in that it calculates the predetermined angle using a correction value by the second distance, the flight data, and the acceleration value of the terrain flight device.

바람직하게는, 상기 지형 정보 생성부는 상기 지형 비행 장치의 위치 정보를 기준으로 상기 제1 거리, 상기 제2 거리, 상기 제3 거리 및 상기 제4 거리를 통해 확인된 상기 지형 또는 물체의 위치와 미리 저장된 지형 데이터를 비교하여 상기 지형 정보를 생성하는 것을 특징으로 한다.Preferably, the terrain information generating unit based on the location information of the terrain flying device, the first distance, the second distance, the third distance, and the location of the terrain or object identified through the fourth distance and in advance It is characterized in that the topographic information is generated by comparing the stored topographic data.

바람직하게는, 상기 정보 생성부는 상기 지형 비행 장치의 위치정보, 상기 일정 각도 및 상기 지형 정보를 이용하여 상기 지형 비행 장치가 상기 주변의 지형 또는 물체를 회피하여 이동하기 위한 상기 이동 위치 정보를 생성하는 이동 정보 생성부를 더 포함하고, 상기 비행 제어부는 상기 이동 위치 정보를 기반으로 상기 지형 비행 장치가 이동하는 위치, 각도 및 높이 정보를 적어도 하나 포함하여 상기 지형 비행 장치의 비행을 제어하는 것을 특징으로 한다.Preferably, the information generating unit generates the movement location information for the terrain flight device to move while avoiding the surrounding terrain or objects by using the location information, the predetermined angle, and the terrain information of the terrain flight device. Further comprising a movement information generation unit, the flight control unit is characterized in that based on the movement position information to control the flight of the terrain flight device, including at least one of the location, angle and height information at which the terrain flight device moves .

바람직하게는, 상기 비행 제어부는 상기 이동 위치 정보에 따른 이동 경로를 재설정하고, 상기 이동 경로를 기반으로 상기 지형 비행 장치의 현재 위치에서 상기 이동 경로까지의 상기 지형 비행 장치의 자세 및 속도를 제어하는 것을 특징으로 한다.Preferably, the flight control unit resets the movement path according to the movement location information, and controls the posture and speed of the terrain flight device from the current location of the terrain flight device to the movement path based on the movement path characterized in that

바람직하게는, 상기 이동 경로는 상기 지형 비행 장치가 상기 주변의 지형 또는 물체를 인식한 시점부터 상기 주변의 지형 또는 물체 회피하여 이동한 시점까지의 경로인 것을 특징으로 한다.Preferably, the movement path is characterized in that it is a path from a point in time when the terrain flight device recognizes the surrounding terrain or object to a point in time when it moves while avoiding the surrounding terrain or object.

바람직하게는, 상기 정보 생성부는 상기 회전형 라이다 센서에서 생성된 라이다 데이터를 분석하여 지형 또는 물체의 형태 정보를 생성하고, 상기 비행 제어부는 상기 지형 또는 물체의 형태 정보 및 상기 지형 또는 물체의 크기를 기반으로 상기 지형 비행 장치의 회피 여부를 결정할 수 있다.Preferably, the information generating unit analyzes the lidar data generated by the rotary lidar sensor to generate shape information of the terrain or object, and the flight control unit generates information about the shape of the terrain or object and the shape information of the terrain or object. It is possible to determine whether to avoid the terrain flying device based on the size.

이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 지형 정보 및 회피 정보를 획득하여 주변의 장애물이나 지형 등을 정확하게 파악하는 효과를 제공할 수 있다.As described above, according to embodiments of the present invention, it is possible to provide an effect of accurately grasping surrounding obstacles or terrain by acquiring terrain information and avoidance information.

여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if it is an effect not explicitly mentioned herein, the effects described in the following specification expected by the technical features of the present invention and their potential effects are treated as if they were described in the specification of the present invention.

도 1은 본 발명의 일 실시 예에 따른 지형 비행 장치의 구성을 나타내는 도면이다.
도 2은 본 발명의 일 실시 예에 따른 지형 비행 장치를 나타내는 예시도이다.
도 3은 본 발명의 일 실시 예에 따른 지형 비행 장치에 의한 지형 비행 방법을 나타내는 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 지형 비행 장치에 의한 지형 비행 방법의 지형 정보 생성을 나타내는 흐름도이다.
도 5는 본 발명의 일 실시 예에 따른 지형 비행 장치에 의한 지형 비행 방법의 지형 비행 장치 회피 비행 위치 생성 및 전송을 나타내는 흐름도이다.
도 6은 본 발명의 일 실시 예에 따른 장애물의 고도 및 각도를 계산하기 위한 예시도이다.
도 7은 도 2의 회전형 라이다 센서의 세부 구조를 나타내는 구조도이다.
도 8은 본 발명의 또 다른 일 실시예에 따른 센서 세부 구조를 나타내는 구조도이다.
1 is a view showing the configuration of a terrain flying device according to an embodiment of the present invention.
2 is an exemplary view showing a terrain flying device according to an embodiment of the present invention.
3 is a flowchart illustrating a terrain flight method by a terrain flight device according to an embodiment of the present invention.
4 is a flowchart illustrating the generation of terrain information of a terrain flight method by a terrain flight apparatus according to an embodiment of the present invention.
5 is a flowchart illustrating the generation and transmission of a terrain flight device avoidance flight position of a terrain flight method by a terrain flight device according to an embodiment of the present invention.
6 is an exemplary diagram for calculating the altitude and angle of an obstacle according to an embodiment of the present invention.
7 is a structural diagram illustrating a detailed structure of the rotary lidar sensor of FIG. 2 .
8 is a structural diagram illustrating a detailed structure of a sensor according to another embodiment of the present invention.

이하, 본 발명을 설명함에 있어서 관련된 공지기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하고, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.Hereinafter, in the description of the present invention, if it is determined that the subject matter of the present invention may be unnecessarily obscure as it is obvious to those skilled in the art with respect to related known functions, the detailed description thereof will be omitted, and some embodiments of the present invention will be described. It will be described in detail with reference to exemplary drawings. However, the present invention may be embodied in various different forms, and is not limited to the described embodiments. In addition, in order to clearly explain the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.

및/또는 이라는 용어는 복수의 관련된 기재된 항들의 조합 또는 복수의 관련된 기재된 항들 중의 어느 항을 포함한다.and/or includes a combination of a plurality of related recited claims or any of a plurality of related recited claims.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

본 발명은 라이다 센서를 활용한 지형 비행 장치 및 방법에 관한 것이다.The present invention relates to a terrain flight apparatus and method using a lidar sensor.

도 1은 본 발명의 일 실시 예에 따른 지형 비행 장치의 구성을 나타내는 도면이다.1 is a view showing the configuration of a terrain flying device according to an embodiment of the present invention.

도 1을 참조하면, 지형 비행 장치(10)는 비행 제어부(100), 정보 생성부(200) 및 회전형 라이다 센서(300)를 포함한다. 지형 비행 장치(10)는 도 1에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다.Referring to FIG. 1 , the terrain flight device 10 includes a flight control unit 100 , an information generation unit 200 , and a rotary lidar sensor 300 . The terrain flying device 10 may omit some of the various components illustrated by way of example in FIG. 1 or may additionally include other components.

지형 비행 장치(10)는 드론, 무인 비행체 등으로 구현될 수 있으며, 무선 조종에 의해 공중에서 비행하는 장치로 구현될 수 있으며, 반드시 이에 한정되는 것은 아니다.The terrain flying device 10 may be implemented as a drone, an unmanned aerial vehicle, etc., and may be implemented as a device flying in the air by radio control, but is not necessarily limited thereto.

비행 제어부(100)는 지형 비행 장치(10)의 위치정보, 지형 비행 장치(10)의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어할 수 있다.The flight control unit 100 collects flight data including at least one of the location information of the terrain flight device 10, the attitude information or the speed data of the terrain flight device 10, and receives the movement location information to control the flight. there is.

비행 제어부(100)는 이동 위치 정보에 따른 이동 경로를 재설정하고, 이동 경로를 기반으로 지형 비행 장치(10)의 현재 위치에서 이동 경로까지의 지형 비행 장치(10)의 자세 및 속도를 제어할 수 있다.The flight control unit 100 may reset the movement path according to the movement location information, and control the posture and speed of the terrain flight device 10 from the current location of the terrain flight device 10 to the movement path based on the movement route. there is.

이동 경로는 지형 또는 물체와의 충돌 없이 최소 거리로 근접하게 회피하여 주행하기 위한 경로로 설정될 수 있다. 또한, 이동 경로는 지형 비행 장치(10)가 상하 또는 좌우로 이동하여 장애물을 회피하는 경로이며, 이동에 제한을 두지 않을 수 있다.The movement path may be set as a path for driving while avoiding close proximity to a minimum distance without colliding with the terrain or an object. In addition, the movement path is a path in which the terrain flight device 10 moves up and down or left and right to avoid obstacles, and movement may not be limited.

이동 경로는 지형 비행 장치(10)가 주변의 지형 또는 물체를 인식한 시점부터 주변의 지형 또는 물체 회피하여 이동한 시점까지의 경로일 수 있다. 여기서, 주변의 지형 또는 물체는 지형 비행 장치(10)가 이동하기 위한 진로를 방해하는 장애물로서, 객체 등으로 구현될 수 있으며 이동을 방해하는 모든 것으로 구현될 수 있다.The movement path may be a path from a point in time when the terrain flight device 10 recognizes the surrounding terrain or object to a point in time when it moves by avoiding the surrounding terrain or object. Here, the surrounding terrain or object is an obstacle that obstructs the course for the terrain flight device 10 to move, and may be implemented as an object or the like, and may be implemented as anything that interferes with movement.

회전형 라이다 센서(300)는 주변의 지형 또는 물체를 감지하여 라이다 데이터를 생성할 수 있다.The rotary lidar sensor 300 may generate lidar data by detecting surrounding terrain or objects.

회전형 라이다 센서(300)는 지형 비행 장치(10)와 수직인 지표면까지의 고도를 나타내는 제1 거리 및 지형 비행 장치(10)와 수직인 지표면을 기준으로 일정 각도만큼 회전하여 지형 또는 물체까지의 거리를 나타내는 제2 거리를 감지하여 라이다 데이터를 생성할 수 있다. 구체적으로 제2 거리는 라이다 센서(300)의 일정 각도에 따라 측정된 거리일 수 있다.The rotary lidar sensor 300 rotates by a predetermined angle based on the first distance indicating the altitude to the ground surface perpendicular to the terrain flight device 10 and the terrain flight device 10 and the ground surface to the terrain or object. LiDAR data may be generated by sensing a second distance indicating a distance of . Specifically, the second distance may be a distance measured according to a predetermined angle of the lidar sensor 300 .

본 발명의 일 실시예에 따르면, 회전형 라이다 센서(300)는 지형 비행 장치(10)가 이동하지 않는 경우, 지형 비행 장치(10)와 수직인 지표면까지의 고도를 나타내는 제1 거리 및 지형 비행 장치(10)와 수직인 지표면을 기준으로 일정 각도만큼 회전하여 지형 또는 물체까지의 거리를 나타내는 제2 거리를 감지하여 라이다 데이터를 생성할 수 있다. 여기서, 제2 거리는 지형 비행 장치(10)와 수직인 지표면을 기준으로 일정 각도만큼 지속적으로 조절한 후 각도에 따른 거리를 복수 측정할 수 있다.According to an embodiment of the present invention, the rotary lidar sensor 300 is a first distance and terrain indicating an altitude to the surface perpendicular to the terrain flying device 10 when the terrain flight device 10 does not move. It is possible to generate lidar data by detecting a second distance indicating a distance to a terrain or an object by rotating by a predetermined angle based on the ground surface perpendicular to the flying device 10 . Here, the second distance may be continuously adjusted by a predetermined angle based on the ground surface perpendicular to the terrain flight device 10, and then a plurality of distances according to the angle may be measured.

정보 생성부(200)는 회전형 라이다 센서(300)에서 생성된 라이다 데이터를 기반으로 지형 정보를 생성하고, 지형 정보 및 비행 데이터를 이용하여 이동 위치 정보를 산출할 수 있다.The information generator 200 may generate terrain information based on the lidar data generated by the rotary lidar sensor 300 , and calculate movement location information using the terrain information and flight data.

정보 생성부(200)는 지형 정보 생성부(210) 및 이동 정보 생성부(220)를 포함한다.The information generation unit 200 includes a terrain information generation unit 210 and a movement information generation unit 220 .

지형 정보 생성부(210)는 라이다 데이터 및 비행 데이터를 이용하여 지형 정보를 생성할 수 있다.The terrain information generator 210 may generate terrain information by using lidar data and flight data.

지형 정보 생성부(210)는 기 설정된 각도에서 감지한 지형 또는 물체의 위치에서 일정 각도에 따른 지표면까지의 거리를 나타내는 제3 거리를 산출하고, 제1 거리, 제2 거리 및 제3 거리를 이용하여 일정 각도에서 감지한 상기 지형 또는 물체의 고도를 나타내는 제4 거리를 산출할 수 있다.The terrain information generator 210 calculates a third distance indicating a distance from the location of the terrain or object sensed at a preset angle to the ground surface according to a predetermined angle, and uses the first distance, the second distance, and the third distance. Thus, a fourth distance indicating the altitude of the terrain or object sensed at a predetermined angle may be calculated.

지형 정보 생성부(210)는 제2 거리, 지형 비행 장치(10)의 위치정보 지형 비행 장치(10)의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터 및 지형 비행 장치의 가속도 값에 의한 보정값을 이용하여 일정 각도를 계산할 수 있다.The terrain information generation unit 210 is corrected by the acceleration value of the flight data and the terrain flight apparatus including at least one of the second distance, the position information of the terrain flight apparatus 10, the attitude information or the speed data of the terrain flight apparatus 10 A certain angle can be calculated using the value.

지형 정보 생성부(210)는 지형 비행 장치(10)의 위치 정보를 기준으로 제1 거리, 제2 거리, 제3 거리 및 제4 거리를 통해 확인된 지형 또는 물체의 위치와 미리 저장된 지형 데이터를 비교하여 지형 정보를 생성할 수 있다.The terrain information generating unit 210 is based on the location information of the terrain flight device 10, the first distance, the second distance, the third distance, and the location of the object identified through the third distance and the fourth distance and the pre-stored topographic data By comparison, topographic information can be generated.

여기서, 지형 정보는 회전형 라이다 센서(300)에서 생성된 라이다 데이터를 분석하여 지형 또는 물체의 형태 정보를 생성하여 지형 또는 물체의 형태를 나타낼 수 있다.Here, the terrain information may indicate the shape of the terrain or object by analyzing the lidar data generated by the rotation type lidar sensor 300 to generate information about the shape of the terrain or object.

이동 정보 생성부(220)는 일정 각도 및 지형 정보를 이용하여 지형 비행 장치(10)가 주변의 지형 또는 물체를 회피하여 이동하기 위한 이동 위치 정보를 생성할 수 있다.The movement information generation unit 220 may generate movement position information for the terrain flight device 10 to move while avoiding the surrounding terrain or objects by using a certain angle and terrain information.

비행 제어부(100)는 이동 위치 정보를 기반으로 지형 비행 장치(10)가 이동하는 위치, 각도 및 높이 정보를 적어도 하나 포함하여 지형 비행 장치(10)의 비행을 제어할 수 있다. 여기서, 이동 위치 정보는 공간에 표시되는 좌표(X축, Y축, Z축)에 따른 이동 거리, 각도 높이를 포함하여 생성될 수 있다.The flight controller 100 may control the flight of the terrain flight device 10 by including at least one of the location, angle, and height information at which the terrain flight device 10 moves based on the movement location information. Here, the movement location information may be generated including a movement distance and an angular height according to coordinates (X-axis, Y-axis, Z-axis) displayed in space.

정보 생성부(200)는 회전형 라이다 센서에서 생성된 라이다 데이터를 분석하여 흙, 나무, 돌 또는 풀을 포함하는 지형 또는 물체의 형태 정보를 생성할 수 있다.The information generating unit 200 may analyze the lidar data generated by the rotary lidar sensor to generate information on the shape of a terrain or an object including soil, trees, stones, or grass.

비행 제어부(100)는 지형 또는 물체의 형태 정보를 기반으로 지형 비행 장치의 회피 여부를 결정할 수 있다. 여기서, 회피 여부는 지형 또는 물체의 강도에 따라 결정될 수 있다. 물체의 강도는 회전형 라이다 센서(300)의 반사 강도에 따라 결정될 수 있으며, 이를 통해 물질의 조합을 예측하여 형태 정보를 예측할 수 있다.The flight control unit 100 may determine whether to avoid the terrain flight device based on the shape information of the terrain or object. Here, whether to avoid may be determined according to the terrain or the strength of the object. The intensity of the object may be determined according to the reflection intensity of the rotating lidar sensor 300, and through this, the shape information may be predicted by predicting the combination of materials.

일반적으로, 지형 또는 물체는 지형 비행 장치(10)가 부딪치는 경우, 비행에 문제를 일으킬 수 있기 때문에 지형 비행 장치(10)의 안전한 주행을 위하여 반드시 고려되어야 한다. 또한, 지형 또는 물체가 지형 비행 장치(10)에 손상을 주지 않을 정도인 경우, 회피하지 않고 통과하도록 구현될 수 있으며, 이를 통해 비행을 위한 동력 손실을 방지할 수 있다.In general, terrain or objects must be considered for the safe running of the terrain flying device 10, since when the terrain flying device 10 collides, it may cause problems in flight. In addition, if the terrain or object does not damage the terrain flight device 10, it may be implemented to pass without avoiding, thereby preventing loss of power for flight.

도 2은 본 발명의 일 실시 예에 따른 지형 비행 장치를 나타내는 예시도이다.2 is an exemplary view showing a terrain flying device according to an embodiment of the present invention.

본 발명의 일 실시예에 따르면, 지형 비행 장치(10)는 상단에 비행 제어부(100) 및 정보 생성부(200)를 포함할 수 있으며, 하단에 회전형 레이다 센서(300)가 형성될 수 있다. 여기서, 비행 제어부(100), 정보 생성부(200) 및 회전형 레이다 센서(300)의 부착 위치는 도시한 바에 한정되는 것은 아니며, 필요에 의해 부착 위치를 용이하게 변경할 수 있다.According to an embodiment of the present invention, the terrain flight device 10 may include the flight control unit 100 and the information generating unit 200 at the upper end, and the rotary radar sensor 300 may be formed at the lower end. . Here, the attachment positions of the flight control unit 100 , the information generating unit 200 , and the rotary radar sensor 300 are not limited to those shown in the drawings, and the attachment positions can be easily changed as needed.

도 2를 참조하면, 회전형 레이다 센서(300)는 지형 비행 장치(10)의 하단에 부착되는 것으로 도시하였으나 반드시 이에 한정되는 것은 아니다.Referring to FIG. 2 , the rotary radar sensor 300 is illustrated as being attached to the lower end of the terrain flying device 10 , but is not necessarily limited thereto.

회전형 라이다 센서(300)는 지형 비행 장치(10)에 부착된 판 하단에 부착되고, 회전체에 구비될 수 있으며, 회전체에 의해 목표하는 방향의 지형 또는 물체를 감지할 수 있다.The rotary lidar sensor 300 is attached to the bottom of the plate attached to the terrain flight device 10, may be provided on a rotating body, and may detect a terrain or an object in a target direction by the rotating body.

본 발명의 일 실시예에 따르면, 회전형 라이다 센서(300)는 다축 짐벌에 연결되어 방향축에 대해 회전할 수 있다. 예를 들어, 회전형 라이다 센서(300)는 3축 짐벌에 연결될 수 있으며, 롤, 피치, 요(Roll, Pitch, Yaw)로 형성된 자세를 의미하는 각도를 통해 회전할 수 있다.According to an embodiment of the present invention, the rotary lidar sensor 300 may be connected to a multi-axis gimbal and rotate about a direction axis. For example, the rotary lidar sensor 300 may be connected to a 3-axis gimbal, and may rotate through an angle indicating a posture formed by roll, pitch, and yaw.

구체적으로, 회전형 라이다 센서(300)는 수직 방향의 지표면을 바라보는 각도를 기준으로 일정 각도 이동하여 주변의 지형 또는 물체까지의 거리를 측정하도록 구현될 수 있다.Specifically, the rotary lidar sensor 300 may be implemented to measure the distance to the surrounding terrain or object by moving a certain angle based on the angle of looking at the ground surface in the vertical direction.

본 발명의 일 실시예에 따르면, 지형 비행 장치(10)는 회전형 라이다 센서(300)와 수직인 지표면을 기준으로 일정 각도만큼 회전하여 제2 거리를 감지할 수 있다. 여기서, 일정 각도는 수직인 지표면을 기준으로 5 ° 내지 20°간격으로 각도를 늘려나가도록 설정될 수 있으며, 반드시 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the terrain flight device 10 may detect the second distance by rotating by a predetermined angle with respect to the ground surface perpendicular to the rotary lidar sensor 300 . Here, the predetermined angle may be set to increase the angle at intervals of 5° to 20° with respect to the vertical ground surface, but is not limited thereto.

도 3은 본 발명의 일 실시 예에 따른 지형 비행 방법을 나타내는 흐름도이다. 지형 비행 방법은 지형 비행 장치(10)에 의하여 수행될 수 있으며, 지형 비행 장치(10)가 수행하는 동작에 관한 상세한 설명과 중복되는 설명은 생략하기로 한다.3 is a flowchart illustrating a terrain flight method according to an embodiment of the present invention. The terrain flight method may be performed by the terrain flight apparatus 10, and a detailed description and overlapping description of the operation performed by the terrain flight apparatus 10 will be omitted.

지형 비행 방법은 라이다 데이터를 수집하는 단계(S310), 드론 비행 데이터를 수집하는 단계(S320), 드론 비행 자세를 고려한 지형정보 생성하는 단계(S330), 드론의 비행속도를 고려한 드론 회피 정보를 생성하는 단계(S340) 및 드론 회피 정보를 비행 제어부로 전달하는 단계(S350)를 포함한다.The terrain flight method includes the steps of collecting lidar data (S310), collecting drone flight data (S320), generating terrain information in consideration of the drone flight posture (S330), and drone avoidance information considering the flight speed of the drone. It includes the step of generating (S340) and transmitting the drone avoidance information to the flight controller (S350).

라이다 데이터를 수집하는 단계(S310)는 초당 7200회전 이상의 라이다 센서 데이터를 수집할 수 있다. 여기서, 초당 7200회전 이상은 실시예를 설명하기 위해 정의된 것으로, 반드시 이에 한정되는 것은 아니다.In the step of collecting lidar data ( S310 ), lidar sensor data of at least 7200 revolutions per second may be collected. Here, more than 7200 revolutions per second is defined to describe the embodiment, and is not necessarily limited thereto.

드론 비행 데이터를 수집하는 단계(S320)는 비행 제어부에서 MAVLink 프로토콜을 통하여 지형 비행 장치(10) 위치정보, 지형 비행 장치(10) 자세 정보, 속도 등의 비행 데이터를 수집할 수 있다.In the step of collecting drone flight data (S320), the flight controller may collect flight data such as location information of the terrain flight device 10, posture information of the terrain flight device 10, and speed through the MAVLink protocol.

여기서, MAVLink 프로토콜은 드론의 통신을 위한 매우 경량의 메세징 프로토콜로서, 반드시 이에 한정되는 것은 아니다.Here, the MAVLink protocol is a very lightweight messaging protocol for drone communication, but is not necessarily limited thereto.

드론 비행 자세를 고려한 지형정보 생성하는 단계(S330)는 드론 자세 정보로부터 회전형 레이다 센서(300)와 지표면과의 각도를 계산하여 지형정보 생성할 수 있다. 여기서, 드론 자세 정보는 드론 비행 데이터를 수집하는 단계(S320)에서 수집된 자세 정보일 수 있으며, 반드시 이에 한정되는 것은 아니며 외부 통신에 의해 드론 자세 정보를 전달받을 수 있다.In the step of generating terrain information in consideration of the drone flight posture ( S330 ), the terrain information may be generated by calculating an angle between the rotary radar sensor 300 and the ground surface from the drone posture information. Here, the drone posture information may be the posture information collected in step S320 of collecting drone flight data, but is not limited thereto, and the drone posture information may be transmitted through external communication.

구체적으로, 드론 비행 자세를 고려한 지형정보 생성하는 단계(S330)는 지형 정보를 지표면까지의 고도를 나타내는 제1 거리, 지표면까지의 고도를 기준으로 일정 각도만큼 회전한 회전형 라이다 센서(300)를 통해 지형 또는 물체까지의 거리를 나타내는 제2 거리, 지형 또는 물체의 위치에서 상기 일정 각도에 따른 지표면까지의 거리를 나타내는 제3 거리 및 제1 거리, 제2 거리 및 제3 거리를 이용하여 일정 각도에서 감지한 지형 또는 물체의 고도를 나타내는 제4 거리와 미리 저장된 지형 데이터를 비교하여 생성할 수 있다.Specifically, the step of generating topographic information in consideration of the drone flight posture (S330) is a rotational lidar sensor 300 that rotates the topographic information by a predetermined angle based on the first distance indicating the altitude to the ground and the altitude to the ground. A second distance indicating the distance to the terrain or object through It can be generated by comparing the fourth distance indicating the altitude of the terrain or object sensed from the angle with the pre-stored terrain data.

드론의 비행속도를 고려한 드론 회피 정보를 생성하는 단계(S340)는 드론의 현재 속도와 위치정보와 지형정보를 비교하여 드론의 이동 위치 정보를 계산할 수 있다.In the step of generating the drone avoidance information in consideration of the drone's flight speed ( S340 ), the drone's movement location information may be calculated by comparing the current speed and location information of the drone with the terrain information.

드론의 비행속도를 고려한 드론 회피 정보를 생성하는 단계(S340)는 드론의 위치정보 및 지형 정보를 이용하여 드론이 이동하는 위치, 각도 및 높이 정보를 적어도 하나 포함하는 이동 위치 정보를 생성할 수 있다.In the step (S340) of generating the drone avoidance information in consideration of the flight speed of the drone, movement location information including at least one information on the location, angle, and height at which the drone moves by using the location information and terrain information of the drone may be generated. .

드론 회피 정보를 비행 제어부로 전달하는 단계(S350)는 비행 제어부로 MAVLink 프로토콜을 통하여 이동할 위치정보를 전달할 수 있다.In the step of transmitting the drone avoidance information to the flight control unit (S350), the location information to be moved may be transmitted to the flight control unit through the MAVLink protocol.

상술한 과정에 따라, 드론은 위치정보를 기반으로 지형을 피해 이동할 수 있으며, 주변 장애물 또는 지형의 정확한 검출을 하여 이동 시 주변 장애물 또는 지형에 의해 발생할 수 있는 사고를 방지할 수 있다.According to the above-described process, the drone can move while avoiding the terrain based on the location information, and it is possible to prevent accidents that may occur due to the surrounding obstacles or terrain during movement by accurately detecting the surrounding obstacles or terrain.

도 3에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 3에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능하다.Although it is described that each process is sequentially executed in FIG. 3, this is only illustratively described, and those skilled in the art change the order described in FIG. Alternatively, it is possible to apply various modifications and variations by executing one or more processes in parallel or adding other processes.

도 4는 본 발명의 일 실시 예에 따른 지형 비행 방법의 지형 정보 생성을 나타내는 흐름도이다. 지형 비행 방법의 지형 정보 생성은 지형 비행 장치(10)에 의하여 수행될 수 있으며, 중복되는 설명은 생략하기로 한다.4 is a flowchart illustrating generation of terrain information in a terrain flight method according to an embodiment of the present invention. The terrain information generation of the terrain flight method may be performed by the terrain flight device 10, and a redundant description will be omitted.

지형 비행 방법의 지형 정보 생성은 드론과 지표면과의 각도(pitch) 및 고도(h)를 확인하는 단계(S410), 각도(pitch)값을 라이다에서 이용할 수 있도록 degree 형태로 전환하는 단계(S420), 각도에 따른 거리에서 장애물 고도를 계산하는 단계(S430) 및 지형정보를 완성하는 단계(S440)를 포함한다.The terrain information generation of the terrain flight method includes the steps of checking the angle (pitch) and altitude (h) between the drone and the ground (S410), and converting the angle (pitch) value into a degree form so that it can be used in the lidar (S420) ), calculating the height of the obstacle from the distance according to the angle (S430) and completing the topographic information (S440).

드론과 지표면과의 각도(pitch) 및 고도(h)를 확인하는 단계(S410)는 드론의 현재 위치에서 바로 아래에 위치하는 지표면과의 각도 및 고도를 확인할 수 있다. 고도는 드론과 지표면과의 일자 거리이다. 이때, 하단에 장애물이 형성된 경우 지표면의 기준은 장애물일 수 있다.In step S410 of confirming the angle (pitch) and altitude (h) between the drone and the ground surface, the angle and altitude with the ground surface located directly below the drone's current location may be checked ( S410 ). Altitude is the distance between the drone and the Earth's surface. In this case, when an obstacle is formed at the bottom, the reference of the ground surface may be an obstacle.

본 발명의 일 실시예에 따르면, 드론과 지표면과의 고도는 드론의 가장 하단에서 지표면까지의 거리일 수 있으며, 반드시 이에 한정되는 것은 아니며, 드론의 가장 상단에서 지표면까지의 거리 또는 회전형 레이다 장치(300)의 위치에서 지표면까지의 거리일 수 있으며 반드시 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the altitude between the drone and the ground may be the distance from the bottom of the drone to the ground, but is not necessarily limited thereto, and the distance from the top of the drone to the ground or the rotating radar device It may be a distance from the position of 300 to the ground surface, but is not necessarily limited thereto.

각도(Pitch)값을 라이다에서 이용할 수 있도록 도(degree) 형태로 전환하는 단계(S420)는 산출된 각도(Pitch)값을 자나 수량을 계산하는 단위 또는 매긴 눈을 나타내는 도(degree) 형태로 전환할 수 있다. 여기서, 도는 각도의 단위 중 하나로, 각의 한 회전을 360 등분한 것을 1도라고 할 수 있다.The step (S420) of converting the angle (Pitch) value into a degree form so that it can be used in the lidar is a unit for calculating a ruler or quantity, or a degree (degree) form indicating a numbered eye. can be switched Here, the degree is one of the units of the angle, and one rotation of the angle divided into 360 equal parts may be referred to as 1 degree.

각도에 따른 거리에서 장애물 고도를 계산하는 단계(S430)는 수학식 1을 이용하여 각도에 따른 거리에서의 장애물 고도를 계산할 수 있다. 각도에 따른 거리에서의 장애물 고도의 계산은 [수학식 1]과 같이 구할 수 있다.In the step of calculating the height of the obstacle at the distance according to the angle ( S430 ), the height of the obstacle at the distance according to the angle may be calculated using Equation 1 . The calculation of the obstacle height at the distance according to the angle can be obtained as in [Equation 1].

Figure 112020113678664-pat00001
Figure 112020113678664-pat00001

상술한 [수학식 1]에서, d는 라이다 센서로 지형 또는 물체를 감지한 거리를 나타내고, d'는 장애물이 없을 때의 드론까지의 거리와 d값의 차이를 나타내고, h는 드론의 고도를 나타내고, h'는 장애물의 고도를 나타낸다.In the above-mentioned [Equation 1], d represents the distance at which the terrain or object is sensed by the lidar sensor, d' represents the difference between the distance to the drone when there is no obstacle and the value of d, and h is the altitude of the drone and h' represents the height of the obstacle.

본 발명의 일 실시예에 따르면, h는 제1 거리, d는 제2 거리, d'는 제3 거리, h'는 제4 거리를 나타낼 수 있다.According to an embodiment of the present invention, h may represent a first distance, d may represent a second distance, d' may represent a third distance, and h' may represent a fourth distance.

구체적으로, 라이다 센서로 지형 또는 물체를 감지한 거리와 장애물이 없을 때의 드론까지의 거리와 d값의 차이의 비는 드론의 고도와 장애물의 고도 차이와 장애물의 고도의 비와 대응되며, 서로 비례한다. 이에 제2 거리와 제3 거리의 비는 제1 거리에서 제4거리의 차이와 제4 거리의 비와 대응될 수 있으며, 상술한 수학식 1을 참조하여 장애물의 고도를 나타내는 제4 거리를 산출할 수 있다.Specifically, the ratio of the difference between the distance at which the terrain or object is detected by the lidar sensor and the distance to the drone when there is no obstacle and the difference in d value corresponds to the ratio of the difference between the height of the drone and the height of the obstacle to the height of the obstacle. proportional to each other Accordingly, the ratio of the second distance to the third distance may correspond to the ratio of the difference between the first distance and the fourth distance to the fourth distance, and the fourth distance representing the height of the obstacle is calculated with reference to Equation 1 above. can do.

각도에 따른 거리에서 장애물 고도를 계산하는 단계(S430)는 수학식 1을 참고하여 장애물의 고도를 계산할 수 있다. 또한, 각도에 따른 거리에서 장애물 고도를 계산하는 단계(S430)는 정보 생성부(200)의 지형 정보 생성부(210)를 통해 계산될 수 있다.In the step of calculating the height of the obstacle at the distance according to the angle ( S430 ), the height of the obstacle may be calculated with reference to Equation 1 . In addition, the step of calculating the height of the obstacle in the distance according to the angle ( S430 ) may be calculated through the topographic information generating unit 210 of the information generating unit 200 .

지형정보를 완성하는 단계(S440)는 [수학식 1]을 통해 계산된 장애물의 고도, 드론에서 라이다 센서까지의 거리, 장애물이 없을 때의 드론까지의 거리 및 드론의 고도를 기반으로 지형정보를 완성할 수 있다.The step of completing the terrain information (S440) is the terrain information based on the altitude of the obstacle calculated through [Equation 1], the distance from the drone to the lidar sensor, the distance to the drone when there is no obstacle, and the altitude of the drone. can be completed.

상술한 수학식 1을 기반으로 장애물의 고도를 계산하는 예시는 도 6의 (a)를 참고하여 확인할 수 있다. 도 6의 (a)는 본 발명의 일 실시 예에 따른 장애물의 고도를 계산하기 위한 예시도이다.An example of calculating the altitude of an obstacle based on Equation 1 above can be confirmed with reference to FIG. 6A . 6A is an exemplary diagram for calculating the height of an obstacle according to an embodiment of the present invention.

도 4에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 4에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능하다.Although it is described that each process is sequentially executed in FIG. 4, this is only illustratively described, and those skilled in the art change the order described in FIG. 4 within the range that does not depart from the essential characteristics of the embodiment of the present invention Alternatively, it is possible to apply various modifications and variations by executing one or more processes in parallel or adding other processes.

도 5는 본 발명의 일 실시 예에 따른 지형 비행 방법의 지형 비행 장치 회피 비행 위치 생성 및 전송을 나타내는 흐름도이다. 지형 비행 방법의 지형 비행 장치 회피 비행 위치 생성 및 전송은 지형 비행 장치(10)에 의하여 수행될 수 있으며, 중복되는 설명은 생략하기로 한다.5 is a flowchart illustrating the generation and transmission of a terrain flight device avoidance flight position of the terrain flight method according to an embodiment of the present invention. The terrain flight device avoidance flight position generation and transmission of the terrain flight method may be performed by the terrain flight device 10, and redundant description will be omitted.

지형 비행 방법의 지형 비행 장치 회피 비행 위치 생성 및 전송은 드론과 진행 방향 확인하여 이용할 지형 정보를 확인하는 단계(S510), 드론의 현재속도(v)값을 확인하여 지형정보에서 회피할 장애물의 위치 및 높이를 확인하는 단계(S520) 및 드론이 이동하여야 할 위치 및 높이 정보를 전송하는 단계(S530)를 포함한다.Generating and transmitting the terrain flight device avoidance flight position of the terrain flight method is a step of confirming the terrain information to be used by checking the traveling direction with the drone (S510), the location of the obstacle to be avoided in the terrain information by checking the current speed (v) value of the drone and confirming the height (S520) and transmitting information on the position and height to which the drone should move (S530).

드론과 진행 방향 확인하여 이용할 지형 정보를 확인하는 단계(S510)는 드론이 진행 방향을 기반으로 진행 방향에 위치하는 지형 정보를 확인할 수 있다. 여기서, 한번 확인된 지형 정보는 저장하여 다시 이동 시에 활용할 수 있다. 드론의 진행 방향은 전진을 0도에서 90도로, 후진을 90도에서 180도로 설정할 수 있으며, 반드시 이에 한정되는 것은 아니다.In the step of confirming the terrain information to be used by checking the traveling direction with the drone ( S510 ), topographic information located in the traveling direction of the drone may be confirmed based on the traveling direction. Here, the topographic information once checked can be stored and used again when moving. The direction of travel of the drone may be set to forward from 0 degrees to 90 degrees and backward from 90 degrees to 180 degrees, but is not limited thereto.

드론의 현재속도(v)값을 확인하여 지형정보에서 회피할 장애물의 위치 및 높이를 확인하는 단계(S520)는 수학식 2를 이용하여 지형정보에서 회피할 장애물의 위치 및 높이에 따른 회피할 장애물의 각도를 계산할 수 있다. 지형정보에서 회피할 장애물의 위치 및 높이에 따른 회피할 장애물의 각도의 계산은 [수학식 2]와 같이 구할 수 있다.The step of confirming the location and height of the obstacle to be avoided in the terrain information by checking the current speed v value of the drone (S520) is an obstacle to be avoided according to the location and height of the obstacle to be avoided in the terrain information using Equation 2 angle can be calculated. Calculation of the angle of the obstacle to be avoided according to the location and height of the obstacle to be avoided in the terrain information can be obtained as in [Equation 2].

Figure 112020113678664-pat00002
Figure 112020113678664-pat00002

상술한 [수학식 2]에서, d는 라이다 센서로 지형 또는 물체를 감지한 거리를 나타내고, v는 드론의 속도를 나타내고, β는 드론 지형 비행 장치(10)의 가속도 값에 의한 보정값을 나타낸다.In the above-mentioned [Equation 2], d represents the distance at which the terrain or object is sensed by the lidar sensor, v represents the speed of the drone, and β represents the correction value by the acceleration value of the drone terrain flight device 10 indicates.

드론의 현재속도(v)값을 확인하여 지형정보에서 회피할 장애물의 위치 및 높이를 확인하는 단계(S520)는 도 2를 참조하여 회피할 장애물의 각도를 계산할 수 있다.In the step (S520) of confirming the location and height of the obstacle to be avoided in the terrain information by checking the current speed (v) value of the drone, the angle of the obstacle to be avoided may be calculated with reference to FIG. 2 .

상술한 수학식 2를 기반으로 장애물의 고도를 계산하는 예시는 도 6의 (b)를 참고하여 확인할 수 있다. 도 6의 (b)는 본 발명의 일 실시 예에 따른 각도를 계산하기 위한 예시도이다.An example of calculating the height of an obstacle based on Equation 2 above can be confirmed with reference to FIG. 6B . 6B is an exemplary diagram for calculating an angle according to an embodiment of the present invention.

도 5에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 5에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능하다.Although it is described that each process is sequentially executed in FIG. 5, this is only illustratively described, and those skilled in the art change the order described in FIG. Alternatively, it is possible to apply various modifications and variations by executing one or more processes in parallel or adding other processes.

본 발명의 일 실시예에 따르면, 지형 정보 생성부(210)는 라이다 데이터 및 비행 데이터를 이용하여 지형 정보를 생성한다. 지형 정보는 지형 비행 장치(10)를 기준으로 현재 위치에서 지형 비행 장치(10)와 주변의 지형 또는 물체와의 거리를 통해 형태 및 크기를 포함하여 생성될 수 있다. 이때, 생성된 지형 정보는 지형 비행 장치(10)의 위치에 표시되어 지형 지도를 생성할 수 있다. 이때, 생성된 지형 지도는 기 저장된 지형 지도와 비교할 수 있다. 여기서, 정보 생성부(200)는 생성된 지형 지도와 기 저장된 지형 지도를 비교하여 중복되는 영역을 제거하여 생성할 수 있다. 이때, 중복되는 영역은 기 저장된 지형 지도에서 생성된 지형 지도를 제거하고, 생성된 지형 지도에서 기 저장된 지형 지도를 제거하여 생성할 수 있으며, 기 저장된 지형 지도에서 지형 또는 물체가 생겨나거나, 사라진 부분을 표시하여 주변 화경의 변화를 파악할 수 있다.According to an embodiment of the present invention, the terrain information generation unit 210 generates terrain information using lidar data and flight data. The terrain information may be generated including the shape and size through the distance between the terrain flying device 10 and the surrounding terrain or objects at the current location with respect to the terrain flying device 10 . At this time, the generated terrain information may be displayed on the location of the terrain flight device 10 to generate a terrain map. In this case, the generated topographical map may be compared with a pre-stored topographical map. Here, the information generating unit 200 may compare the generated topographic map with a pre-stored topographic map to remove overlapping regions to generate the generated topographic map. In this case, the overlapping area can be created by removing the generated topographical map from the pre-stored topographical map, removing the pre-stored topographical map from the generated topographical map, and a portion where a topography or object is created or disappeared from the pre-stored topographical map can be displayed to understand changes in the surrounding scene.

지형 비행 장치(10)는 비행 전 설정된 이동 위치 정보에 따른 이동 경로와 주변의 지형 또는 물체를 감지하여 수행된 회피 비행에 따른 변환된 이동 경로를 서로 비교할 수 있다. 이때, 이동 경로간의 비교는 지형 비행 장치(10)가 이동하는 동안 지속적으로 수행될 수 있으며, 더 이동하는 경로 값을 계산한다. 구체적으로, 지형 비행 장치(10)는 더 이동하는 경로 값에 따라 더 소비되는 연료 값을 계산하고, 이동 위치 정보에 따른 이동 위치를 완주할 수 있는지 여부를 판단하여 이동할 수 없는 경우, 이동 경로를 재설정할 수 있다.The terrain flight device 10 may compare the movement path according to the movement location information set before the flight and the converted movement path according to the avoidance flight performed by detecting the surrounding terrain or objects with each other. At this time, the comparison between the moving paths may be continuously performed while the terrain flight device 10 moves, and a further moving path value is calculated. Specifically, the terrain flight device 10 calculates a fuel value to be consumed more according to the value of the further moving path, and determines whether or not it can complete the moving position according to the moving position information. can be reset.

도 7은 도 2의 회전형 라이다 센서의 세부 구조를 나타내는 구조도이다.7 is a structural diagram illustrating a detailed structure of the rotary lidar sensor of FIG. 2 .

도 7에 도시된 회전형 라이다 센서(300)는 지지부(310), 본체(320) 및 회전형 송수신부(330)를 포함한다.The rotation type lidar sensor 300 shown in FIG. 7 includes a support unit 310 , a body 320 , and a rotation type transmission/reception unit 330 .

지지부(310)는 회전형 라이다 센서(300)를 지형 비행 장치(10)의 프레임에 고정하기 하기 위한 구성이다.The support 310 is a configuration for fixing the rotary lidar sensor 300 to the frame of the terrain flight device 10 .

본체(320)는 라이다 신호 처리부(322) 및 회전 구동부(324)를 포함한다.The body 320 includes a lidar signal processing unit 322 and a rotation driving unit 324 .

라이다 신호 처리부(322)는 회전형 송수신부(330)를 통해서 획득된 라이다 신호에 대한 신호처리를 통해, 지면 방향의 객체들에 대한 2차원 또는 3차원 라이다 영상을 획득한다. 회전형 송수신부(330)는 제1 송수신부(331, 332)와 제2 송수신부(333, 334)를 포함한다. 제1 송수신부는 제1 송광부(331), 제1 수광부(332)를 포함한다. 제2 송수신부는 제2 송광부(334)와, 제2 수광부(333)를 포함한다. 바람직하게는, 제2 송수신부는 지면 방향의 객체까지와의 거리를 계산할 수 있도록, 제2 송광부(334) 및 제2 수광부(333)가 이루는 면은 회전 구동부(324)의 회전축과 실질적으로 수직으로 구현될 수 있다. 제1 송수신부는 회전축과 비스듬한 방향의 객체 거리를 측정할 수 있도록, 제1 송광부(331) 및 제2 수광부(333)가 이루는 면은 회전축과 일정한 각도(5도 ~ 20도)를 이루도록 구성된다. The lidar signal processing unit 322 obtains a 2D or 3D lidar image of objects in the ground direction through signal processing on the lidar signal obtained through the rotary transceiver 330 . The rotary transceiver 330 includes first transceivers 331 and 332 and second transceivers 333 and 334 . The first transceiver includes a first light transmitting unit 331 and a first light receiving unit 332 . The second transceiver includes a second light transmitting unit 334 and a second light receiving unit 333 . Preferably, the surface formed by the second light transmitting unit 334 and the second light receiving unit 333 is substantially perpendicular to the rotation axis of the rotation driving unit 324 so that the second transmitting and receiving unit can calculate the distance to the object in the ground direction. can be implemented as The first transceiver unit is configured to form a surface formed by the first light transmitting unit 331 and the second light receiving unit 333 at a constant angle (5 degrees to 20 degrees) with the rotation axis so as to measure the distance between the rotation axis and the object in an oblique direction. .

또한, 제1 송광부(331)와 제2 송광부(334)에서 조사되는 광 신호는 서로 다른 파장 내지는 서로 다르게 변조된 것이 바람직하다. 제1 송광부(331)에서 송출되는 광 신호가 이루는 광 조사 영역과, 제1 수광부(332)에서 수신 가능한 광 수신 영역은 적어도 일부 교차해야 한다. 여기서, 교차된 영역은 제1 교차영역(342)이다. 마찬가지로, 제2 송광부(334)와 제2 수광부(333)도 본래의 시야 각에 따라 제2 교차영역(344)를 갖는다. 특히, 제1 수광부(332)와 제2 수광부(333)의 광 수신 영역은 이종 교차 영역(346)에서 적어도 일부 교차하도록 배치되는 것이 더욱 바람직하다. 이종 교차 영역이 존재하므로, 제1 수광부(331)는 제2 송광부(334)에서 송출되어 객체로부터 반사되어 입사되는 신호를 적어도 일부 수신할 수 있고, 제2 수광부(333)는 제1 송광부(331)에서 생성되어 객체로부터 반사되어 입사되는 신호를 수신할 수 있다. 입사되는 광 신호는 파장 또는 변조방식이 다르기 때문에 각각의 수광부는 해당 신호를 서로 구별할 수 있다.In addition, it is preferable that the optical signals irradiated from the first light transmitting unit 331 and the second light transmitting unit 334 are modulated with different wavelengths or different from each other. The light irradiation area formed by the optical signal transmitted from the first light transmitting unit 331 and the light receiving area receivable by the first light receiving unit 332 should at least partially cross each other. Here, the crossed area is the first crossed area 342 . Similarly, the second light transmitting unit 334 and the second light receiving unit 333 also have a second intersecting area 344 according to the original viewing angle. In particular, it is more preferable that the light receiving areas of the first light receiving unit 332 and the second light receiving unit 333 intersect at least partially in the heterogeneous intersection area 346 . Since the heterogeneous cross region exists, the first light receiving unit 331 may receive at least a part of the signal transmitted from the second light transmitting unit 334 and reflected from the object, and the second light receiving unit 333 is the first light transmitting unit A signal generated in 331 and reflected from the object may be received. Since the incident optical signals have different wavelengths or different modulation methods, each light receiving unit can distinguish the corresponding signals from each other.

본 구조의 회전형 라이다의 경우, 제1 수광부(332)와 제2 수광부(333)에서 수신되는 신호의 세기가 다를 수 있는데, 이는 해당 지점에서 지형 비행 장치(10)의 아래에 있는 객체가 수직방향의 구조를 갖는 것을 알 수 있다. 신호의 세기가 다르게 관측되는 영역은 객체의 경계로서, 예를 들어 건물의 측면일 수도 있고, 도로의 경계, 농작물이 존재하는 영역의 경계, 수목이 존재하는 영역의 경계일 수 있다. 이를 통해, 관측 대상물의 수직적 변화, 수직 방향의 경계적 특성을 파악할 수 있다.In the case of the rotating lidar of the present structure, the strength of the signal received from the first light receiving unit 332 and the second light receiving unit 333 may be different, which means that the object under the terrain flying device 10 at that point is It can be seen that the structure has a vertical direction. A region in which signal strength is observed differently is a boundary of an object, for example, a side of a building, a boundary of a road, a boundary of an area in which crops exist, and a boundary of an area in which trees exist. Through this, it is possible to grasp the vertical change of the object to be observed and the boundary characteristics of the vertical direction.

또한, 제1 송수신부(331, 332)와 제2 송수신부(333, 334)는 어레이 구조로 구현될 수 있으며, 반드시 이에 한정되는 것은 아니다.Also, the first transceivers 331 and 332 and the second transceivers 333 and 334 may be implemented in an array structure, but are not limited thereto.

도 8는 본 발명의 또 다른 일 실시예에 따른 센서 세부 구조를 나타내는 구조도이다. 도 8에 도시된 센서는, 회전형 라이다 센서(300')와 영상 획득부(400')를 포함한다. 회전형 라이다 센서(300')는 지지부(310'), 본체(320') 및 회전형 송수신부(330')를 포함한다. 본체(320')는 라이다 신호 처리부(322') 및 회전 구동부(324')를 포함하며, 공통된 사항에 대한 설명은 이하 생략한다.8 is a structural diagram illustrating a detailed structure of a sensor according to another embodiment of the present invention. The sensor shown in FIG. 8 includes a rotary lidar sensor 300 ′ and an image acquisition unit 400 ′. The rotation type lidar sensor 300 ′ includes a support unit 310 ′, a body 320 ′, and a rotation type transmission/reception unit 330 ′. The main body 320 ′ includes a lidar signal processing unit 322 ′ and a rotation driving unit 324 ′, and descriptions of common items will be omitted below.

앞선 도 7과 비교 할 때, 도 8의 회전형 라이다 센서(300')는 제1 송수신부(331', 332') 및 제2 송수신부(333', 334')의 전면이 이루는 각도가 서로 다르게 마련된다. 즉, 제1 송광부(331')와 제1 수광부(332')가 이루는 전면과, 제2 송광부(334')와 제2 수광부(333')가 지지부 방향과 이루는 각도가 서로 다르다. 제1 송수신부(331', 332') 및 제2 송수신부(333', 334')는 어레이 구조로 구현될 수 있으며, 반드시 이에 한정되는 것은 아니다.Compared with the previous FIG. 7, the rotational lidar sensor 300' of FIG. 8 has an angle formed by the front surfaces of the first transceivers 331' and 332' and the second transceivers 333', 334'. are prepared differently. That is, the angle between the front surface formed by the first light transmitting unit 331 ′ and the first light receiving unit 332 ′ and the second light transmitting unit 334 ′ and the second light receiving unit 333 ′ and the direction of the support portion are different from each other. The first transceivers 331 ′ and 332 ′ and the second transceivers 333 ′ and 334 ′ may be implemented in an array structure, but are not limited thereto.

송광부와 수광부는 각각 제1 교차영역(342')와 제2 교차영역(344')을 갖도록 배치되어야 하고, 제1 수광부(332')와 제2 수광부(333')는 이종 교차 영역(346')에서는 교차하도록 배치되는 것이 바람직하다. 이를 통해, 회전 구동부(324')가 위치하는 중심점을 기준으로 하여 객체까지의 거리는 물론, 좀더 넓은 시야각 확보가 가능하다. The light transmitting unit and the light receiving unit should be arranged to have a first intersecting area 342' and a second intersecting area 344', respectively, and the first light receiving unit 332' and the second light receiving unit 333' have a heterogeneous intersecting area 346 '), it is preferable to arrange to intersect. Through this, it is possible to secure a wider viewing angle as well as a distance to the object based on the central point at which the rotation driving unit 324' is located.

영상 획득부(400')는 렌즈(410'), 이미지센서(420') 및 영상 처리부(430')를 포함한다. 이미지센서(420')는 렌즈를 통해 입사되는 가시광 정보로부터 영상을 생성한다. 영상 처리부(430')는 지형 비행 장치(10)의 하방에 위치하는 지형지물에 대한 가시광 영상을 분석한다. 영상 처리부(430')는 가시광 영상 분석을 통해, 지형지물간의 경계, 현재의 지형 비행 장치(10)의 위치를 파악할 수 있다. 또한, 영상 처리부(430')는 라이다 영상과 가시광 영상에 따른 깊이 값에 따른 합성 영상을 더욱 생성할 수 있다.The image acquisition unit 400' includes a lens 410', an image sensor 420', and an image processing unit 430'. The image sensor 420' generates an image from visible light information incident through a lens. The image processing unit 430 ′ analyzes a visible light image of a feature located below the terrain flight device 10 . The image processing unit 430 ′ may determine the boundary between the topographic features and the location of the current topographic flight device 10 through visible light image analysis. Also, the image processing unit 430 ′ may further generate a composite image according to depth values according to the lidar image and the visible light image.

본 발명의 일 실시예에 따르면, 지형 비행 장치(10)는 렌즈를 통해 입사되는 가시광 정보로부터 생성된 영상과 회전형 라이다 센서(300)를 통해 획득한 지형 정보를 통해 생성된 지형 지도에 따른 영상을 입력 영상으로 입력할 수 있다. 여기서, 회전형 라이다 센서(300')를 통해 획득한 영상은 지형 비행 장치(10)의 위치에서 물체와의 거리를 확인하고, 각 물체의 윤곽을 확인할 수 있으며, 영상 획득부(400')를 통해 획득한 영상은 지형 비행 장치(10)의 위치에서 물체의 전체적인 형태를 확인할 수 있다. 지형 비행 장치(10)는 입력 영상을 컨볼루션 연산하여 필터링하는 입력 레지듀얼 블록(Resblock)을 이용하여 영상 개선을 위한 다수의 특징 맵을 추출하고, 추출된 다수의 특징 맵을 서로 결합하여 통합 특징 맵을 생성하며, 통합 특징 맵을 컨볼루션 연산하여 필터링하는 출력 레지듀얼 블록을 블록을 이용하여 특징 맵을 생성하고 생성된 특징 맵을 통해 왜곡이 개선된 출력 영상을 생성하는 영상 개선부(미도시)를 더 포함할 수 있다. 따라서, 영상 개선부는 회전형 라이다 센서(300') 및 영상 획득부(400')를 통해 획득한 각각의 영상을 입력 영상으로 하여 상술한 과정을 통해 영상의 왜곡을 개선한 출력 영상을 생성할 수 있다.여기서, 영상의 왜곡 개선은 초점 개선, 노출 개선, 대조비 개선, 거리 개선 등을 포함할 수 있으며, 반드시 이에 한정되는 것은 아니다. 특히, 거리 개선은 회전형 라이다 센서(300')를 통해 획득한 영상을 기반으로 이루어질 수 있으며, 이는 회전형 라이다 센서(300')가 객체까지의 거리를 더 정확하게 산출할 수 있기 때문이다.According to an embodiment of the present invention, the terrain flight device 10 is based on a topographic map generated through an image generated from visible light information incident through a lens and topographic information acquired through the rotary lidar sensor 300 . An image can be input as an input image. Here, the image acquired through the rotary lidar sensor 300' can check the distance from the object at the location of the terrain flight device 10, and confirm the outline of each object, and the image acquisition unit 400' The image acquired through can confirm the overall shape of the object at the location of the terrain flight device 10 . The terrain flight device 10 extracts a plurality of feature maps for image improvement using an input residual block (resblock) that filters the input image by convolutional operation, and combines the extracted feature maps with each other to combine features An image improvement unit (not shown) that generates a map, generates a feature map by using an output residual block that generates a map, performs convolution operation on the integrated feature map, and filters the output residual block, and generates an output image with improved distortion through the generated feature map ) may be further included. Therefore, the image improvement unit generates an output image with improved distortion of the image through the above-described process by using each image acquired through the rotary lidar sensor 300 ′ and the image acquisition unit 400 ′ as an input image. Here, the image distortion improvement may include, but is not limited to, focus improvement, exposure improvement, contrast ratio improvement, distance improvement, and the like. In particular, the distance improvement can be made based on the image acquired through the rotary lidar sensor 300', because the rotary lidar sensor 300' can more accurately calculate the distance to the object. .

본 발명의 또 다른 일 실시예에 따르면, 회전형 라이다 센서(300')와 지형 비행 장치(10)의 바디 사이에는 수직 방향 짐볼(미도시)을 더 포함할 수 있다. 수직 방향 짐볼 구조를 통해, 회전형 라이다 센서(300')에 포함된 2개의 송수신부들 중에서 하나의 송수신부는 수직 하방을 향하게 함으로써 수직 방향의 거리를 용이하게 획득하도록 구현할 수 있다.According to another embodiment of the present invention, a vertical gimbal (not shown) may be further included between the rotary lidar sensor 300 ′ and the body of the terrain flying device 10 . Through the vertical gimbal structure, one transceiver among the two transceivers included in the rotary lidar sensor 300 ′ may be oriented vertically downward to easily obtain a vertical distance.

본 발명의 또 다른 일 실시예에 따르면, 지형 비행 장치(10)는 비행 방향을 기준으로 하여 전방 또는 전방의 상방을 향하고 있는 영상 획득부(400')를 더 포함할 수 있다. 지형 비행 장치(10)에 포함되는 프로세서(메인 프로세서 또는 영상 처리 프로세서)는 계속적으로 획득되는 영상프레임들 중 서로 인접한 영상프레임에서 공통적으로 존재하는 랜드마크를 검출할 수 있다. 특히, 랜드마크에 포함된 지표면 기준 수직 방향의 특징점들을 검출할 수 있다. 예를 들어 제1시점의 영상프레임에서 랜드마크의 수직 방향 특징점들(예를 들어 에지 특징점들 등)과, 제1 시점과 인접한 제2 시점의 영상프레임에서 랜드마크의 수직 방향 특징점들을 결정할 수 있다. 프로세서는 제1 시점과 제2 시점 사이에 자신이 이동한 비행거리와, 상기 제1 시점, 제2 시점에서 획득된 수직 방향 특징점들을 이용하여, 수직 방향 특징점들이 이루는 수직 방향 벡터와 수직을 이루는 수평 방향 벡터를 산출할 수 있다. 프로세서는 여기서 산출된 수평 방향 벡터를 이용하여, 수평 방향 벡터의 방향으로 비행을 하기 위한 비행 제어 신호를 생성할 수 있다. 이에 따라 지형 비행 장치(10)는 지평선과 평행한 방향으로 비행을 할 수 있는데, 이는 지형 비행 장치(10)의 고도 변경에 따른 에너지 소모를 줄이는 효과가 있다. 또한, 프로세서는 기 획득되어 메모리에 저장된 해당 지역의 해발고도 정보와, 실제 비행에서 관측된 수직 하방까지의 거리 정보를 더욱 활용하여 경로를 결정할 수 있다. 이 경우, 현재의 비행 방향에 따라 비행을 계속 할 경우 충돌 등 위험 가능성이 있는 지형 지물과의 충돌 가능성 예측에 대한 연산을 줄여, 복잡한 연산에 따른 전력 소모를 더욱 줄일 수 있는 장점이 있다.According to another embodiment of the present invention, the terrain flight device 10 may further include an image acquisition unit 400 ′ facing forward or upward in the front with respect to the flight direction. The processor (main processor or image processing processor) included in the terrain flight device 10 may detect a landmark that is commonly present in image frames adjacent to each other among continuously acquired image frames. In particular, it is possible to detect feature points in a vertical direction with respect to the ground surface included in the landmark. For example, vertical feature points (eg, edge feature points, etc.) of the landmark in the image frame of the first view and the vertical direction feature points of the landmark in the image frame of the second view adjacent to the first view can be determined. . The processor uses the flight distance moved by itself between the first time point and the second time point and the vertical direction feature points obtained at the first and second time points, the horizontal direction forming a vertical vector formed by the vertical direction feature points A direction vector can be calculated. The processor may generate a flight control signal for flying in the direction of the horizontal direction vector by using the horizontal direction vector calculated here. Accordingly, the terrain flying device 10 can fly in a direction parallel to the horizon, which has the effect of reducing energy consumption according to the altitude change of the terrain flying device 10 . In addition, the processor may determine the route by further utilizing information about the elevation above sea level of the area previously acquired and stored in the memory and distance information from the vertical downward direction observed in the actual flight. In this case, if the flight continues according to the current flight direction, there is an advantage in that it is possible to further reduce power consumption due to complicated calculations by reducing the calculation for predicting the possibility of collision with a dangerous terrain feature such as a collision.

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.Even though all the components constituting the embodiment of the present invention described above are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications, changes, and substitutions are possible within the range that does not depart from the essential characteristics of the present invention by those of ordinary skill in the art to which the present invention pertains. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is not limited by these embodiments and the accompanying drawings . The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

10: 지형 비행 장치
100: 비행 제어부
200: 정보 생성부
300: 회전형 라이다 센서
10: Terrain Flying Device
100: flight control
200: information generating unit
300: rotary lidar sensor

Claims (10)

지형 비행 장치에 있어서,
주변의 지형 또는 물체를 감지하여 라이다 데이터를 생성하는 회전형 라이다 센서;
상기 지형 비행 장치의 위치정보, 상기 지형 비행 장치의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어하는 비행 제어부; 및
상기 라이다 데이터를 기반으로 지형 정보를 생성하고, 상기 지형 정보 및 상기 비행 데이터를 이용하여 상기 이동 위치 정보를 산출하는 정보 생성부를 포함하고,
상기 정보 생성부는, 상기 회전형 라이다 센서에서 생성된 라이다 데이터를 분석하여 지형 또는 상기 회전형 라이다 센서의 반사 강도에 따라 결정되는 물체의 형태 정보를 생성하며, 상기 비행 제어부는 상기 지형 또는 물체의 형태 정보 및 상기 지형 또는 물체의 크기를 기반으로 상기 지형 비행 장치의 회피 여부를 결정하고,
상기 지형 또는 물체에 대한 가시광 영상을 획득하여 분석하며, 상기 라이다 데이터 및 상기 가시광 영상의 깊이 값에 따른 합성 영상을 생성하는 영상 획득부; 및
렌즈를 통해 입사되는 가시광 정보로부터 생성된 상기 가시광 영상과 상기 회전형 라이다 센서를 통해 획득한 지형 정보를 통해 생성된 지형 지도에 따른 영상을 입력 영상으로 하여, 왜곡이 개선된 출력 영상을 생성하는 영상 개선부를 더 포함하고,
상기 영상 개선부는 상기 입력 영상을 컨볼루션 연산하여 필터링하는 입력 레지듀얼 블록(Resblock)을 이용하여 영상 개선을 위한 다수의 특징 맵을 추출하고, 상기 추출된 다수의 특징 맵을 서로 결합하여 통합 특징 맵을 생성하며, 상기 통합 특징 맵을 컨볼루션 연산하여 필터링하는 출력 레지듀얼 블록을 이용하여 특징 맵을 생성하고 상기 생성된 특징 맵을 통해 왜곡이 개선된 출력 영상을 생성하는 것을 특징으로 하는 지형 비행 장치.
In the terrain flying device,
a rotating lidar sensor that generates lidar data by sensing surrounding terrain or objects;
a flight controller for collecting flight data including at least one of the location information of the terrain flight device, attitude information or speed data of the terrain flight device, and receiving movement location information to control the flight; and
and an information generator for generating terrain information based on the lidar data, and calculating the movement location information using the terrain information and the flight data,
The information generating unit analyzes the lidar data generated by the rotary lidar sensor to generate information on the shape of the terrain or an object determined according to the reflection intensity of the rotational lidar sensor, and the flight controller includes the terrain or Determining whether to avoid the terrain flying device based on the shape information of the object and the size of the terrain or object,
an image acquisition unit that acquires and analyzes a visible light image of the terrain or object, and generates a composite image according to a depth value of the LIDAR data and the visible light image; and
By using the visible light image generated from the visible light information incident through the lens and the image according to the topographic map generated through the topographic information acquired through the rotary lidar sensor as an input image, to generate an output image with improved distortion Further comprising an image enhancement unit,
The image enhancement unit extracts a plurality of feature maps for image enhancement using an input residual block that filters the input image by convolutional operation, and combines the extracted feature maps with each other to create an integrated feature map and generating a feature map using an output residual block that filters the integrated feature map by convolution operation, and generates an output image with improved distortion through the generated feature map. .
제1항에 있어서,
상기 회전형 라이다 센서는,
상기 지형 비행 장치와 수직인 지표면까지의 고도를 나타내는 제1 거리; 및
상기 지형 비행 장치와 수직인 지표면을 기준으로 일정 각도만큼 회전하여 상기 지형 또는 물체까지의 거리를 나타내는 제2 거리를 감지하여 상기 라이다 데이터를 생성하는 것을 특징으로 하는 지형 비행 장치.
According to claim 1,
The rotary lidar sensor,
a first distance indicating an altitude to the surface perpendicular to the terrain flying device; and
Terrain flight device, characterized in that for generating the lidar data by detecting a second distance indicating the distance to the terrain or object by rotating by a predetermined angle based on the ground surface perpendicular to the terrain flight device.
제2항에 있어서,
상기 정보 생성부는,
상기 라이다 데이터 및 상기 비행 데이터를 이용하여 지형 정보를 생성하는 지형 정보 생성부를 포함하고,
상기 지형 정보 생성부는,
상기 지형 또는 물체의 위치에서 상기 일정 각도에 따른 지표면까지의 거리를 나타내는 제3 거리를 산출하고,
상기 제1 거리, 상기 제2 거리 및 상기 제3 거리를 이용하여 상기 일정 각도에서 감지한 상기 지형 또는 물체의 고도를 나타내는 제4 거리를 산출하는 것을 특징으로 하는 지형 비행 장치.
3. The method of claim 2,
The information generating unit,
and a terrain information generator for generating terrain information by using the lidar data and the flight data,
The terrain information generation unit,
calculating a third distance indicating the distance from the location of the terrain or object to the ground surface according to the predetermined angle;
Terrain flight device, characterized in that by using the first distance, the second distance, and the third distance to calculate a fourth distance indicating the altitude of the terrain or object sensed at the predetermined angle.
제3항에 있어서,
상기 지형 정보 생성부는,
상기 제2 거리, 상기 비행 데이터 및 상기 지형 비행 장치의 가속도 값에 의한 보정값을 이용하여 상기 일정 각도를 계산하는 것을 특징으로 하는 지형 비행 장치.
4. The method of claim 3,
The terrain information generation unit,
Terrain flying device, characterized in that for calculating the predetermined angle using the correction value by the second distance, the flight data and the acceleration value of the terrain flying device.
제3항에 있어서,
상기 지형 정보 생성부는,
상기 지형 비행 장치의 위치 정보를 기준으로 상기 제1 거리, 상기 제2 거리, 상기 제3 거리 및 상기 제4 거리를 통해 확인된 상기 지형 또는 물체의 위치와 미리 저장된 지형 데이터를 비교하여 상기 지형 정보를 생성하는 것을 특징으로 하는 지형 비행 장치.
4. The method of claim 3,
The terrain information generation unit,
The terrain information by comparing the location of the terrain or object identified through the first distance, the second distance, the third distance, and the fourth distance based on the location information of the terrain flight device with pre-stored terrain data Terrain flight device, characterized in that for generating.
제5항에 있어서,
상기 정보 생성부는,
상기 지형 비행 장치의 위치정보, 상기 일정 각도 및 상기 지형 정보를 이용하여 상기 지형 비행 장치가 상기 주변의 지형 또는 물체를 회피하여 이동하기 위한 상기 이동 위치 정보를 생성하는 이동 정보 생성부를 더 포함하고,
상기 비행 제어부는 상기 이동 위치 정보를 기반으로 상기 지형 비행 장치가 이동하는 위치, 각도 및 높이 정보를 적어도 하나 포함하여 상기 지형 비행 장치의 비행을 제어하는 것을 특징으로 하는 지형 비행 장치.
6. The method of claim 5,
The information generating unit,
Further comprising a movement information generation unit for generating the movement position information for the terrain flight apparatus to move while avoiding the surrounding terrain or objects by using the location information of the terrain flight device, the predetermined angle, and the terrain information,
The flight controller comprises at least one of the position, angle, and height information at which the terrain flight device moves based on the movement location information to control the flight of the terrain flight device.
제1항에 있어서,
상기 비행 제어부는,
상기 이동 위치 정보에 따른 이동 경로를 재설정하고, 상기 이동 경로를 기반으로 상기 지형 비행 장치의 현재 위치에서 상기 이동 경로까지의 상기 지형 비행 장치의 자세 및 속도를 제어하고,
상기 이동 경로는 상기 지형 또는 물체와의 충돌 없이 최소 거리로 근접하게 회피하여 주행하기 위한 경로로 설정되는 것을 특징으로 하는 지형 비행 장치.
According to claim 1,
The flight control unit,
Resets the movement path according to the movement location information, and controls the posture and speed of the terrain flight device from the current location of the terrain flight device to the movement path based on the movement path,
The moving path is a terrain flying device, characterized in that it is set as a path for driving while avoiding close to the minimum distance without collision with the terrain or object.
제7항에 있어서,
상기 이동 경로는,
상기 지형 비행 장치가 상기 주변의 지형 또는 물체를 인식한 시점부터 상기 주변의 지형 또는 물체 회피하여 이동한 시점까지의 경로인 것을 특징으로 하는 지형 비행 장치.
8. The method of claim 7,
The movement path is
Terrain flight device, characterized in that it is a path from a point in time when the terrain flight device recognizes the surrounding terrain or object to a point in time when it moves while avoiding the surrounding terrain or object.
삭제delete 제1항에 있어서,
상기 회전형 라이다 센서는,
제1 송광부 및 상기 제1 송광부로부터 송출되어 반사되는 신호를 수신하는 제1 수광부를 포함하는 제1 송수신부; 및
제2 송광부 및 상기 제2 송광부로부터 송출되어 반사되는 신호를 수신하는 제2 수광부를 포함하는 제2 송수신부를 포함하며,
상기 제1 송광부 및 상기 제1 수광부가 지향하는 방향과, 상기 제2 송광부 및 상기 제2 수광부가 지향하는 방향은 서로 다른 각도를 이루며, 상기 제1 수광부의 광 수신 영역과 상기 제2 수광부의 광 수신 영역은 적어도 이종 교차 영역에서 서로 교차하도록 배치되는 것을 특징으로 하는 지형 비행 장치.
According to claim 1,
The rotary lidar sensor,
a first transceiver including a first light transmitting unit and a first light receiving unit receiving a signal transmitted and reflected from the first light transmitting unit; and
a second transmitting/receiving unit including a second light transmitting unit and a second light receiving unit receiving a signal transmitted and reflected from the second light transmitting unit;
Directions to which the first light transmitting unit and the first light receiving unit are directed and the directions to which the second light transmitting unit and the second light receiving unit are directed form different angles, and the light receiving area of the first light receiving unit and the second light receiving unit are at different angles The light receiving area of the terrain flight device, characterized in that it is arranged to intersect each other at least in the heterogeneous intersection area.
KR1020200139720A 2020-06-15 2020-10-26 Apparatus for Terrain flight including lidar sensor KR102384333B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200072230 2020-06-15
KR1020200072230 2020-06-15

Publications (2)

Publication Number Publication Date
KR20210155322A KR20210155322A (en) 2021-12-22
KR102384333B1 true KR102384333B1 (en) 2022-04-07

Family

ID=79164395

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200139720A KR102384333B1 (en) 2020-06-15 2020-10-26 Apparatus for Terrain flight including lidar sensor

Country Status (1)

Country Link
KR (1) KR102384333B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102664428B1 (en) * 2022-02-15 2024-05-08 국립한국해양대학교산학협력단 An unmanned aerial vehicle for delivery with dual-LiDAR sensors

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160291136A1 (en) * 2015-03-31 2016-10-06 Amazon Technologies, Inc. Modular LIDAR System

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170083379A (en) * 2016-01-08 2017-07-18 한화테크윈 주식회사 A flight vehicle comprising LADAR system
KR20170126637A (en) * 2016-05-10 2017-11-20 팅크웨어(주) Method and system for providing route of unmanned air vehicle
KR102156801B1 (en) * 2019-02-28 2020-09-16 주식회사 켐에쎈 Drone with autonomous collision avoidance function and the method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160291136A1 (en) * 2015-03-31 2016-10-06 Amazon Technologies, Inc. Modular LIDAR System

Also Published As

Publication number Publication date
KR20210155322A (en) 2021-12-22

Similar Documents

Publication Publication Date Title
JP7143444B2 (en) aircraft smart landing
US8554395B2 (en) Method and system for facilitating autonomous landing of aerial vehicles on a surface
US20190273909A1 (en) Methods and systems for selective sensor fusion
JP6262701B2 (en) Laser scanning system and method of use
US10029804B1 (en) On-board, computerized landing zone evaluation system for aircraft
JP7263630B2 (en) Performing 3D reconstruction with unmanned aerial vehicles
JP6487143B2 (en) Tree measurement system
KR101553998B1 (en) System and method for controlling an unmanned air vehicle
CN110537109A (en) Sensing component for autonomous driving
US20110285981A1 (en) Sensor Element and System Comprising Wide Field-of-View 3-D Imaging LIDAR
JP2018512687A (en) Environmental scanning and unmanned aircraft tracking
JP2021510819A (en) Exploration equipment and its parameter adjustment method
KR100901311B1 (en) Autonomous mobile platform
CN109917420A (en) A kind of automatic travelling device and robot
BRPI1106214A2 (en) Method for adjusting speed of mobile machine, and mobile machine
JP7475118B2 (en) SYSTEM AND METHOD FOR REDUCING THE IMPACT OF DVE ON LIDAR RETURNS
CN109521780B (en) Control system and control method for remote control work vehicle
KR102384333B1 (en) Apparatus for Terrain flight including lidar sensor
CN110109146A (en) Pavement detection method and device based on multi-line laser radar
CN112146627B (en) Aircraft imaging system using projection patterns on featureless surfaces
KR102408372B1 (en) Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor
JP2019185213A (en) Autonomous movement robot and control method thereof
CN107544073A (en) A kind of Air Vehicle Detection method and height control method
Ollis et al. Structural method for obstacle detection and terrain classification
CN218567613U (en) Lidar sensor with redundant beam scanning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant