KR101736089B1 - UAV flight control device and method for object shape mapping and real-time guidance using depth map - Google Patents

UAV flight control device and method for object shape mapping and real-time guidance using depth map Download PDF

Info

Publication number
KR101736089B1
KR101736089B1 KR1020150002699A KR20150002699A KR101736089B1 KR 101736089 B1 KR101736089 B1 KR 101736089B1 KR 1020150002699 A KR1020150002699 A KR 1020150002699A KR 20150002699 A KR20150002699 A KR 20150002699A KR 101736089 B1 KR101736089 B1 KR 101736089B1
Authority
KR
South Korea
Prior art keywords
uav
obstacle
mapping
depth map
distance
Prior art date
Application number
KR1020150002699A
Other languages
Korean (ko)
Other versions
KR20160085963A (en
Inventor
김유단
박종호
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020150002699A priority Critical patent/KR101736089B1/en
Publication of KR20160085963A publication Critical patent/KR20160085963A/en
Application granted granted Critical
Publication of KR101736089B1 publication Critical patent/KR101736089B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/50Aeroplanes, Helicopters
    • B64C2201/123
    • B64C2201/127
    • B64C2201/14
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

깊이 지도를 이용한 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치 및 방법이 개시된다. 본 발명의 일 실시예에 따른 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치는, 다중 카메라를 통해 다중 영상을 획득하고, 다중 영상 처리를 통해 깊이 정보를 포함하는 깊이 지도를 생성하는 깊이 지도 생성부; 상기 깊이 지도에 기초하여 획득한 깊이 정보로부터 상기 다중 영상 내에 존재하는 장애물을 감지하는 장애물 감지부; 감지된 상기 장애물에 대해 상기 깊이 지도에서의 위치를 관성 프레임(inertial frame)의 절대 위치로 변환하는 맵핑부; 및 상기 무인기와 상기 장애물의 위치 관계에 따라 상기 무인기의 위치 및 자세를 제어하는 무인기 기동부를 포함할 수 있다. Disclosed is an apparatus and method for controlling a UAV for object mapping and real time guidance using a depth map. The UAV control device for object shape mapping and real-time guidance according to an embodiment of the present invention includes a plurality of cameras for acquiring multiple images, and a depth map generating depth map including depth information through multiple image processing part; An obstacle detection unit for detecting obstacles existing in the multiple images from the depth information acquired based on the depth map; A mapping unit for converting a position in the depth map of the obstacle detected to an absolute position of an inertial frame; And an unmanned launching unit for controlling the position and attitude of the UAV according to the positional relationship between the UAV and the obstacle.

Description

깊이 지도를 이용한 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치 및 방법{UAV flight control device and method for object shape mapping and real-time guidance using depth map}[0001] UAV flight control device and method for object shape mapping and real-time guidance using depth map [

본 발명은 깊이 지도를 이용한 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치 및 방법에 관한 것이다.
The present invention relates to an apparatus and method for UAV control for object shape mapping and real-time guidance using depth maps.

일반적으로 항공기는 지표면에 대한 공기의 반작용으로 대기 중에서 지지력을 획득할 수 있는 기계를 의미한다. In general, an aircraft is a machine that can acquire bearing capacity in the atmosphere by the reaction of air to the surface.

항공기 중에서 무인기(UAV, Unmanned Aerial Vehicle)는 조종사가 탑승하지 않는 항공기로서, 최근 군사 분야뿐만 아니라 민간 분야에서도 많은 주목을 끌고 있다. Unmanned Aerial Vehicle (UAV) is a non-pilot aircraft that has attracted much attention in the civilian field as well as the military in recent years.

무인기는 전쟁터, 재난지역과 같이 위험환경에서도 효율적이면서도 효과적으로 다양한 임무 수행을 할 수 있어, 감시, 정찰, 모니터링, 탐사, 맵핑, 운송, 재난 원조 등과 같은 임무를 위해 광범위하게 사용되고 있다. UAVs are used extensively for missions such as surveillance, reconnaissance, monitoring, exploration, mapping, transportation, and disaster relief, as they can perform various tasks effectively and effectively in hazardous environments such as battlefields and disaster areas.

이러한 임무 중에서 맵핑 임무의 경우, 자연구조물 및 인공구조물을 포함하는 다양한 미지의 장애물(obstacle)에 접근하여 해당 장애물의 형상을 파악하여 제공함으로써, 추후 임무 수행 계획 시 효율적인 작업이 가능하도록 도울 수 있다. Among these missions, the mapping task can help the efficient work in the planning of the future mission planning by accessing various unknown obstacles including natural structures and artificial structures and grasping the shapes of the obstacles.

대표적인 무인기로는 쿼드로터(quadrotor)가 있는데, 고기동성뿐만 아니라 수직 이착륙 수행 능력으로 인해 대중적인 무인기 플랫폼으로 부각되고 있다. As a typical UAV, there is a quadrotor, which is becoming a popular UAV platform due to its ability to carry out vertical takeoff and landing as well as high speed.

쿼드로터는 4개의 로터를 가지는 2개의 로드가 교차 구현되어 구성된 회전익 무인기이다. 전형적인 헬리콥터와는 달리, 쿼드로터는 역회전하는 로터의 수직 추력을 이용하여 밸런스를 맞춘다. 그러므로, 꼬리 로터가 요구되지 않아, 결과적으로 접촉 위험을 감소시키게 된다. 또한, 쿼드로터의 각 로터는 헬리콥터의 메인 로터에 비해 꽤 작아서 충돌 시에 손상 영향을 감소시킨다.The quad rotor is a rotary wing unmanned aircraft constructed by crossing two rods with four rotors. Unlike a typical helicopter, the quad rotor balances using the vertical thrust of a rotor that is reversing. Therefore, a tail rotor is not required, resulting in reduced contact risk. In addition, each rotor of the quad rotor is considerably smaller than the main rotor of the helicopter, thereby reducing the damage effect in the event of a collision.

자율 비행을 수행하기 위해서는 경로 계획(path planning)이 무인기에 요구된다. Path planning is required for UAV to perform autonomous flight.

도 1은 온라인 경로 계획의 문제점을 설명하기 위한 도면이다. 1 is a diagram for explaining a problem of an online route planning.

전형적인 온라인 경로 계획 문제점으로는, 시작점에서 목표점까지 미리 계획된 경로(20)가 계획 알고리즘에 의해 설계된 이후, 무인기는 도 1에 도시된 것과 같이 예기치 못한 장애물(10)을 만나거나 주어지는 임무가 변경될 때마다 실시간으로 경로를 재계획하여 재계획된 경로(22)를 설계해야 한다는 것이다. As a typical on-line path planning problem, since the pre-planned path 20 from the start point to the target point is designed by the planning algorithm, the UAV will either encounter an unexpected obstacle 10 as shown in FIG. 1, It is necessary to re-plan the route in real time to design the redesigned route 22.

하지만, 고려환경이 완전히 미지인 경우 미리 계획된 경로가 존재하지 않게 되어, 무인기의 경로를 계산하기 위해 실시간 유도 알고리즘이 필수적이게 된다. However, if the consideration environment is completely unknown, there is no pre-planned route, and a real-time guidance algorithm is necessary to calculate the path of the UAV.

관련 기술로는 한국공개특허 제10-2014-0117836호(무인자율차량을 위한 주행경로 생성장치 및 이의 제어방법)에는 환경모드와 주행모드의 조합으로 정의되는 상태 기반의 경로계획 기법을 적용함으로써 도심환경에서 무인자율차량의 효과적인 경로생성이 가능한 기술이 개시되어 있다. 하지만, 차량에 관한 것으로 2차원 평면적인 부분에 한정되어 있고, 격자지도를 활용하여 무인자율차량의 자율주행을 위한 경로계획을 수립하는 한계가 있다.As a related art, Korean Patent Laid-Open No. 10-2014-0117836 (a traveling path generating device for an unmanned autonomous vehicle and its control method) is applied to a state-based path planning technique defined by a combination of an environmental mode and a traveling mode, A technique capable of generating an effective path of an unmanned autonomous vehicle in an environment is disclosed. However, it is limited to a two-dimensional planar part regarding the vehicle, and there is a limit to establish a route plan for autonomous vehicle running by using a grid map.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
The above-described background technology is technical information that the inventor holds for the derivation of the present invention or acquired in the process of deriving the present invention, and can not necessarily be a known technology disclosed to the general public prior to the filing of the present invention.

한국공개특허 제10-2014-0117836호Korean Patent Publication No. 10-2014-0117836

본 발명은 미리 계획된 경로가 존재하지 않는 상황에서 무인기가 스테레오 비젼 센서를 사용하여 미지의 장애물을 맵핑하기 위한 실시간 유도가 가능한 깊이 지도를 이용한 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치 및 방법을 제공하기 위한 것이다.The object of the present invention is to provide an apparatus and method for controlling object-to-object mapping and real-time guidance using a depth map capable of real-time guidance for mapping an unknown obstacle by using a stereo vision sensor in a situation where there is no pre- .

본 발명은 깊이 지도로부터 데이터 지점을 획득함으로써 장애물 형상의 맵핑이 수행되고, 장애물을 효율적으로 맵핑하기 위한 경로를 생성하기 위해 무인기의 상태를 사용하는 깊이 지도를 이용한 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치 및 방법을 제공하기 위한 것이다.The present invention relates to object map mapping using a depth map using a state of an unmanned aerial vehicle to generate a path for efficiently mapping obstacles by performing mapping of an obstacle shape by acquiring data points from a depth map, And to provide a flight control device and method.

본 발명은 무인기의 수평위치 상태를 사용하여 모든 방향에서 장애물 정보를 획득하고 이상적인 간격을 유지할 수 있도록 하며, 헤딩각을 제어하여 맵핑 동안 이동 방향에서의 충돌을 방지하는 것이 가능하고, 무인기의 수직위치 상태를 사용하여 이미지 평면에 나타나지 않은 장애물의 일부분을 맵핑할 수 있는 깊이 지도를 이용한 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치 및 방법을 제공하기 위한 것이다.The present invention makes it possible to acquire obstacle information in all directions and maintain an ideal gap by using the horizontal position state of the UAV, to prevent the collision in the moving direction during the mapping by controlling the heading angle, The object of the present invention is to provide an apparatus and a method for controlling a UAV for real-time guidance and object shape mapping using a depth map capable of mapping a part of an obstacle that does not appear in the image plane.

본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.
Other objects of the present invention will become readily apparent from the following description.

본 발명의 일 측면에 따르면, 다중 카메라를 통해 다중 영상을 획득하고, 다중 영상 처리를 통해 깊이 정보를 포함하는 깊이 지도를 생성하는 깊이 지도 생성부; 상기 깊이 지도에 기초하여 획득한 깊이 정보로부터 상기 다중 영상 내에 존재하는 장애물을 감지하는 장애물 감지부; 감지된 상기 장애물에 대해 상기 깊이 지도에서의 위치를 관성 프레임(inertial frame)의 절대 위치로 변환하는 맵핑부; 및 상기 무인기와 상기 장애물의 위치 관계에 따라 상기 무인기의 위치 및 자세를 제어하는 무인기 기동부를 포함하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치가 제공된다. According to an aspect of the present invention, there is provided a depth map generation unit for acquiring multiple images through multiple cameras and generating a depth map including depth information through multiple image processing; An obstacle detection unit for detecting obstacles existing in the multiple images from the depth information acquired based on the depth map; A mapping unit for converting a position in the depth map of the obstacle detected to an absolute position of an inertial frame; And an unmanned launching unit for controlling the position and attitude of the UAV according to the positional relationship between the UAV and the obstacle.

상기 장애물의 위치 및 형상은 미지(unknown) 상태일 수 있다.The location and shape of the obstacle may be unknown.

상기 무인기 기동부는 상기 관성 프레임의 xy평면에 평행한 경로를 생성하기 위해 상기 무인기의 수평 위치를 제어하는 수평 위치 제어부를 포함할 수 있다.The UAV may include a horizontal position controller for controlling the horizontal position of the UAV to generate a path parallel to the xy plane of the inertia frame.

상기 수평 위치 제어부는, 상기 무인기가 상기 장애물로부터 이상적인 거리로부터 미리 설정된 범위를 벗어나 상기 장애물에 가까워지는 경우에는 상기 장애물에 대한 접선 벡터에는 0의 가중치를 주고 상기 장애물에 대한 법선 벡터에는 1의 가중치를 주어 상기 장애물로부터 멀어지는 방향으로 상기 무인기를 기동시키고, 상기 무인기가 이상적인 거리로부터 미리 설정된 범위를 벗어나 상기 장애물로부터 멀어지는 경우에는 상기 접선 벡터에는 0의 가중치를 주고 상기 법선 벡터에는 -1의 가중치를 주어 상기 장애물로 가까워지는 방향으로 상기 무인기를 기동시키며, 상기 무인기가 이상적인 거리로부터 미리 설정된 범위 이내에 있는 경우에는 상기 접선 벡터의 가중치와 상기 법선 벡터의 가중치를 -1과 1 사이의 값으로 설정하여 상기 장애물의 형상 맵핑이 수행되도록 할 수 있다.The horizontal position control unit may assign a weight of 0 to the tangent vector for the obstacle and a weight of 1 for the normal vector for the obstacle when the UAV becomes closer to the obstacle from the predetermined range from the ideal distance from the obstacle And when the UAV moves away from the ideal range from the obstacle, the tangent vector is given a weight of 0, and the normal vector is given a weight of -1, Wherein when the UAV is within a predetermined range from the ideal distance, the weight of the tangent vector and the weight of the normal vector are set to a value between -1 and 1, brother This mapping can be performed.

상기 수평 위치 제어부는 하기 수학식에 따라 상기 무인기의 수평 위치를 제어할 수 있다. The horizontal position controller may control the horizontal position of the UAV according to the following equation.

Figure 112015001876620-pat00001
Figure 112015001876620-pat00001

Figure 112015001876620-pat00002
Figure 112015001876620-pat00002

여기서,

Figure 112015001876620-pat00003
는 상기 무인기가 제어될 수평 위치 상태,
Figure 112015001876620-pat00004
은 위치 가중 파라미터,
Figure 112015001876620-pat00005
는 접선 벡터,
Figure 112015001876620-pat00006
는 법선 벡터,
Figure 112015001876620-pat00007
는 상기 무인기의 현재 위치 벡터,
Figure 112015001876620-pat00008
,
Figure 112015001876620-pat00009
은 상기 무인기와 상기 장애물의 최근접 거리,
Figure 112015001876620-pat00010
는 상기 무인기와 상기 장애물의 이상적인 거리,
Figure 112015001876620-pat00011
은 위치 가중 파라미터의 변곡 기준점임.here,
Figure 112015001876620-pat00003
The horizontal position state in which the UAV is controlled,
Figure 112015001876620-pat00004
Is a position weighting parameter,
Figure 112015001876620-pat00005
Is a tangent vector,
Figure 112015001876620-pat00006
Is a normal vector,
Figure 112015001876620-pat00007
Is the current position vector of the UAV,
Figure 112015001876620-pat00008
,
Figure 112015001876620-pat00009
The distance between the UAV and the obstacle,
Figure 112015001876620-pat00010
Is an ideal distance between the UAV and the obstacle,
Figure 112015001876620-pat00011
Is the inflection point of the position weighting parameter.

상기 무인기의 이동 방향으로 상기 장애물의 일부분과의 거리를 측정하는 거리 측정 센서를 더 포함하되, 상기 무인기 기동부는 상기 무인기의 이동 방향으로 상기 장애물의 일부분이 미리 지정된 간격 이내에 근접할 경우 무인기의 헤딩각을 회전시켜 상기 무인기의 센서 시선 방향과 상기 이동 방향이 변경되도록 하는 헤딩각 제어부를 포함할 수 있다.And a distance measuring sensor for measuring a distance from the obstacle in a moving direction of the UAV, wherein the UAV has a heading angle of the UAV when the part of the obstacle is within a predetermined distance in the moving direction of the UAV, And a heading angle controller for changing the direction of the sensor line of sight of the UAV and the movement direction of the UAV.

상기 헤딩각 제어부는 하기 수학식에 따라 상기 무인기의 헤딩각을 제어할 수 있다. The heading angle control unit may control the heading angle of the UAV according to the following equation.

Figure 112015001876620-pat00012
Figure 112015001876620-pat00012

Figure 112015001876620-pat00013
Figure 112015001876620-pat00013

여기서,

Figure 112015001876620-pat00014
는 상기 무인기가 제어될 요 각도 상태,
Figure 112015001876620-pat00015
는 자세 가중 파라미터,
Figure 112015001876620-pat00016
는 센서 시선 방향의 요 각도,
Figure 112015001876620-pat00017
는 무인기 이동 방향의 요 각도,
Figure 112015001876620-pat00018
는 이동 방향으로의 상기 무인기와 상기 장애물 사이의 간격,
Figure 112015001876620-pat00019
는 허용간격 상한,
Figure 112015001876620-pat00020
는 허용간격 하한임.here,
Figure 112015001876620-pat00014
Is a state in which the UAV is controlled,
Figure 112015001876620-pat00015
A posture weighting parameter,
Figure 112015001876620-pat00016
The yaw angle in the sensor sight direction,
Figure 112015001876620-pat00017
The yaw angle of the UAV movement direction,
Figure 112015001876620-pat00018
The distance between the unmanned aerial vehicle and the obstacle in the moving direction,
Figure 112015001876620-pat00019
Is the upper limit of the allowable interval,
Figure 112015001876620-pat00020
Is the allowable spacing.

상기 무인기 기동부는 감지된 상기 장애물의 형상이 상기 다중 영상의 이미지 평면 내에 포함되지 않을 경우 위 혹은 아래 방향으로 상기 무인기를 기동시켜 상기 장애물이 상기 이미지 평면 내에 놓여지도록 하는 수직 위치 제어부를 포함할 수 있다.The UAV may include a vertical position control unit for activating the UAV when the detected shape of the obstacle is not included in the image plane of the multiple images so that the UAV is placed in the image plane .

상기 수직 위치 제어부는 상기 장애물이 위아래 방향으로 모두 상기 이미지 평면 내에 맞춰지지 않는다면, 위 혹은 아래 방향 중 일 방향을 선택하여 상기 무인기를 기동시키고, 상기 장애물의 일 끝단에 도달하면 타 방향으로 상기 무인기를 기동시킬 수 있다.If the obstacle is not aligned in the image plane in the up and down directions, the vertical position control unit activates the UAV by selecting one of the up and down directions, and if the obstacle reaches one end of the obstacle, Can be activated.

상기 맵핑부는 상기 무인기가 타 방향으로 이동할 때 맵핑을 수행할 수 있다.The mapping unit may perform mapping when the UAV moves in the other direction.

상기 맵핑부는 상기 장애물에 대해 수집된 데이터 지점의 시차(disparity)를 이용하여 중복 데이터를 제거할 수 있다.The mapping unit may remove redundant data using a disparity of data points collected for the obstacle.

상기 맵핑부는 임의의 데이터 지점을 중심으로 미리 지정된 범위 내에 존재하는 타 데이터 지점과의 시차를 비교하여 높은 시차를 가지는 데이터 지점을 제외한 나머지 데이터 지점을 제거할 수 있다.The mapping unit may compare the time difference with another data point existing within a predetermined range around an arbitrary data point to remove the data points except the data point having a high time difference.

한편 본 발명의 다른 측면에 따르면, 무인기에 설치되어 상기 무인기의 비행을 제어하는 무인기 비행 제어 장치에 의해 수행되는 무인기 비행 제어 방법 및 이를 수행하기 위한 프로그램이 기록된 기록매체가 제공된다.According to another aspect of the present invention, there is provided a UAV flight control method implemented by a UAV that is installed in a UAV and controls the flight of the UAV, and a recording medium on which a program for performing the UAV flight control is recorded.

일 실시예에 따른 무인기 비행 제어 방법은, (a) 다중 카메라를 통해 다중 영상을 획득하고, 다중 영상 처리를 통해 깊이 정보를 포함하는 깊이 지도를 생성하는 단계; (b) 상기 깊이 지도에 기초하여 획득한 깊이 정보로부터 상기 다중 영상 내에 존재하는 장애물을 감지하는 단계; (c) 상기 무인기와 상기 장애물의 위치 관계에 따라 상기 무인기의 위치 및 자세를 제어하는 단계; 및 (d) 감지된 상기 장애물에 대해 상기 깊이 지도에서의 위치를 관성 프레임(inertial frame)의 절대 위치로 변환하는 단계를 포함할 수 있다.The method includes the steps of: (a) acquiring multiple images through multiple cameras and generating a depth map including depth information through multiple image processing; (b) detecting an obstacle existing in the multiple image from depth information acquired based on the depth map; (c) controlling the position and posture of the UAV according to the positional relationship between the UAV and the obstacle; And (d) converting the position at the depth map to the absolute position of the inertial frame for the detected obstacle.

상기 단계 (c)는 상기 관성 프레임의 xy평면에 평행한 경로를 생성하기 위해 상기 무인기의 수평 위치를 제어하는 단계 (c1)을 포함할 수 있다.The step (c) may include the step (c1) of controlling the horizontal position of the UAV to produce a path parallel to the xy plane of the inertia frame.

상기 단계 (c1)는, 상기 무인기가 상기 장애물로부터 이상적인 거리로부터 미리 설정된 범위를 벗어나 상기 장애물에 가까워지는 경우에는 상기 장애물에 대한 접선 벡터에는 0의 가중치를 주고 상기 장애물에 대한 법선 벡터에는 1의 가중치를 주어 상기 장애물로부터 멀어지는 방향으로 상기 무인기를 기동시키고, 상기 무인기가 이상적인 거리로부터 미리 설정된 범위를 벗어나 상기 장애물로부터 멀어지는 경우에는 상기 접선 벡터에는 0의 가중치를 주고 상기 법선 벡터에는 -1의 가중치를 주어 상기 장애물로 가까워지는 방향으로 상기 무인기를 기동시키며, 상기 무인기가 이상적인 거리로부터 미리 설정된 범위 이내에 있는 경우에는 상기 접선 벡터의 가중치와 상기 법선 벡터의 가중치를 -1과 1 사이의 값으로 설정하여 상기 장애물의 형상 맵핑이 수행되도록 할 수 있다.In the step (c1), when the UAV becomes closer to the obstacle from the predetermined range from the ideal distance from the obstacle, a weight of 0 is given to the tangent vector to the obstacle and a weight of 1 to the normal vector to the obstacle And when the UAV moves away from the ideal range and away from the obstacle, the tangent vector is given a weight of 0 and the normal vector is given a weight of -1 The weight of the tangent vector and the weight of the normal vector are set to a value between -1 and 1 so that the obstacle is close to the obstacle, Shape mapping of .

상기 단계 (c1)는 하기 수학식에 따라 상기 무인기의 수평 위치를 제어할 수 있다. The step (c1) may control the horizontal position of the UAV according to the following equation.

Figure 112015001876620-pat00021
Figure 112015001876620-pat00021

Figure 112015001876620-pat00022
Figure 112015001876620-pat00022

여기서,

Figure 112015001876620-pat00023
는 상기 무인기가 제어될 수평 위치 상태,
Figure 112015001876620-pat00024
은 위치 가중 파라미터,
Figure 112015001876620-pat00025
는 접선 벡터,
Figure 112015001876620-pat00026
는 법선 벡터,
Figure 112015001876620-pat00027
는 상기 무인기의 현재 위치 벡터,
Figure 112015001876620-pat00028
,
Figure 112015001876620-pat00029
은 상기 무인기와 상기 장애물의 최근접 거리,
Figure 112015001876620-pat00030
는 상기 무인기와 상기 장애물의 이상적인 거리,
Figure 112015001876620-pat00031
은 위치 가중 파라미터의 변곡 기준점임.here,
Figure 112015001876620-pat00023
The horizontal position state in which the UAV is controlled,
Figure 112015001876620-pat00024
Is a position weighting parameter,
Figure 112015001876620-pat00025
Is a tangent vector,
Figure 112015001876620-pat00026
Is a normal vector,
Figure 112015001876620-pat00027
Is the current position vector of the UAV,
Figure 112015001876620-pat00028
,
Figure 112015001876620-pat00029
The distance between the UAV and the obstacle,
Figure 112015001876620-pat00030
Is an ideal distance between the UAV and the obstacle,
Figure 112015001876620-pat00031
Is the inflection point of the position weighting parameter.

상기 무인기의 이동 방향으로 상기 장애물의 일부분과의 거리를 측정하는 단계를 더 포함하되, 상기 단계 (c)는 상기 무인기의 이동 방향으로 상기 장애물의 일부분이 미리 지정된 간격 이내에 근접할 경우 무인기의 헤딩각을 회전시켜 상기 무인기의 센서 시선 방향과 상기 이동 방향이 변경되도록 하는 단계 (c2)를 포함할 수 있다. Further comprising the step of measuring a distance to a part of the obstacle in a moving direction of the UAV, wherein the step (c) further includes a step of, when a part of the obstacle is within a predetermined interval in the moving direction of the UAV, (C2) so that the direction of the sensor line of sight of the UAV and the movement direction are changed.

상기 단계 (c2)는 하기 수학식에 따라 상기 무인기의 헤딩각을 제어할 수 있다. The step (c2) may control the heading angle of the UAV according to the following equation.

Figure 112015001876620-pat00032
Figure 112015001876620-pat00032

Figure 112015001876620-pat00033
Figure 112015001876620-pat00033

여기서,

Figure 112015001876620-pat00034
는 상기 무인기가 제어될 요 각도 상태,
Figure 112015001876620-pat00035
는 자세 가중 파라미터,
Figure 112015001876620-pat00036
는 센서 시선 방향의 요 각도,
Figure 112015001876620-pat00037
는 무인기 이동 방향의 요 각도,
Figure 112015001876620-pat00038
는 이동 방향으로의 상기 무인기와 상기 장애물 사이의 간격,
Figure 112015001876620-pat00039
는 허용간격 상한,
Figure 112015001876620-pat00040
는 허용간격 하한임.here,
Figure 112015001876620-pat00034
Is a state in which the UAV is controlled,
Figure 112015001876620-pat00035
A posture weighting parameter,
Figure 112015001876620-pat00036
The yaw angle in the sensor sight direction,
Figure 112015001876620-pat00037
The yaw angle of the UAV movement direction,
Figure 112015001876620-pat00038
The distance between the unmanned aerial vehicle and the obstacle in the moving direction,
Figure 112015001876620-pat00039
Is the upper limit of the allowable interval,
Figure 112015001876620-pat00040
Is the allowable spacing.

상기 단계 (c)는 감지된 상기 장애물의 형상이 상기 다중 영상의 이미지 평면 내에 포함되지 않을 경우 위 혹은 아래 방향으로 상기 무인기를 기동시켜 상기 장애물이 상기 이미지 평면 내에 놓여지도록 하는 단계 (c3)를 포함할 수 있다.Wherein the step (c) includes the step (c3) of causing the obstacle to be placed in the image plane by activating the UAV if the detected shape of the obstacle is not included in the image plane of the multiple images can do.

상기 단계 (c3)는 상기 장애물이 위아래 방향으로 모두 상기 이미지 평면 내에 맞춰지지 않는다면, 위 혹은 아래 방향 중 일 방향을 선택하여 상기 무인기를 기동시키고, 상기 장애물의 일 끝단에 도달하면 타 방향으로 상기 무인기를 기동시킬 수 있다.If the obstacle is not aligned within the image plane in all the up and down directions, the step (c3) may select one of the up and down directions to start the UAV, and if the obstacle reaches one end of the obstacle, .

상기 단계 (d)는 상기 무인기가 타 방향으로 이동할 때 맵핑을 수행할 수 있다.The step (d) may perform the mapping when the UAV moves in the other direction.

상기 단계 (d)는 상기 장애물에 대해 수집된 데이터 지점의 시차를 이용하여 중복 데이터를 제거할 수 있다.The step (d) may remove redundant data using the parallax of the data points collected for the obstacle.

상기 단계 (d)는 임의의 데이터 지점을 중심으로 미리 지정된 범위 내에 존재하는 타 데이터 지점과의 시차를 비교하여 높은 시차를 가지는 데이터 지점을 제외한 나머지 데이터 지점을 제거할 수 있다.The step (d) may compare the time difference with another data point existing within a predetermined range around an arbitrary data point to remove the remaining data points except the data point having a high time difference.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.
Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예에 따르면, 미리 계획된 경로가 존재하지 않는 상황에서 무인기가 스테레오 비젼 센서를 사용하여 미지의 장애물을 맵핑하기 위한 실시간 유도가 가능한 효과가 있다.According to the embodiment of the present invention, there is an effect that the UAV can perform real-time guidance for mapping an unknown obstacle by using the stereo vision sensor in a situation where there is no pre-planned route.

또한, 깊이 지도로부터 데이터 지점을 획득함으로써 장애물 형상의 맵핑이 수행되고, 장애물을 효율적으로 맵핑하기 위한 경로를 생성하기 위해 무인기의 상태를 사용하는 효과가 있다.Further, mapping of the obstacle shape is performed by acquiring data points from the depth map, and there is an effect of using the state of the UAV to generate a path for efficiently mapping obstacles.

또한, 무인기의 수평위치 상태를 사용하여 모든 방향에서 장애물 정보를 획득하고 이상적인 간격을 유지할 수 있도록 하며, 헤딩각을 제어하여 맵핑 동안 이동 방향에서의 충돌을 방지하는 것이 가능하고, 무인기의 수직위치 상태를 사용하여 이미지 평면에 나타나지 않은 장애물의 일부분을 맵핑할 수 있는 효과가 있다.
In addition, it is possible to acquire obstacle information in all directions using the horizontal position state of the UAV, maintain an ideal interval, control the heading angle to prevent collision in the moving direction during mapping, It is possible to map a part of an obstacle that does not appear in the image plane.

도 1은 온라인 경로 계획의 문제점을 설명하기 위한 도면,
도 2는 본 발명의 일 실시예에 따른 무인기 비행 제어 장치의 구성 블록도,
도 3은 쿼드로터 플랫폼 및 좌표 시스템을 나타낸 도면,
도 4는 다중 영상의 개념도,
도 5는 무인기 기동부의 상세 구성 블록도,
도 6은 장애물에 대한 무인기 경로 방향을 나타낸 도면,
도 7은 위치 가중 파라미터 함수의 그래프,
도 8은 자세 가중 파라미터 함수의 그래프,
도 9는 맵핑 중에 충돌을 회피하는 과정을 나타낸 도면,
도 10은 무인기의 고도를 제어하여 장애물의 하부 부분을 탐사하는 모습을 나타낸 도면,
도 11은 카메라의 시야 내에 장애물을 두기 위한 계산에 활용되는 각도를 나타낸 도면,
도 12는 맵핑부에서의 중복 데이터 처리를 설명하기 위한 도면,
도 13은 시뮬레이션 1 경우의 무인기의 궤적과 맵핑 결과를 나타낸 도면,
도 14는 시뮬레이션 1 경우의 맵핑 관련 파라미터의 시간 히스토리를 나타낸 그래프,
도 15는 시뮬레이션 1 경우의 무인기 관련 파라미터의 시간 히스토리를 나타낸 그래프,
도 16은 시뮬레이션 2 경우의 무인기의 궤적과 맵핑 결과를 나타낸 도면,
도 17은 도 16의 각 지점에서 획득된 깊이 지도를 나타낸 도면,
도 18은 시뮬레이션 2 경우의 무인기 관련 파라미터의 시간 히스토리를 나타낸 그래프,
도 19는 본 발명의 일 실시예에 따른 무인기 비행 제어 장치에서 수행되는 무인기 비행 제어 방법의 순서도.
1 is a diagram for explaining a problem of an online route planning,
2 is a block diagram illustrating a configuration of a UAV in accordance with an embodiment of the present invention.
Figure 3 shows a quad rotor platform and coordinate system,
4 is a conceptual diagram of multiple images,
5 is a detailed block diagram of the UAV activation section,
6 is a diagram illustrating the direction of a UAV path for an obstacle,
Figure 7 is a graph of a position weighting parameter function,
8 is a graph of the posture weighted parameter function,
9 is a diagram illustrating a process of avoiding collision during mapping,
10 is a view illustrating a state in which a lower portion of an obstacle is explored by controlling an altitude of a UAV;
11 is a view showing an angle used for calculation for placing an obstacle in the field of view of the camera,
12 is a diagram for explaining redundant data processing in the mapping unit,
13 is a diagram showing the locus of the UAV and the mapping result in the simulation 1 case,
14 is a graph showing a time history of mapping-related parameters in the case of simulation 1,
15 is a graph showing a time history of UAV-related parameters in the case of simulation 1,
16 is a diagram showing the locus of the UAV and the mapping result in the case of the simulation 2,
FIG. 17 is a view showing a depth map obtained at each point in FIG. 16;
18 is a graph showing a time history of UAV-related parameters in the case of Simulation 2,
FIG. 19 is a flowchart of a method for controlling a UAV that is performed in a UAV according to an embodiment of the present invention; FIG.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

또한, 명세서에 기재된 "…부", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Also, the terms " part, "" module," and the like, which are described in the specification, mean a unit for processing at least one function or operation, and may be implemented by hardware or software or a combination of hardware and software.

또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.It is to be understood that the components of the embodiments described with reference to the drawings are not limited to the embodiments and may be embodied in other embodiments without departing from the spirit of the invention. It is to be understood that although the description is omitted, multiple embodiments may be implemented again in one integrated embodiment.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도 2는 본 발명의 일 실시예에 따른 무인기 비행 제어 장치의 구성 블록도이고, 도 3은 쿼드로터 플랫폼 및 좌표 시스템을 나타낸 도면이며, 도 4는 다중 영상의 개념도이고, 도 5는 무인기 기동부의 상세 구성 블록도이며, 도 6은 장애물에 대한 무인기 경로 방향을 나타낸 도면이며, 도 7은 위치 가중 파라미터 함수의 그래프이고, 도 8은 자세 가중 파라미터 함수의 그래프이며, 도 9는 맵핑 중에 충돌을 회피하는 과정을 나타낸 도면이고, 도 10은 무인기의 고도를 제어하여 장애물의 하부 부분을 탐사하는 모습을 나타낸 도면이며, 도 11은 카메라의 시야 내에 장애물을 두기 위한 계산에 활용되는 각도를 나타낸 도면이며, 도 12는 맵핑부에서의 중복 데이터 처리를 설명하기 위한 도면이다. 3 is a diagram illustrating a quadrotor platform and a coordinate system. FIG. 4 is a conceptual diagram of multiple images, and FIG. 5 is a diagram illustrating an example of a multi- FIG. 7 is a graph of a position weighted parameter function, FIG. 8 is a graph of a posture weighted parameter function, and FIG. 9 is a graph showing a collision during mapping FIG. 10 is a view showing a state in which a lower part of an obstacle is controlled by controlling an altitude of an unmanned aerial vehicle, FIG. 11 is a view showing an angle used for calculation for placing an obstacle in the field of view of a camera And FIG. 12 is a diagram for explaining the redundant data processing in the mapping unit.

본 발명의 일 실시예에 따른 무인기 비행 제어 장치는 무인기에 마련되어, 미리 계획된 경로가 존재하지 않는 상황에서 스테레오 비젼 센서를 사용하여 획득한 깊이 지도를 이용하여 미지의 장애물을 맵핑하면서 충돌되지 않도록 실시간 유도하는 것을 특징으로 한다. The UAV is provided in a UAV so that an unknown obstacle is mapped using a depth map obtained using a stereo vision sensor in the absence of a predetermined route, .

본 실시예에 따른 무인기 비행 제어 장치(100)는 추진력을 제공하는 구동부와 프로펠러를 포함하는 로터의 수가 복수인 멀티로터와 같은 무인기에 적용되어, 무인기의 비행을 제어할 수 있다. The UAV 100 may be applied to a UAV such as a multi-rotor having a plurality of rotors including a propeller and a driving unit for providing driving force to control the UAV.

이하에서는 본 발명의 설명과 이해의 편의를 위해 무인기가 쿼드로터인 경우를 가정하여 설명하기로 한다. Hereinafter, for convenience of explanation and understanding of the present invention, it is assumed that the UAV is a quad rotor.

도 3을 참조하면, 쿼드로터는 서로 교차하는 2개의 로드와, 2개의 로드의 양단에 설치되는 2쌍의 로터, 즉 전후 로터(front rotor, rear rotor)와 좌우 로터(left rotor, right rotor)를 포함한다. 3, the quadrotor includes two rods crossing each other and two pairs of rotors installed at both ends of the two rods, i.e., a front rotor and a rear rotor, and a left rotor and a right rotor. .

전방 로터와 후방 로터는 서로 같은 방향으로 회전하고, 좌측 로터와 우측 로터는 이와 다른 방향으로 회전하도록 구현된다. The front rotor and the rear rotor rotate in the same direction, and the left rotor and the right rotor rotate in different directions.

이들 로터의 속력을 제어함으로써 쿼드로터의 이상적인 움직임이 획득될 수 있으며, 다음과 같은 움직임의 병진 및 회전 동역학 방정식(translational and rotational dynamic equations)이 고려된다.By controlling the speed of these rotors, the ideal motion of the quad rotor can be obtained, and translational and rotational dynamic equations of motion are considered, as follows.

[수학식 1][Equation 1]

Figure 112015001876620-pat00041
Figure 112015001876620-pat00041

[수학식 2]&Quot; (2) "

Figure 112015001876620-pat00042
Figure 112015001876620-pat00042

여기서,

Figure 112015001876620-pat00043
Figure 112015001876620-pat00044
는 관성 프레임(inertial frame)에서 표현되는 위치 벡터(position vector)와 쿼드로터의 자세각 벡터(attitude angle vector)이고,
Figure 112015001876620-pat00045
Figure 112015001876620-pat00046
는 쿼드로터의 질량(mass) 및 관성 행렬(inertial matrix)이며,
Figure 112015001876620-pat00047
Figure 112015001876620-pat00048
은 힘과 토크에 대한 기체역학 마찰력 행렬(aerodynamic friction matrices for the force and the torque)이고,
Figure 112015001876620-pat00049
Figure 112015001876620-pat00050
는 쿼드로터의 로터 시스템에 의해 생산되는 힘 벡터와 토크 벡터(force and torque vectors)이며,
Figure 112015001876620-pat00051
는 중력가속도 벡터이고,
Figure 112015001876620-pat00052
은 로터 관성이며,
Figure 112015001876620-pat00053
Figure 112015001876620-pat00054
이며,
Figure 112015001876620-pat00055
는 i번째 로터의 각속도(angular velocity)이고,
Figure 112015001876620-pat00056
는 두 벡터의 외적(cross product)을 나타내며,
Figure 112015001876620-pat00057
는 몸체 고정 프레임(body-fixed frame)에서 관성 프레임으로의 변환 행렬(transformation matrix)이고,
Figure 112015001876620-pat00058
는 관성 프레임에서 몸체 고정 프레임으로의 회전 속도 행렬(rotation velocity matrix)이다. here,
Figure 112015001876620-pat00043
Wow
Figure 112015001876620-pat00044
Is an attitude angle vector of a quadrotor and a position vector expressed in an inertial frame,
Figure 112015001876620-pat00045
and
Figure 112015001876620-pat00046
Is the mass and inertial matrix of the quad rotor,
Figure 112015001876620-pat00047
Wow
Figure 112015001876620-pat00048
Is the aerodynamic friction matrices for the force and the torque for the force and torque,
Figure 112015001876620-pat00049
Wow
Figure 112015001876620-pat00050
Is the force and torque vectors produced by the rotor system of the quad rotor,
Figure 112015001876620-pat00051
Is a gravitational acceleration vector,
Figure 112015001876620-pat00052
Is rotor inertia,
Figure 112015001876620-pat00053
The
Figure 112015001876620-pat00054
Lt;
Figure 112015001876620-pat00055
Is the angular velocity of the i-th rotor,
Figure 112015001876620-pat00056
Represents the cross product of the two vectors,
Figure 112015001876620-pat00057
Is a transformation matrix from a body-fixed frame to an inertial frame,
Figure 112015001876620-pat00058
Is the rotation velocity matrix from the inertia frame to the body anchorage frame.

이 모델에서 고려되는 외력은 추력(thrust force), 공력(aerodynamics force) 및 중력(gravitational force)이다. 외부 토크는 추력, 공력, 회전 효과에 의해 생산되는 토크이다. 비선형 액츄에이터 역학을 모델링하는데 브러시리스 직류(BLDC) 모터가 사용되며 다음과 같다. The external forces considered in this model are thrust force, aerodynamic force and gravitational force. External torque is torque produced by thrust, aerodynamic force, and rotation effect. A brushless direct current (BLDC) motor is used to model nonlinear actuator dynamics.

[수학식 3] &Quot; (3) "

Figure 112015001876620-pat00059
Figure 112015001876620-pat00059

여기서,

Figure 112015001876620-pat00060
는 단말 펄스폭 변조(PWM) 전압이고,
Figure 112015001876620-pat00061
는 입력 신호(input signal)이며,
Figure 112015001876620-pat00062
은 저항(resistance)이고,
Figure 112015001876620-pat00063
,
Figure 112015001876620-pat00064
,
Figure 112015001876620-pat00065
는 모터 토크 상수(motor torque constant), 부하 토크 상수(load torque constant), 역기전력 상수(back electromotive force constant)이며,
Figure 112015001876620-pat00066
은 모터의 관성이고,
Figure 112015001876620-pat00067
는 포화 함수(saturation function)이며,
Figure 112015001876620-pat00068
는 데드존 함수(deadzone fuction)이고,
Figure 112015001876620-pat00069
Figure 112015001876620-pat00070
는 데드존 및 포화의 한계 값(deadzone and saturation limits)이다.
here,
Figure 112015001876620-pat00060
Is the terminal pulse width modulation (PWM) voltage,
Figure 112015001876620-pat00061
Is an input signal,
Figure 112015001876620-pat00062
Is resistance,
Figure 112015001876620-pat00063
,
Figure 112015001876620-pat00064
,
Figure 112015001876620-pat00065
Is a motor torque constant, a load torque constant, and a back electromotive force constant,
Figure 112015001876620-pat00066
Is the inertia of the motor,
Figure 112015001876620-pat00067
Is a saturation function,
Figure 112015001876620-pat00068
Is a deadzone function,
Figure 112015001876620-pat00069
Wow
Figure 112015001876620-pat00070
Are the deadzone and saturation limits.

도 2를 참조하면, 본 실시예에 따른 무인기 비행 제어 장치(100)는 깊이 지도 생성부(110), 장애물 감지부(120), 맵핑부(130), 무인기 기동부(140)를 포함한다. Referring to FIG. 2, the UAV 100 includes a depth map generator 110, an obstacle detector 120, a mapping unit 130, and a UAV activation unit 140.

깊이 지도 생성부(110)는 다중 카메라를 통해 다중 영상을 획득하고, 다중 영상 처리를 통해 무인기와 물체 사이의 거리를 측정할 수 있는 깊이 정보를 포함하는 깊이 지도(depth map)를 생성한다. The depth map generator 110 acquires multiple images through multiple cameras and generates a depth map including depth information for measuring the distance between the UAV and the object through the multiple image processing.

단안 카메라의 경우 영상처리 속도가 빠르고 구조가 간단한 장점이 있으나, 깊이 정보를 직접적으로 제공하지 못한다. 따라서, 본 실시예에서는 영상으로부터 깊이 정보를 획득할 수 있는 다중 카메라를 활용하며, 다중 카메라로는 예를 들어 스테레오 비젼(stereo vision)이 있을 수 있다. In the case of a monocular camera, the image processing speed is fast and the structure is simple, but it does not provide the depth information directly. Accordingly, in the present embodiment, multiple cameras capable of acquiring depth information from an image are utilized, and stereo cameras, for example, may be stereoscopic vision cameras.

단안 카메라와 달리, 스테레오 비젼은 깊이 지도를 계산할 수 있다. 깊이 지도는 픽셀이 뷰 포인트(view point)로부터 대상 물체까지의 거리에 관한 정보를 포함하고 있는 이미지이다. 하나의 카메라를 사용하는 경우, 3차원 공간 상의 물체가 2차원 이미지 평면 상에 투영되어 투영 방향에 따른 거리 정보가 없어지지만, 두 개의 카메라를 사용하는 경우에는 거리 정보가 기록될 수 있다. Unlike monocular cameras, stereovision can calculate depth maps. The depth map is an image in which the pixel contains information about the distance from the view point to the object. When one camera is used, the object in the three-dimensional space is projected on the two-dimensional image plane, and the distance information along the projection direction disappears. However, when two cameras are used, the distance information can be recorded.

맵핑 목적을 위해 스테레오 비젼은 쿼드로터에 장착되고

Figure 112015001876620-pat00071
축을 향하도록 되어 있을 수 있다. For mapping purposes, the stereovision is mounted on a quad rotor
Figure 112015001876620-pat00071
Axis direction.

픽셀의 실제 크기와 물체의 좌측 이미지와 우측 이미지 사이의 픽셀 차이값(pixel difference)을 곱셈함으로써 시차(disparity)가 구해질 수 있다. 픽셀 차이값은 양의 정수(positive integer)이므로, 깊이 지도는 실제 지형에 관한 완전한 정보를 제공하지는 않는다. The disparity can be obtained by multiplying the actual size of the pixel and the pixel difference between the left and right images of the object. Since the pixel difference value is a positive integer, the depth map does not provide complete information about the actual terrain.

다중 카메라를 이용한 다중 영상 처리 및 깊이 지도 생성 과정은 당업자에게 자명한 바 상세한 설명은 생략하기로 한다. The multiple image processing and depth map generation process using the multiple cameras are obvious to those skilled in the art, and a detailed description thereof will be omitted.

장애물 감지부(120)는 깊이 지도 생성부(110)에서 생성된 깊이 지도에 기초하여 획득한 깊이 정보로부터 다중 영상 내에 존재하는 장애물을 감지한다.The obstacle detection unit 120 detects obstacles existing in the multiple images from the depth information acquired based on the depth map generated by the depth map generation unit 110. [

장애물의 위치 및 형상은 미지인(unknown) 것으로 가정하며, 따라서 무인기는 초기에 장애물에 관한 어떤 정보도 가지고 있지 않다. The position and shape of the obstacle are assumed to be unknown, so that the UAV does not initially have any information about the obstacle.

무인기는 장애물을 찾기 위해 깊이 지도 생성부(110)를 이용하여 깊이 지도를 획득하면서 미리 할당된 영역 주위를 이동한다. 획득된 깊이 지도에서 픽셀 깊이값이 미리 정의된 임계치

Figure 112015001876620-pat00072
보다 작다면, 임의의 물체가 비젼 센서(스테레오 비젼)에 의해 감지된 것으로 볼 수 있다. 즉, 무인기의 전방에
Figure 112015001876620-pat00073
범위 내에 물체가 존재하고 있다는 것이다. 물체를 나타내는 픽셀 범위는 장애물로서 고려될 수 있으며, 맵핑 프로세스가 시작된다. The UAV moves around the pre-allocated area while acquiring the depth map using the depth map generator 110 to find the obstacle. If the pixel depth value in the acquired depth map is less than a predefined threshold
Figure 112015001876620-pat00072
, It can be seen that any object is detected by a vision sensor (stereo vision). That is, in front of the UAV
Figure 112015001876620-pat00073
The object is in the range. The pixel range representing the object can be considered as an obstacle and the mapping process begins.

맵핑부(130)는 장애물 감지부(120)에서 감지한 장애물에 대해 장애물에 해당하는 픽셀의 위치(예를 들면, 깊이 지도에서의 위치, 즉 몸체 고정 프레임에서의 위치)를 절대 위치(예를 들면, 관성 프레임의 3차원 지도 상의 위치)로 변환함으로써 장애물 맵핑을 수행한다. The mapping unit 130 maps the position of the pixel corresponding to the obstacle (for example, the position on the depth map, that is, the position in the body fixed frame) to the obstacle detected by the obstacle sensing unit 120, The position on the three-dimensional map of the inertia frame).

맵핑 과정은 다음과 같다. The mapping process is as follows.

우선

Figure 112015001876620-pat00074
Figure 112015001876620-pat00075
를 관성 프레임과 몸체 고정 프레임에 대한 장애물 데이터 중 하나의 위치 벡터로 각각 정의한다. 깊이 지도에서 픽셀 깊이값은
Figure 112015001876620-pat00076
성분에 상응하며, 이미지 평면에서의 위치는
Figure 112015001876620-pat00077
Figure 112015001876620-pat00078
성분에 상응한다. first
Figure 112015001876620-pat00074
Wow
Figure 112015001876620-pat00075
Is defined as a position vector of one of the obstacle data for the inertia frame and the body fixed frame, respectively. The pixel depth value in the depth map is
Figure 112015001876620-pat00076
, And the position in the image plane corresponds to
Figure 112015001876620-pat00077
And
Figure 112015001876620-pat00078
≪ / RTI >

몸체 고정 프레임(

Figure 112015001876620-pat00079
)에서 대표되는 이 3가지 성분은 맵핑 프로세스를 통해 관성 프레임 내의 성분으로 평가될 수 있다. 깊이 지도에서 픽셀의 위치 벡터
Figure 112015001876620-pat00080
는 관성 프레임에서의 위치 벡터인
Figure 112015001876620-pat00081
를 계산하기 위해 다음과 같이 사용될 수 있다. Body fixing frame (
Figure 112015001876620-pat00079
) Can be evaluated as components in the inertial frame through the mapping process. The position vector of the pixel in the depth map
Figure 112015001876620-pat00080
Is the position vector in the inertia frame
Figure 112015001876620-pat00081
Can be used as follows.

[수학식 4]&Quot; (4) "

Figure 112015001876620-pat00082
Figure 112015001876620-pat00082

깊이 지도에서 선택된 모든 픽셀들은 변환되고, 관성 프레임의 3차원 지도에서 장애물을 재구성하기 위해 메모리에 저장된다.
All pixels selected in the depth map are transformed and stored in memory to reconstruct the obstacle in a three-dimensional map of the inertial frame.

무인기 기동부(140)는 무인기가 장애물을 효과적으로 맵핑할 수 있도록 무인기와 장애물의 위치 관계에 따라 무인기의 위치 및 자세를 제어한다. 무인기의 위치 및 자세 제어는 유도 명령(guidance command)의 생성 및 출력을 통해 이루어질 수 있다. The UAV activation unit 140 controls the position and posture of the UAV according to the positional relationship between the UAV and the obstacle so that the UAV can efficiently map the obstacle. The position and attitude control of the UAV can be accomplished through the generation and output of the guidance command.

무인기(쿼드로터)는 본질적으로 부족구동 시스템(under-actuated system)인데, 이는 단지 4개의 입력인

Figure 112015001876620-pat00083
를 사용하여 제어되는
Figure 112015001876620-pat00084
Figure 112015001876620-pat00085
의 6가지 상태를 가지고 있기 때문이다. UAVs (quad rotors) are essentially under-actuated systems, which have only four inputs
Figure 112015001876620-pat00083
Controlled
Figure 112015001876620-pat00084
Wow
Figure 112015001876620-pat00085
Because it has six states.

무인기 기동부(140)는 위치 제어 모듈과 자세 제어 모듈을 포함할 수 있다. The UAV activation unit 140 may include a position control module and an attitude control module.

자세 제어 모듈에는 3개의 입력

Figure 112015001876620-pat00086
과 3개의 출력
Figure 112015001876620-pat00087
이 있으므로, 완전구동 시스템(fully actuated system)에 해당한다. The attitude control module has three inputs
Figure 112015001876620-pat00086
And three outputs
Figure 112015001876620-pat00087
, Which corresponds to a fully actuated system.

위치 제어 모듈에는

Figure 112015001876620-pat00088
중 단지 하나의 제어 입력
Figure 112015001876620-pat00089
(요(yaw) 각도 명령
Figure 112015001876620-pat00090
)이 있는데, 이는 추력이 항상
Figure 112015001876620-pat00091
축 상에서 작용하기 때문이다. 하지만, 제어되어야 하는 3개의 출력
Figure 112015001876620-pat00092
이 있기에, 위치 제어 서브시스템은 부족구동 시스템이 된다. The position control module
Figure 112015001876620-pat00088
Only one control input
Figure 112015001876620-pat00089
(Yaw angle command
Figure 112015001876620-pat00090
), Which means that the thrust is always
Figure 112015001876620-pat00091
Axis. However, there are three outputs to be controlled
Figure 112015001876620-pat00092
, The position control subsystem becomes a deficient drive system.

본 실시예에서는 이를 해결하기 위해 자세 제어 모듈에서

Figure 112015001876620-pat00093
(롤(roll) 각도)와
Figure 112015001876620-pat00094
(피치(pitch) 각도)가 가상 입력(virtual input)으로 위치 제어 모듈에 도입된다. 가상 입력과 원본 입력을 결합함으로써, 위치 제어 모듈을 설계하기 위해 3개의 입력
Figure 112015001876620-pat00095
가 사용된다. In the present embodiment, in order to solve this problem,
Figure 112015001876620-pat00093
(Roll angle) and
Figure 112015001876620-pat00094
(Pitch angle) is introduced into the position control module as a virtual input. By combining the virtual input and the original input, three inputs
Figure 112015001876620-pat00095
Is used.

무인기 기동부(140)에는 피드백 선형화 기술이 적용될 수 있는데, 이는 쿼드로터 동역학의 비선형성을 다루기 위해 사용된다. 이에 의하면 비선형 시스템이 등가 선형 시스템으로 변환된다. 변환된 선형 시스템을 제어하기 위해, 선형 이차 트랙커(linear quadratic tracker)가 설계된다. 선형 이차 트랙커의 목적은 출력이 지정된 출력을 따르도록 제어하기 위함이다. A feedback linearization technique may be applied to the UAV 140, which is used to address the non-linearity of quad rotor dynamics. According to this, the nonlinear system is converted into the equivalent linear system. To control the transformed linear system, a linear quadratic tracker is designed. The purpose of the linear secondary tracker is to control the output to follow the specified output.

위치 제어 모듈에서 지정된 출력은 경로점(waypoint)의 위치 벡터이다. 자세 제어 모듈에서 지정된 출력은 쿼드로터의 3가지 자세각으로,

Figure 112015001876620-pat00096
Figure 112015001876620-pat00097
의 2개의 각도가 위치 제어 모듈에 의해 제공된다.
The output specified in the position control module is the position vector of the waypoint. The output specified in the attitude control module is the three attitude angles of the quad rotor,
Figure 112015001876620-pat00096
Wow
Figure 112015001876620-pat00097
Are provided by the position control module.

본 실시예에서 무인기 기동부(140)는 장애물을 감지한 후 무인기가 장애물을 효과적으로 맵핑하기 위해 적절한 경로를 생성하는 맵핑 경로 계획을 수립할 수 있다. In the present embodiment, the UAV activation unit 140 can establish a mapping path plan for detecting an obstacle and generating an appropriate path for the UAV to effectively map the obstacle.

무인기는 모든 방향에서 장애물 정보를 수집하기 위해 장애물 주위를 움직여야 하며, 이를 통해 장애물의 전체 형상을 맵핑할 수 있게 된다. 경로는 맵핑 중에 장애물과의 충돌이 없도록 해야 한다. 다만, 앞서 설명한 것과 같이 단지 무인기의 4개 상태인 목표 위치의 각 성분(x, y, z), 요 각도(

Figure 112015001876620-pat00098
)만이 임무 수행을 위해 제어될 수 있다. The UAV must move around the obstacle in order to collect the obstacle information in all directions, and thereby the entire shape of the obstacle can be mapped. The path should be such that there is no collision with obstacles during mapping. However, as described above, only the four components of the target position (x, y, z), yaw angle
Figure 112015001876620-pat00098
) Can be controlled for mission performance.

도 5를 참조하면, 무인기 기동부(140)는 수평 위치 제어부(142), 수직 위치 제어부(144), 헤딩각 제어부(146)를 포함한다. Referring to FIG. 5, the UAV 140 includes a horizontal position controller 142, a vertical position controller 144, and a heading angle controller 146.

수평 위치 제어부(142)는 관성 프레임의 xy평면에 평행한 경로를 생성하기 위해 무인기의 수평 위치(상태 x와 y)를 제어한다. The horizontal position control unit 142 controls the horizontal position (states x and y) of the UAV so as to generate a path parallel to the xy plane of the inertia frame.

무인기는 감지된 장애물의 주위를 이동하는 경로를 따르는 동안 장애물을 맵핑한다. 도 6에 도시된 것과 같이 법선 벡터

Figure 112015001876620-pat00099
와 접선 벡터
Figure 112015001876620-pat00100
를 정의한다. UAV maps obstacles while following a path that travels around the detected obstacle. As shown in Fig. 6,
Figure 112015001876620-pat00099
And tangent vectors
Figure 112015001876620-pat00100
.

장애물(10)의 n개 지점들이 비젼 센서의 이미지 평면에서 보여지는 것으로 가정한다. 관성 프레임에서 장애물의 k번째 데이터 지점(data point)으로

Figure 112015001876620-pat00101
를 정의한다. 장애물 데이터 지점의 중심인
Figure 112015001876620-pat00102
은 다음과 같이 계산될 수 있다. It is assumed that n points of the obstacle 10 are viewed in the image plane of the vision sensor. From the inertial frame to the kth data point of the obstacle
Figure 112015001876620-pat00101
. The center of the obstacle data point
Figure 112015001876620-pat00102
Can be calculated as follows.

[수학식 5]&Quot; (5) "

Figure 112015001876620-pat00103
Figure 112015001876620-pat00103

또한, 무인기의 (x, y) 성분 위치 벡터로서

Figure 112015001876620-pat00104
를 정의하고, 장애물 중심의 (x, y) 성분 위치 벡터로서
Figure 112015001876620-pat00105
를 정의하면 다음과 같다. Further, as the (x, y) component position vector of the UAV
Figure 112015001876620-pat00104
(X, y) component position vector of the obstacle center
Figure 112015001876620-pat00105
Is defined as follows.

[수학식 6]&Quot; (6) "

Figure 112015001876620-pat00106
Figure 112015001876620-pat00106

그 후

Figure 112015001876620-pat00107
Figure 112015001876620-pat00108
에 수직인 벡터인 것으로 정의할 수 있으며,
Figure 112015001876620-pat00109
의 영 공간(null space)를 계산함으로써 획득될 수 있다. After that
Figure 112015001876620-pat00107
The
Figure 112015001876620-pat00108
And a vector perpendicular to the vector,
Figure 112015001876620-pat00109
And the null space of the first block.

마지막으로, 장애물(10)에 대해 접선 방향(tangential direction)의 벡터

Figure 112015001876620-pat00110
는 다음과 같이 획득될 수 있다. Finally, the vector of the tangential direction with respect to the obstacle 10
Figure 112015001876620-pat00110
Can be obtained as follows.

[수학식 7]&Quot; (7) "

Figure 112015001876620-pat00111
Figure 112015001876620-pat00111

Figure 112015001876620-pat00112
는 스케일링 인자(scaling factor)이다. 접선 벡터
Figure 112015001876620-pat00113
는 무인기가 맵핑 동안 장애물(10) 주위를 움직이도록 하기 위해 사용된다.
Figure 112015001876620-pat00112
Is a scaling factor. Tangent vector
Figure 112015001876620-pat00113
Is used to allow the UAV to move around the obstacle 10 during mapping.

벡터

Figure 112015001876620-pat00114
는 몸체 고정 프레임에서 장애물의 k번째 데이터 지점으로 정의된다. 그 후 최소
Figure 112015001876620-pat00115
를 가지는 지점을 선택함으로써, 비젼 센서로부터 가장 근접한 장애물 데이터 지점이 획득될 수 있고, 이를
Figure 112015001876620-pat00116
으로 나타낸다. 수학식 4를 사용하면,
Figure 112015001876620-pat00117
은 관성 프레임에서
Figure 112015001876620-pat00118
과 같이 변환될 수 있다. vector
Figure 112015001876620-pat00114
Is defined as the kth data point of the obstacle in the body anchoring frame. After that,
Figure 112015001876620-pat00115
The nearest obstacle data point from the vision sensor can be obtained,
Figure 112015001876620-pat00116
Respectively. Using equation (4)
Figure 112015001876620-pat00117
In the inertia frame
Figure 112015001876620-pat00118
. ≪ / RTI >

[수학식 8]&Quot; (8) "

Figure 112015001876620-pat00119
Figure 112015001876620-pat00119

Figure 112015001876620-pat00120
의 (x, y) 성분으로 구성된 벡터로서
Figure 112015001876620-pat00121
를 정의하면,
Figure 112015001876620-pat00122
은 다음과 같이 계산될 수 있다.
Figure 112015001876620-pat00120
As a vector composed of (x, y) components of
Figure 112015001876620-pat00121
By definition,
Figure 112015001876620-pat00122
Can be calculated as follows.

[수학식 9]&Quot; (9) "

Figure 112015001876620-pat00123
Figure 112015001876620-pat00123

법선 방향(normal direction)의 벡터

Figure 112015001876620-pat00124
는 다음과 같이 계산될 수 있다.Vector of normal direction
Figure 112015001876620-pat00124
Can be calculated as follows.

[수학식 10]&Quot; (10) "

Figure 112015001876620-pat00125
Figure 112015001876620-pat00125

Figure 112015001876620-pat00126
은 스케일링 인자이다. 법선 벡터
Figure 112015001876620-pat00127
는 장애물(10)과의 간격을 두어 장애물 맵핑 중에 장애물(10)과의 충돌을 피하기 위해 사용된다. 무인기와 가장 근접한 장애물 데이터 지점 사이의 거리(최근접 거리)는 다음과 같이 계산될 수 있다.
Figure 112015001876620-pat00126
Is a scaling factor. Normal vector
Figure 112015001876620-pat00127
Is used to avoid collision with the obstacle 10 during the obstacle mapping by spacing the obstacle 10 from the obstacle 10. The distance between the UAV and the nearest obstacle data point (closest distance) can be calculated as:

[수학식 11]&Quot; (11) "

Figure 112015001876620-pat00128
Figure 112015001876620-pat00128

이제, 무인기와 장애물(10) 간의 이상적인 거리인

Figure 112015001876620-pat00129
를 도입한다.
Figure 112015001876620-pat00130
Figure 112015001876620-pat00131
보다 작아지면, 무인기는 안전거리를 유지하기 위해 장애물(10)로부터 멀어지도록 움직여야 한다.
Figure 112015001876620-pat00132
Figure 112015001876620-pat00133
보다 커지면, 무인기는 장애물을 향해 움직여서 무인기가 이상적인 거리에서 장애물(10)을 맵핑할 수 있도록 한다. Now, the ideal distance between the UAV and the obstacle 10
Figure 112015001876620-pat00129
.
Figure 112015001876620-pat00130
this
Figure 112015001876620-pat00131
, The UAV must move away from the obstacle 10 to maintain the safety distance.
Figure 112015001876620-pat00132
this
Figure 112015001876620-pat00133
, The UAV moves toward the obstacle so that the UAV can map the obstacle 10 at an ideal distance.

본 실시예에서는

Figure 112015001876620-pat00134
Figure 112015001876620-pat00135
를 결합함으로써 무인기의 바람직한 위치
Figure 112015001876620-pat00136
를 생성하기 위해 위치 가중 파라미터
Figure 112015001876620-pat00137
이 도입된다. In this embodiment,
Figure 112015001876620-pat00134
Wow
Figure 112015001876620-pat00135
The desired position of the UAV
Figure 112015001876620-pat00136
Lt; RTI ID = 0.0 >
Figure 112015001876620-pat00137
.

[수학식 12]&Quot; (12) "

Figure 112015001876620-pat00138
Figure 112015001876620-pat00138

[수학식 13]&Quot; (13) "

Figure 112015001876620-pat00139
Figure 112015001876620-pat00139

최근접 거리와 이상 거리의 차이인

Figure 112015001876620-pat00140
이고,
Figure 112015001876620-pat00141
은 설계 파라미터이다. The difference between the closest distance and the ideal distance
Figure 112015001876620-pat00140
ego,
Figure 112015001876620-pat00141
Is a design parameter.

도 7의 (a)를 참조하면, 수학식 13에 따른

Figure 112015001876620-pat00142
에 대한
Figure 112015001876620-pat00143
함수 모습이 도시되어 있다. 위치 가중 파라미터
Figure 112015001876620-pat00144
의 변곡 기준점인
Figure 112015001876620-pat00145
이 2인 경우가 예시되어 있으나, 이는 일 실시예에 불과하며, 이상적인 거리의 1/2 혹은 다양한 거리가 선택될 수 있음은 물론이다. Referring to FIG. 7 (a), the equation
Figure 112015001876620-pat00142
For
Figure 112015001876620-pat00143
The function appearance is shown. Position weighting parameter
Figure 112015001876620-pat00144
Quot;
Figure 112015001876620-pat00145
2 is illustrated, but this is merely an example, and it goes without saying that 1/2 of the ideal distance or various distances can be selected.

Figure 112015001876620-pat00146
가 -2m인 경우를 고려해보면, 무인기가 물체에 너무 가까이 있음을 의미한다. 수학식 13 혹은 도 7의 (a)에서
Figure 112015001876620-pat00147
은 1이 되고, 이를 수학식 12에 대입하면 x와 y의 바람직한 상태는 다음과 같이 획득될 수 있다.
Figure 112015001876620-pat00146
Is -2m, it means that the UAV is too close to the object. In Equation 13 or 7 (a)
Figure 112015001876620-pat00147
Becomes 1, and by substituting this into Equation (12), a desirable state of x and y can be obtained as follows.

[수학식 14]&Quot; (14) "

Figure 112015001876620-pat00148
Figure 112015001876620-pat00148

수학식 14는 무인기가 물체와의 충돌을 방지하기 위해 장애물로부터 멀어지는 방향으로만 움직이는데 중점을 두고 있음을 의미한다. Equation (14) means that the UAV is focused on moving only in the direction away from the obstacle in order to prevent collision with the object.

반면,

Figure 112015001876620-pat00149
가 0(zero)인 경우를 고려해보면, 무인기가 이상적인 거리에 있음을 의미한다. 이 경우,
Figure 112015001876620-pat00150
은 0(zero)이고, x와 y의 바람직한 상태는 다음과 같이 획득될 수 있다. On the other hand,
Figure 112015001876620-pat00149
Is zero, it means that the UAV is at an ideal distance. in this case,
Figure 112015001876620-pat00150
Is zero, and the desired states of x and y can be obtained as follows.

[수학식 15]&Quot; (15) "

Figure 112015001876620-pat00151
Figure 112015001876620-pat00151

수학식 15는 무인기가 오직 맵핑을 위해 장애물 주위를 움직이고 있는데 중점을 두고 있음을 의미한다. Equation (15) implies that the UAV is focused on only moving around the obstacle for mapping.

즉, 무인기가 이상적인 거리로부터 설계된 거리 이상으로 장애물에 접근한 경우(range 1) 위치 가중 파라미터

Figure 112015001876620-pat00152
을 1로 설정함으로써 법선 벡터가 덧셈 연산되어 무인기가 물체와의 충돌을 방지하기 위해 장애물로부터 멀어지는 방향으로만 움직이도록 할 수 있다. That is, when the UAV is approaching the obstacle beyond the designed distance from the ideal distance (range 1), the position weighting parameter
Figure 112015001876620-pat00152
Is set to 1 so that the normal vector is additionally operated so that the UAV moves only in a direction away from the obstacle in order to prevent collision with the object.

또한, 무인기가 이상적인 거리로부터 설계된 거리 이상으로 장애물로부터 멀어진 경우(range 2) 위치 가중 파라미터

Figure 112015001876620-pat00153
을 -1로 설정함으로써 법선 벡터가 뺄셈 연산되어 무인기가 장애물로부터 너무 멀어지는 것을 방지하기 위해 장애물로 가까워지는 방향으로만 움직이도록 할 수 있다. Also, if the UAV is away from the obstacle more than the designed distance from the ideal distance (range 2)
Figure 112015001876620-pat00153
Is set to -1 so that the normal vector is subtracted so as to move only in the direction of approaching the obstacle to prevent the UAV from being too far away from the obstacle.

또한, 무인기가 이상적인 거리로부터 설계된 거리 이내에 위치할 경우(range 3) 위치 가중 파라미터

Figure 112015001876620-pat00154
을 -1과 1 사이의 값으로 설정함으로써 장애물과의 간격을 유지하면서도 장애물과의 충돌을 방지하여 원활할 맵핑이 이루어지도록 할 수 있다. Also, if the UAV is located within a designed distance from the ideal distance (range 3)
Figure 112015001876620-pat00154
Is set to a value between -1 and 1, it is possible to prevent the collision with the obstacle while maintaining the gap with the obstacle, so that the mapping can be smoothly performed.

무인기가 이상적인 거리로부터 설계된 거리 이내에 위치할 경우(range 3) 수학식 13과는 달리 위치 가중 파라미터

Figure 112015001876620-pat00155
이 0(zero)로 설정되거나(도 7의 (b) 참조), 완만한 곡선 대신 직선 함수(
Figure 112015001876620-pat00156
)로 설정(도 7의 (c) 참조)될 수도 있다.
If the UAV is located within a designed distance from the ideal distance (range 3), unlike Equation 13, the position weighting parameter
Figure 112015001876620-pat00155
Is set to zero (see Fig. 7 (b)), a straight line function (
Figure 112015001876620-pat00156
(See Fig. 7 (c)).

다시 도 5를 참조하면, 헤딩각 제어부(146)는 무인기의 요 각도를 제어하여 무인기의 헤딩각을 변경함으로써 무인기가 이동 방향에 놓여진 장애물의 일부분에 충돌하는 것을 방지한다. Referring again to FIG. 5, the heading angle control unit 146 controls the yaw angle of the UAV to change the heading angle of the UAV to prevent the UAV from colliding with a part of the obstacle placed in the moving direction.

무인기가

Figure 112015001876620-pat00157
축을 따라 이동하는 경우를 고려해 보면, 비젼 센서(스테레오 비젼 카메라)는 맵핑을 위해
Figure 112015001876620-pat00158
축을 바라보고 있다. 이제, 상태
Figure 112015001876620-pat00159
Figure 112015001876620-pat00160
방향에서 발생될 수 있는 충돌을 방지하기 위해 사용된다. UAV
Figure 112015001876620-pat00157
Considering the case of moving along an axis, the vision sensor (stereo vision camera)
Figure 112015001876620-pat00158
I am looking at the axis. Now,
Figure 112015001876620-pat00159
The
Figure 112015001876620-pat00160
It is used to prevent collisions that may occur in the direction.

이를 위해 본 실시예에 따른 무인기는 초음파 센서와 같은 거리 측정 센서(148)를 구비하고 있는 것으로 가정한다. 거리 측정 센서(148)는 무인기의 이동 방향인

Figure 112015001876620-pat00161
축에 따른 무인기와 장애물 사이의 거리
Figure 112015001876620-pat00162
를 측정할 수 있다. For this, it is assumed that the UAV according to the present embodiment includes a distance measuring sensor 148 such as an ultrasonic sensor. The distance measuring sensor 148 measures the distance
Figure 112015001876620-pat00161
Distance between UAV and obstacle along the axis
Figure 112015001876620-pat00162
Can be measured.

Figure 112015001876620-pat00163
가 미리 정의된 거리
Figure 112015001876620-pat00164
보다 크면, 무인기는
Figure 112015001876620-pat00165
축에 따른 위험이 없는 것으로 감지한다. 이 경우 무인기는
Figure 112015001876620-pat00166
축 상에 최근접 장애물 데이터 지점을 선택하여 맵핑을 위한 요 각도 명령을 계산한다.
Figure 112015001876620-pat00163
Predefined distance
Figure 112015001876620-pat00164
If greater, the UAV is
Figure 112015001876620-pat00165
It is perceived as no risk to the axis. In this case,
Figure 112015001876620-pat00166
Calculate the yaw angle command for the mapping by selecting the nearest obstacle data point on the axis.

[수학식 16]&Quot; (16) "

Figure 112015001876620-pat00167
Figure 112015001876620-pat00167

Figure 112015001876620-pat00168
Figure 112015001876620-pat00169
보다 작아지면,
Figure 112015001876620-pat00170
축 방향으로의 장애물이 이동 방향을 변경하지 않을 경우 무인기에게 위협이 될 수 있다. 이 경우 무인기는
Figure 112015001876620-pat00171
축으로부터 접근하는 장애물을 바라보고 맵핑하도록 요 각도를 회전해야 한다. 그러므로, 충돌을 회피하기 위한 요 각도 명령은 다음과 같이 주어질 수 있다.
Figure 112015001876620-pat00168
end
Figure 112015001876620-pat00169
If smaller,
Figure 112015001876620-pat00170
If an obstacle in the axial direction does not change the direction of movement, it can be a threat to UAV. In this case,
Figure 112015001876620-pat00171
You must rotate the yaw angle to see and map the obstacles approaching from the axis. Therefore, the yaw angle command for avoiding the collision can be given as follows.

[수학식 17]&Quot; (17) "

Figure 112015001876620-pat00172
Figure 112015001876620-pat00172

센서 시선 방향의 요 각도

Figure 112015001876620-pat00173
과 무인기 이동 방향의 요 각도
Figure 112015001876620-pat00174
를 결합함으로써, 바람직한 요(yaw) 상태인
Figure 112015001876620-pat00175
를 생성하기 위해 다음과 같은 자세 가중 파라미터
Figure 112015001876620-pat00176
가 도입될 수 있다. Yaw angle in the direction of the sensor line of sight
Figure 112015001876620-pat00173
And the yaw angle of the direction of movement of the UAV
Figure 112015001876620-pat00174
, A desired yaw state
Figure 112015001876620-pat00175
The following posture weighting parameters
Figure 112015001876620-pat00176
Can be introduced.

[수학식 18]&Quot; (18) "

Figure 112015001876620-pat00177
Figure 112015001876620-pat00177

[수학식 19]&Quot; (19) "

Figure 112015001876620-pat00178
Figure 112015001876620-pat00178

허용간격 상한

Figure 112015001876620-pat00179
과 허용간격 하한
Figure 112015001876620-pat00180
은 설계 파라미터이다. Allowable upper limit
Figure 112015001876620-pat00179
And allowable lower limit
Figure 112015001876620-pat00180
Is a design parameter.

도 8에는

Figure 112015001876620-pat00181
에 대한
Figure 112015001876620-pat00182
함수 모습이 도시되어 있다. 여기서,
Figure 112015001876620-pat00183
는 6이고,
Figure 112015001876620-pat00184
는 4인 것으로 가정한다. 8,
Figure 112015001876620-pat00181
For
Figure 112015001876620-pat00182
The function appearance is shown. here,
Figure 112015001876620-pat00183
Is 6,
Figure 112015001876620-pat00184
Is assumed to be four.

Figure 112015001876620-pat00185
가 0인 경우에는 요 각도가 그대로 유지되며, 1인 경우에는 90도 회전을 수행하게 되며, 0과 1 사이에 있는 경우에는 센서 시선 방향의 요 각도
Figure 112015001876620-pat00186
과 무인기 이동 방향의 요 각도
Figure 112015001876620-pat00187
를 적절하게 결합하여 요 각도 명령을 산출하게 된다.
Figure 112015001876620-pat00185
Is 0, the yaw angle is maintained as it is. If it is 1, it is rotated 90 degrees. If it is between 0 and 1, the yaw angle
Figure 112015001876620-pat00186
And the yaw angle of the direction of movement of the UAV
Figure 112015001876620-pat00187
So as to calculate a yaw angle command.

도 9의 (a)에 도시된 것처럼, 무인기는

Figure 112015001876620-pat00188
Figure 112015001876620-pat00189
보다 클 때 장애물을 맵핑하는 요 각도를 사용한다. As shown in Fig. 9 (a), the UAV
Figure 112015001876620-pat00188
this
Figure 112015001876620-pat00189
Use the yaw angle to map the obstacle when it is bigger.

무인기가

Figure 112015001876620-pat00190
축을 따라 이동함에 따라, 도 9의 (b)에 도시된 것과 같이
Figure 112015001876620-pat00191
Figure 112015001876620-pat00192
보다 작아지게 된다. 이 경우 수학식 19에 의해 자세 가중 파라미터
Figure 112015001876620-pat00193
이 증가함에 따라 수학식 18에서 무인기 이동 방향의 요 각도
Figure 112015001876620-pat00194
부분이 증가한다. UAV
Figure 112015001876620-pat00190
As it moves along the axis, as shown in Figure 9 (b)
Figure 112015001876620-pat00191
end
Figure 112015001876620-pat00192
. In this case, the posture weighting parameter
Figure 112015001876620-pat00193
As a result, the yaw angle of the UAV in the equation (18)
Figure 112015001876620-pat00194
The portion increases.

그 후 도 9의 (c)에 도시된 것과 같이, 무인기는 양의 방향으로 요 각도를 회전시키고, 무인기는 맵핑되어야 할 잠재적 물체이자 피해야 할 물체인 장애물의 새로운 측면을 감지하게 될 수 있을 것이다. 이 경우

Figure 112015001876620-pat00195
은 물체의 새로운 측면에서 선택되며, 무인기는 장애물로부터 이상적인 거리를 유지하도록 움직인다. 이는 도 7의 (c)에서 무인기의 이동 방향을 확인하면 알 수 있다.
Then, as shown in FIG. 9 (c), the UAV will rotate the yaw angle in the positive direction, and the UAV will be able to detect a new aspect of the obstacle, the potential object to be mapped and the object to be avoided. in this case
Figure 112015001876620-pat00195
Is selected from a new aspect of the object, and the UAV moves to maintain an ideal distance from the obstacle. This can be seen by checking the moving direction of the UAV in (c) of FIG.

다시 도 5를 참조하면, 수직 위치 제어부(144)는 무인기의 수직 위치를 제어하여 무인기를 승강시킨다. Referring again to FIG. 5, the vertical position controller 144 controls the vertical position of the UAV to elevate the UAV.

맵핑될 물체는 매우 크거나 높을 수 있고, 스테레오 비젼의 이미지 평면은 수직적으로 물체를 커버하지 못할 수 있다. 본 실시예에서는 이 문제를 해결하기 위해, 맵핑을 위한 장애물 전체를 커버하기 위해 상태 z를 사용한다. The object to be mapped may be very large or high, and the image plane of stereo vision may not cover the object vertically. In this embodiment, to solve this problem, the state z is used to cover the entire obstacle for mapping.

도 10의 (a)에 도시된 것처럼, 장애물의 나머지 부분이 이미지 평면의 아래에 존재할 수 있다. 이는 이미지 평면의 최종 열(row)을 조사함으로써 결정될 수 있다. 이미지 평면의 최종 열이 장애물을 나타내는 적어도 하나의 픽셀을 포함하고 있다면, 이미지 평면의 아래로 장애물의 일부분이 있을 수 있다. 그러므로, 무인기는 맵핑을 위한 장애물의 아래 부분을 탐사하기 위해 다음과 같이 고도를 낮추어야 한다. As shown in Figure 10 (a), the rest of the obstacle may be below the image plane. This can be determined by examining the last row of the image plane. If the last row of the image plane contains at least one pixel representing an obstacle, there may be a portion of the obstacle down the image plane. Therefore, the UAV must lower the altitude to explore the lower part of the obstacle for mapping as follows.

[수학식 20]&Quot; (20) "

Figure 112015001876620-pat00196
Figure 112015001876620-pat00196

수직 간격인

Figure 112015001876620-pat00197
는 설계 파라미터이다. Vertical spacing
Figure 112015001876620-pat00197
Is a design parameter.

장애물의 데이터 지점인

Figure 112015001876620-pat00198
중에서 최소
Figure 112015001876620-pat00199
를 가지는 지점(즉, 가장 낮은 위치에 있는 데이터 지점)이 선택될 수 있다. 그 지점의 z 성분을
Figure 112015001876620-pat00200
로 정의한다. The data point of the obstacle
Figure 112015001876620-pat00198
Minimum among
Figure 112015001876620-pat00199
(I.e., the data point at the lowest position) can be selected. The z component of the point
Figure 112015001876620-pat00200
.

고도를 낮추는 동안,

Figure 112015001876620-pat00201
와 이미지 평면의 최종 열 사이의 갭이 설정 수직 간격
Figure 112015001876620-pat00202
(설계 파라미터, 픽셀 단위)가 되는 상황을 고려한다(도 10의 (b) 참조). 이 경우 무인기는 아래 방향으로 맵핑될 잔여분이 없는 것으로 판단하고, 고도를 낮추는 것을 중단할 수 있다. While lowering altitude,
Figure 112015001876620-pat00201
And the last column of the image plane is the set vertical spacing
Figure 112015001876620-pat00202
(Design parameter, pixel unit) (refer to Fig. 10 (b)). In this case, the UAV can judge that there is no remaining portion to be mapped downward, and can stop lowering the altitude.

비슷한 방법으로 위 방향으로의 로직이 설계될 수 있다. 변수

Figure 112015001876620-pat00203
Figure 112015001876620-pat00204
중에서 최대
Figure 112015001876620-pat00205
를 가지는
Figure 112015001876620-pat00206
로 대체되고, 이미지 평면의 최종 열은 이미지 평면의 최초 열로 대체된다. 마지막으로 수학식 20은 다음 수학식을 대체된다.Similarly, the logic in the upward direction can be designed. variable
Figure 112015001876620-pat00203
The
Figure 112015001876620-pat00204
Maximum among
Figure 112015001876620-pat00205
Having
Figure 112015001876620-pat00206
And the last column of the image plane is replaced with the first column of the image plane. Finally, equation (20) is replaced by the following equation.

[수학식 21]&Quot; (21) "

Figure 112015001876620-pat00207
Figure 112015001876620-pat00207

즉, 수직 위치 제어부(144)는 장애물 감지부(120)에 의해 감지된 장애물의 형상이 이미지 평면 내에 모두 포함되지 않을 경우 위 혹은 아래 방향으로 무인기를 기동시켜 장애물이 이미지 평면 내에 놓여지도록 할 수 있다. That is, when the shape of the obstacle detected by the obstacle sensing unit 120 is not included in the image plane, the vertical position control unit 144 may activate the UAV in the up or down direction so that the obstacle is placed in the image plane .

수직 위치 제어부(144)는 이미지 평면의 최종 열에 장애물에 해당하는 픽셀이 있을 경우에는 아래 방향으로 무인기를 기동시키고, 이미지 평면의 최초 열에 장애물에 해당하는 픽셀이 있을 경우에는 위 방향으로 무인기를 기동시킬 수 있다. When there is a pixel corresponding to an obstacle in the final column of the image plane, the vertical position control unit 144 activates the UAV in the downward direction. If there is a pixel corresponding to the obstacle in the first row of the image plane, .

만약 장애물이 위아래 방향으로 모두 이미지 평면 내에 맞춰지지 않는다면, 장애물의 미지의 부분을 탐사하기 위해 일 방향이 선택될 수 있다. 그 후 무인기는 맵핑을 완료하기 위해 타 방향으로 이동한다. If the obstacle is not all aligned in the image plane in the up and down directions, one direction may be selected to explore the unknown portion of the obstacle. The UAV then moves in the other direction to complete the mapping.

이하에서는 우선 위 방향이 선택된 경우를 가정하여 설명하기로 한다. Hereinafter, it will be assumed that the upper direction is selected first.

장애물이 위아래 방향으로 모두 이미지 평면 내에 맞춰진다면, 맵핑 프로세스 동안 장애물이 카메라의 시야 내에 유지되어야 한다. 도 11에서 xy 평면 상에 놓인 무인기의 중심에서 장애물 중심까지의 각도

Figure 112015001876620-pat00208
는 다음과 같이 계산될 수 있다. If the obstacles are all aligned in the image plane in the up and down directions, the obstacle must be maintained within the field of view of the camera during the mapping process. In Fig. 11, the angle from the center of the UAV on the xy plane to the center of the obstacle
Figure 112015001876620-pat00208
Can be calculated as follows.

[수학식 22]&Quot; (22) "

Figure 112015001876620-pat00209
Figure 112015001876620-pat00209

수직 위치 제어부(144)는 무인기의 피치각

Figure 112015001876620-pat00210
Figure 112015001876620-pat00211
보다 크다면, 이미지 평면의 중간에 장애물의 중심이 놓이도록 무인기의 고도를 증가시킬 수 있다. 반대로,
Figure 112015001876620-pat00212
Figure 112015001876620-pat00213
보다 작다면 무인기의 고도를 감소시킬 수 있다. 이러한 기동이 다음과 같이 표현될 수 있다. The vertical position control unit 144 controls the vertical position of the U-
Figure 112015001876620-pat00210
this
Figure 112015001876620-pat00211
The altitude of the UAV can be increased so that the center of the obstacle lies in the middle of the image plane. Contrary,
Figure 112015001876620-pat00212
end
Figure 112015001876620-pat00213
The altitude of the UAV can be reduced. This maneuver can be expressed as:

[수학식 23]&Quot; (23) "

Figure 112015001876620-pat00214
Figure 112015001876620-pat00214

상기 수학식은 위방향 혹은 아래방향으로의 탐사를 완료한 무인기에 대해서도 적용된다.
The above equations also apply to UAVs that have completed exploration up or down.

다시 도 1을 참조하면, 맵핑부(130)는 전술한 것과 같은 유도 명령에 의해 무인기가 장애물 주위를 기동하는 동안 장애물의 형상을 맵핑한다. Referring again to FIG. 1, the mapping unit 130 maps the shape of the obstacle while the UAV is moving around the obstacle by the induction command as described above.

맵핑 과정에서 미리 지정된 데이터 수집 주기에 상응하여 장애물의 데이터 지점 정보가 수집된다. 시간이 경과하면, 수집된 데이터의 양은 증가될 것이다. 이들 중 일부는 중복될 수 있고, 일부는 상대적으로 부정확한 정보를 가질 수 있다. In the mapping process, the data point information of the obstacle is collected corresponding to the predetermined data collection period. Over time, the amount of collected data will increase. Some of these may be redundant, and some may have relatively inaccurate information.

따라서, 본 실시예에서 맵핑부(130)는 데이터의 시차(disparity)를 사용하여 수집된 장애물의 데이터 지점의 수를 감소시킬 수 있다. Thus, in this embodiment, the mapping unit 130 may reduce the number of data points of the collected obstacles using the disparity of the data.

우선 장애물 정보를 가지고 있는 지점을 고려한다. 어느 한 지점이 미리 정의된 거리

Figure 112015001876620-pat00215
내에 다른 지점을 가지고 있지 않다면, 해당 지점은 상응하는 영역을 대표하는 정보를 포함하는 유일한 지점이 된다. 반면,
Figure 112015001876620-pat00216
범위 내에 몇몇 다른 지점들을 포함하고 있다면, 동일 지역 내에 다수의 지점들이 있는 것이다. 그러므로, 모든 지점을 저장할 필요는 없고, 해당 지역을 대표하는 가장 정확한 정보를 가지고 있는 지점만을 저장할 필요가 있다. 이는 지점들의 시차를 비교함으로써 수행될 수 있다. 시차가 높을수록 거리 오차가 낮음을 이용한다. First, consider the point with obstacle information. If a point has a predefined distance
Figure 112015001876620-pat00215
If there is no other point in the map, the point is the only point containing the information representing the corresponding area. On the other hand,
Figure 112015001876620-pat00216
If you have several other points in the range, then there are a number of points in the same area. Therefore, it is not necessary to store all the points, but only the points having the most accurate information representing the area need to be stored. This can be done by comparing the parallax of the points. The higher the parallax, the lower the distance error.

이 과정은 다음과 같이 수행된다. 도 12에는 시차가 각각 16, 20, 19, 13, 14인

Figure 112015001876620-pat00217
,
Figure 112015001876620-pat00218
,
Figure 112015001876620-pat00219
,
Figure 112015001876620-pat00220
,
Figure 112015001876620-pat00221
의 5개 지점이 표시되어 있다. This process is performed as follows. 12 shows that the parallax is 16, 20, 19, 13, 14
Figure 112015001876620-pat00217
,
Figure 112015001876620-pat00218
,
Figure 112015001876620-pat00219
,
Figure 112015001876620-pat00220
,
Figure 112015001876620-pat00221
Are displayed.

도 12에 도시된 것처럼,

Figure 112015001876620-pat00222
Figure 112015001876620-pat00223
의 범위 내에 다른 지점이 없다. 따라서, 시차에 상관없이
Figure 112015001876620-pat00224
가 남게 된다. 12,
Figure 112015001876620-pat00222
silver
Figure 112015001876620-pat00223
There are no other points within the range of. Therefore, regardless of the time difference
Figure 112015001876620-pat00224
.

Figure 112015001876620-pat00225
는 경계 내에
Figure 112015001876620-pat00226
를 가지고 있으며, 이들 시차인 20와 19를 비교함으로써
Figure 112015001876620-pat00227
가 제거된다.
Figure 112015001876620-pat00228
의 제거로 인해,
Figure 112015001876620-pat00229
Figure 112015001876620-pat00230
가 유일하게 중복된 지점들이다. 동일한 과정을 통해,
Figure 112015001876620-pat00231
가 남는다.
Figure 112015001876620-pat00225
Within boundaries
Figure 112015001876620-pat00226
, And comparing these parallaxes 20 and 19
Figure 112015001876620-pat00227
Is removed.
Figure 112015001876620-pat00228
Due to the elimination of <
Figure 112015001876620-pat00229
Wow
Figure 112015001876620-pat00230
Are the only duplicated spots. Through the same process,
Figure 112015001876620-pat00231
Is left.

그 결과 도 12에 도시된 것처럼 상대적으로 부정확하고 중복된 2개의 지점들이 제거될 수 있다.
As a result, two relatively inaccurate and duplicated points can be eliminated as shown in FIG.

또한, 맵핑부(130)는 수직 위치 제어부(144)에 의해 무인기가 기동할 경우, 장애물의 상단 혹은 하단에 도착한 이후 맵핑 프로세스를 시작할 수도 있다. 무인기가 장애물의 중간 부분에 위치하고 있어 상방향으로 이동한 이후 다시 하방향으로 이동할 필요가 있을 때, 상방향으로 이동하는 중에 맵핑이 수행될 경우 해당 데이터는 하방향으로 이동하는 중에 맵핑이 수행되어 수집되는 데이터와 중복될 가능성이 높다. 이 경우 메모리를 불필요하게 차지하게 되므로, 데이터 관리가 요구된다.In addition, when the UAV is activated by the vertical position controller 144, the mapping unit 130 may start the mapping process after arriving at the upper or lower end of the obstacle. When the UAV is located in the middle part of the obstacle and it is necessary to move downward after moving upward, if the mapping is performed while moving upward, the corresponding data is moved while moving downward, It is highly likely to be duplicated. In this case, since the memory is unnecessarily occupied, data management is required.

따라서, 장애물 맵핑을 위해 무인기가 수직 방향으로 일 방향으로 이동할 경우 그 일 끝단에 이르러 이동 방향이 변경된 이후에 맵핑 프로세스를 통해 데이터 수집을 수행함으로써 중복된 데이터 지점의 수집을 방지하고 메모리를 효율적으로 활용할 수 있다.
Therefore, if the UAV moves in one direction in the vertical direction for obstacle mapping, data is collected through the mapping process after the movement direction is changed at the end of the UAV, thereby preventing the collection of the duplicated data points and efficiently utilizing the memory .

본 실시예에 따른 무인기의 비행 제어 방법의 성능에 대한 수치 시뮬레이션 결과는 다음과 같다. 수치 시뮬레이션에 사용된 무인기 파라미터와 스테레오 비젼 및 맵핑 파라미터는 다음 표 1 및 표 2와 같다. The numerical simulation results on the performance of the UAV flight control method according to the present embodiment are as follows. The UAV parameters and stereo vision and mapping parameters used in the numerical simulation are shown in the following Tables 1 and 2.

[표 1][Table 1]

Figure 112015001876620-pat00232
Figure 112015001876620-pat00232

[표 2][Table 2]

Figure 112015001876620-pat00233

Figure 112015001876620-pat00233

잠재적 위협을 가지는 장애물의 경우(시뮬레이션 1)의 실험 결과는 다음과 같다. 도 13은 시뮬레이션 1 경우의 무인기의 궤적과 맵핑 결과를 나타낸 도면이고, 도 14는 시뮬레이션 1 경우의 맵핑 관련 파라미터의 시간 히스토리를 나타낸 그래프이며, 도 15는 시뮬레이션 1 경우의 무인기 관련 파라미터의 시간 히스토리를 나타낸 그래프이다. 도 13에서 (a)는 위에서 비스듬히 내려다본 모습이고, (b)는 평면도이다. In the case of obstacles with potential threats (simulation 1), the experimental results are as follows. 14 is a graph showing a time history of the mapping-related parameters in the case of the simulation 1, and Fig. 15 is a graph showing the time history of the UAV-related parameters in the case of the simulation 1 Fig. 13 (a) is an oblique view from above, and Fig. 13 (b) is a plan view.

시뮬레이션 1에서는 잠재적 위협을 가지는 장애물로 L 형상 장애물이 고려되고 있다. In Simulation 1, L-shaped obstacles are considered as obstacles with potential threats.

도 14의 (c)에 도시된 것처럼 도 13의 지점 A(t=6.95s)에서부터

Figure 112015001876620-pat00234
Figure 112015001876620-pat00235
보다 작게 되었다. 그 결과 도 14의 (d) 및 도 15(b)에 도시된 것처럼
Figure 112015001876620-pat00236
는 양(positive)이 되고
Figure 112015001876620-pat00237
를 증가시킨다. 도 13의 지점 B(t=9.4s)에서,
Figure 112015001876620-pat00238
는 대략 90도(˚)에 도달한다(도 15의 (b) 참조). 즉, 무인기는 위협이 될 수도 있는 장애물의 측면을 감지하고 재빨리
Figure 112015001876620-pat00239
를 증가시킨 것이다. 그 후 무인기는 도 13에 도시된 것과 같이 장애물을 맵핑한다. 지점 B 이후에는
Figure 112015001876620-pat00240
축 방향으로는 장애물을 감지하지 못하여
Figure 112015001876620-pat00241
는 정의될 수 없다. 따라서,
Figure 112015001876620-pat00242
는 0(zero)으로 남아 있게 된다(도 14의 (d) 참조).
As shown in Fig. 14 (c), from the point A (t = 6.95s) in Fig. 13
Figure 112015001876620-pat00234
The
Figure 112015001876620-pat00235
Respectively. As a result, as shown in Figs. 14 (d) and 15 (b)
Figure 112015001876620-pat00236
Is positive
Figure 112015001876620-pat00237
. At point B (t = 9.4s) in Fig. 13,
Figure 112015001876620-pat00238
Reaches about 90 degrees (see Fig. 15 (b)). In other words, UAV is able to detect aspects of the obstacles that may be a threat,
Figure 112015001876620-pat00239
. Thereafter, the UAV maps the obstacle as shown in FIG. After point B
Figure 112015001876620-pat00240
In the axial direction, the obstacle can not be detected
Figure 112015001876620-pat00241
Can not be defined. therefore,
Figure 112015001876620-pat00242
Remains at 0 (see Fig. 14 (d)).

높이가 높은 장애물의 경우(시뮬레이션 2)의 실험 결과는 다음과 같다. 도 16은 시뮬레이션 2 경우의 무인기의 궤적과 맵핑 결과를 나타낸 도면이고, 도 17은 도 16의 각 지점에서 획득된 깊이 지도를 나타낸 도면이며, 도 18은 시뮬레이션 2 경우의 무인기 관련 파라미터의 시간 히스토리를 나타낸 그래프이다. 도 16에서 (a)는 위에서 비스듬히 내려다본 모습이고, (b)는 평면도이다. In the case of high obstacles (simulation 2), the experimental results are as follows. FIG. 16 is a view showing the trajectory of the UAV and the mapping result in the case of the simulation 2, FIG. 17 is a view showing the depth map obtained at each point in FIG. 16, and FIG. 18 is a diagram showing the time history of the UAV- Fig. 16 (a) is an oblique view from above, and Fig. 16 (b) is a plan view.

시뮬레이션 2에서는 2m×2m×15m 크기를 가지고 [9 0 2.5]T에 중심이 있는 직육면체가 장애물로 고려되고 있다. In Simulation 2, a rectangular parallelepiped having a size of 2m × 2m × 15m and centered on [9 0 2.5] T is considered as an obstacle.

도 16의 (a)와 (b)는 t=151.35s와 t=260s에서의 결과를 보여주고 있다. 무인기는 위 아래로 움직이면서 장애물 전체를 맵핑하고 있음을 확인할 수 있다. Figures 16 (a) and 16 (b) show the results at t = 151.35 s and t = 260 s. It can be confirmed that the UAV is moving up and down to map the entire obstacle.

도 17은 지점 A(t=151.35s)와 B(t=260s)에서 스테레오 비젼에 의해 획득된 깊이 지도를 보여주고 있다. Figure 17 shows the depth map obtained by stereovision at point A (t = 151.35s) and B (t = 260s).

무인기가 처음 장애물을 접한 경우 장애물이 위 방향 및 아래 방향으로 이미지 평면 내에 맞춰지지 않게 된다. 따라서, 무인기는 우선 장애물의 상부 부분을 탐사한다. 도 17의 (a)에 도시된 것처럼 이미지 평면의 최초 열과

Figure 112015001876620-pat00243
사이의 갭이
Figure 112015001876620-pat00244
가 되어, 도 16의 (b)의 지점 A에서 상방향으로의 탐사가 완료된다. 이때부터 무인기는 아래로 고도를 낮추면서 장애물의 하부 부분에 대해 탐사를 수행하게 된다. 도 18의 (c) 및 (d)는 지점 A 이후 제어 입력과
Figure 112015001876620-pat00245
가 감소하고 있음을 보여준다. 도 17의 (b)에 도시된 것처럼 이미지 평면의 최종 열과
Figure 112015001876620-pat00246
사이의 갭이
Figure 112015001876620-pat00247
가 되어, 도 16의 (b)의 지점 B에서 하방향으로의 탐사가 완료된다.
When an unmanned aircraft touches an obstacle for the first time, the obstacle will not fit in the image plane in the upward and downward directions. Thus, the UAV first searches the upper part of the obstacle. As shown in Fig. 17 (a), the first column of the image plane
Figure 112015001876620-pat00243
The gap between
Figure 112015001876620-pat00244
And the search in the upward direction at point A in FIG. 16 (b) is completed. From this point, the UAV will perform a survey on the lower part of the obstacle while lowering the altitude downward. 18 (c) and 18 (d) show the control input after point A and
Figure 112015001876620-pat00245
Of the total population. As shown in Fig. 17 (b), the final column of the image plane
Figure 112015001876620-pat00246
The gap between
Figure 112015001876620-pat00247
And the search from the point B to the downward direction in FIG. 16 (b) is completed.

도 19는 본 발명의 일 실시예에 따른 무인기 비행 제어 장치에서 수행되는 무인기 비행 제어 방법의 순서도이다. FIG. 19 is a flowchart of a method for controlling a UAV that is performed in an UAV according to an embodiment of the present invention.

도 19의 각 단계들은 도 2에 도시된 무인기 비행 제어 장치(100)의 각 구성요소들에 의해 수행될 수 있다. Each step of FIG. 19 may be performed by each component of the UAV 100 shown in FIG.

깊이 지도 생성부(110)는 미리 할당된 영역 주위를 이동하면서 스테레오 비젼을 통해 깊이 지도를 획득한다(단계 310). 장애물의 위치 및 형상이 미지이기 때문에, 미리 계획된 경로가 존재하지 않으므로, 장애물을 찾기 위해 깊이 지도를 획득하면서 미리 할당된 영역 주위를 이동하게 된다. The depth map generation unit 110 acquires a depth map through stereo vision while moving around the pre-allocated area (step 310). Since the location and shape of the obstacle is unknown, there is no pre-planned path, so it moves around the pre-allocated area while acquiring the depth map to find obstacles.

장애물 감지부(120)는 획득한 깊이 지도에 기초하여 획득한 깊이 정보로부터 다중 영상 내에 존재하는 장애물을 감지한다(단계 320). The obstacle detection unit 120 detects obstacles existing in the multiple images from the depth information acquired based on the acquired depth map (step 320).

무인기 기동부(140)는 무인기의 위치 및 자세를 제어하여 감지된 장애물에 대한 효과적인 맵핑이 이루어지도록 한다(단계 330). The UAV activation unit 140 controls the position and attitude of the UAV so that the effective mapping of the detected obstacles is performed (step 330).

여기서, 무인기 기동 단계(단계 330)는 수평 위치 제어 단계(단계 332), 헤딩각 제어 단계(단계 334), 수직 위치 제어 단계(단계 336)를 포함할 수 있다. Here, the unmanned start step (step 330) may include a horizontal position control step (step 332), a heading angle control step (step 334), and a vertical position control step (step 336).

수평 위치 제어 단계(단계 332)에서 무인기 기동부(140)는 관성 프레임의 xy평면에 평행한 경로를 생성하기 위해 무인기의 수평 위치(상태 x와 y)를 제어한다. In the horizontal position control step (step 332), the UAV 140 controls the horizontal position (states x and y) of the UAV to produce a path parallel to the xy plane of the inertia frame.

이 과정에서 무인기가 장애물과 충돌하지 않도록 이상적인 거리로부터 미리 설정된 범위를 벗어나 장애물에 가까워지는 경우(range 1)에는 접선 벡터에는 0의 가중치를 주고 법선 벡터에는 1의 가중치를 주어 장애물로부터 멀어지는 방향으로 무인기를 기동시키고, 이상적인 거리로부터 미리 설정된 범위를 벗어나 장애물로부터 멀어지는 경우(range 2)에는 접선 벡터에는 0의 가중치를 주고 법선 벡터에는 -1의 가중치를 주어 장애물 맵핑을 위해 장애물로 가까워지는 방향으로 무인기를 기동시키며, 이상적인 거리로부터 미리 설정된 범위 이내에 있는 경우(range 3)에는 접선 벡터의 가중치와 법선 벡터의 가중치를 -1과 1 사이의 값으로 설정하여 장애물과의 거리를 유지하면서도 충돌이 방지되도록 할 수 있다. In this process, if the distance from the ideal range to the obstacle is less than the predetermined range (range 1) so that the UAV does not collide with the obstacle, a weight of 0 is assigned to the tangent vector and a weight of 1 is assigned to the normal vector. (Range 2), the tangent vector is given a weight of 0, and the normal vector is given a weight of -1, so as to approach the obstacle for obstacle mapping. If the distance is within a predetermined range from the ideal distance (range 3), the weight of the tangent vector and the weight of the normal vector may be set to a value between -1 and 1 so that the collision can be prevented while maintaining the distance from the obstacle have.

헤딩각 제어 단계(단계 224)에서 무인기 기동부(140)는 무인기의 요 각도를 제어하여 무인기의 헤딩각을 변경함으로써 무인기가 이동 방향에 놓여진 장애물의 일부분에 충돌하는 것을 방지한다. In the heading angle control step (step 224), the UAV 140 controls the yaw angle of the UAV to change the heading angle of the UAV to prevent the UAV from colliding with a part of the obstacle placed in the moving direction.

거리 측정 센서를 통해 무인기의 이동 방향으로 장애물의 일부분이 미리 지정된 간격 이내에 근접할 경우 무인기의 헤딩각을 회전시켜 센서 시선 방향과 무인기 이동 방향이 변경되도록 할 수 있다.If a part of the obstacle is approaching within a predetermined distance in the moving direction of the UAV through the distance measuring sensor, the heading angle of the UAV can be rotated to change the sensor sight direction and the UAV moving direction.

수직 위치 제어 단계(단계 336)에서 무인기 기동부(140)는 감지된 장애물의 형상이 이미지 평면 내에 모두 포함되지 않을 경우 위 혹은 아래 방향으로 무인기를 기동시켜 장애물이 이미지 평면 내에 놓여지도록 할 수 있다.In the vertical position control step (step 336), the UAV 140 may activate the UAV in the up or down direction so that the obstacle falls within the image plane if the shape of the detected obstacle is not all contained within the image plane.

만약 장애물이 위아래 방향으로 모두 이미지 평면 내에 맞춰지지 않는다면, 장애물의 미지의 부분을 탐사하기 위해 일 방향이 선택될 수 있다. 그 후 무인기는 맵핑을 완료하기 위해 타 방향으로 이동할 수 있다. If the obstacle is not all aligned in the image plane in the up and down directions, one direction may be selected to explore the unknown portion of the obstacle. The UAV can then move in the other direction to complete the mapping.

맵핑부(130)는 감지된 장애물에 대해 장애물에 해당하는 픽셀의 위치(깊이 지도에서의 위치)를 절대 위치(관성 프레임의 3차원 지도 상의 위치)로 변환하여 장애물 맵핑을 수행한다(단계 340). The mapping unit 130 performs obstacle mapping by converting the position of the pixel corresponding to the obstacle (the position on the depth map) to the absolute position (the position on the three-dimensional map of the inertia frame) .

맵핑 단계에서 데이터의 시차를 사용하여 중복 데이터를 제거함으로써 데이터 관리를 수행할 수 있다(단계 342). In the mapping step, data management may be performed by removing redundant data using the parallax of the data (step 342).

수직 위치 제어가 수행되는 경우, 무인기가 일 방향으로 이동을 완료한 이후 타 방향으로 이동을 시작할 때 맵핑 프로세스가 진행되도록 하여 중복 데이터 발생을 미연에 방지할 수도 있다. In the case where the vertical position control is performed, the mapping process may be performed when the UAV starts to move in the other direction after the UAV completes the movement in one direction, thereby preventing duplicate data from being generated in advance.

전술한 무인기 비행 제어 방법은 디지털 처리 장치(무인기 비행 제어 장치)에 내장되거나 설치된 프로그램 등에 의해 시계열적 순서에 따른 자동화된 절차로 수행될 수도 있음은 당연하다. 상기 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 프로그램은 디지털 처리 장치가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 디지털 처리 장치에 의하여 읽혀지고 실행됨으로써 상기 방법을 구현한다. 상기 정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다.
It is a matter of course that the above-mentioned UAV control method may be performed by an automated procedure in a time series sequence by a built-in or installed program in a digital processing device (UAV). The codes and code segments that make up the program can be easily deduced by a computer programmer in the field. In addition, the program is stored in a computer readable medium readable by the digital processing apparatus, and is read and executed by the digital processing apparatus to implement the method. The information storage medium includes a magnetic recording medium, an optical recording medium, and a carrier wave medium.

상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the following claims And changes may be made without departing from the spirit and scope of the invention.

100: 무인기 비행 제어 장치 110: 깊이 지도 생성부
120: 장애물 감지부 130: 맵핑부
140: 무인기 기동부 142: 수평 위치 제어부
144: 수직 위치 제어부 146: 헤딩각 제어부
148: 거리 측정 센서
100: UAV flight control unit 110: Depth map generating unit
120: Obstacle detecting unit 130: Mapping unit
140: UAV activation unit 142: Horizontal position control unit
144: Vertical position control unit 146: Heading angle control unit
148: Distance measuring sensor

Claims (25)

무인기에 설치되어 비행을 제어하는 장치로서,
다중 카메라를 통해 다중 영상을 획득하고, 다중 영상 처리를 통해 깊이 정보를 포함하는 깊이 지도를 생성하는 깊이 지도 생성부;
상기 깊이 지도에 기초하여 획득한 깊이 정보로부터 상기 다중 영상 내에 존재하는 장애물을 감지하는 장애물 감지부;
감지된 상기 장애물에 대해 상기 깊이 지도에서의 위치를 관성 프레임(inertial frame)의 절대 위치로 변환하는 맵핑부; 및
상기 무인기와 상기 장애물의 위치 관계에 따라 상기 무인기의 위치 및 자세를 제어하는 무인기 기동부를 포함하되,
상기 장애물의 위치 및 형상은 미지(unknown) 상태인 것을 특징으로 하는 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치.
A device installed on a UAV to control a flight,
A depth map generation unit that acquires multiple images through multiple cameras and generates a depth map including depth information through multiple image processing;
An obstacle detection unit for detecting obstacles existing in the multiple images from the depth information acquired based on the depth map;
A mapping unit for converting a position in the depth map of the obstacle detected to an absolute position of an inertial frame; And
And an unmanned launching unit for controlling the position and attitude of the UAV according to the positional relationship between the UAV and the obstacle,
Wherein the position and the shape of the obstacle are in an unknown state.
삭제delete 제1항에 있어서,
상기 무인기 기동부는 상기 관성 프레임의 xy평면에 평행한 경로를 생성하기 위해 상기 무인기의 수평 위치를 제어하는 수평 위치 제어부를 포함하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치.
The method according to claim 1,
Wherein the unmanned launch section includes a horizontal position control section for controlling the horizontal position of the UAV so as to generate a path parallel to the xy plane of the inertia frame.
제3항에 있어서,
상기 수평 위치 제어부는,
상기 무인기가 상기 장애물로부터 미리 설정된 거리로부터 미리 설정된 범위를 벗어나 상기 장애물에 가까워지는 경우에는 상기 장애물에 대한 접선 벡터에는 0의 가중치를 주고 상기 장애물에 대한 법선 벡터에는 1의 가중치를 주어 상기 장애물로부터 멀어지는 방향으로 상기 무인기를 기동시키고,
상기 무인기가 미리 설정된 거리로부터 미리 설정된 범위를 벗어나 상기 장애물로부터 멀어지는 경우에는 상기 접선 벡터에는 0의 가중치를 주고 상기 법선 벡터에는 -1의 가중치를 주어 상기 장애물로 가까워지는 방향으로 상기 무인기를 기동시키며,
상기 무인기가 미리 설정된 거리로부터 미리 설정된 범위 이내에 있는 경우에는 상기 접선 벡터의 가중치와 상기 법선 벡터의 가중치를 -1과 1 사이의 값으로 설정하여 상기 장애물의 형상 맵핑이 수행되도록 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치.
The method of claim 3,
The horizontal position control unit,
When the unmanned aerial vehicle approaches the obstacle from a preset distance from the predetermined distance from the obstacle, a tangent vector for the obstacle is given a weight of 0 and a normal vector for the obstacle is given a weight of 1 to move away from the obstacle Direction of the UAV,
When the unmanned aerial vehicle moves away from the obstacle by a predetermined distance from the predetermined distance, the tangent vector is given a weight of 0, and the normal vector is given a weight of -1 to activate the unmanned aerial vehicle in a direction approaching the obstacle,
And setting the weight of the tangent vector and the weight of the normal vector to a value between -1 and 1 to perform the shape mapping of the obstacle when the UAV is within a preset range from the predetermined distance, UAV flight control system for real - time guidance.
제3항에 있어서,
상기 수평 위치 제어부는 하기 수학식에 따라 상기 무인기의 수평 위치를 제어하는 것을 특징으로 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치,
Figure 112016124050597-pat00307

Figure 112016124050597-pat00308

여기서,
Figure 112016124050597-pat00309
는 상기 무인기가 제어될 수평 위치 상태,
Figure 112016124050597-pat00310
은 위치 가중 파라미터,
Figure 112016124050597-pat00311
는 접선 벡터,
Figure 112016124050597-pat00312
는 법선 벡터,
Figure 112016124050597-pat00313
는 상기 무인기의 현재 위치 벡터,
Figure 112016124050597-pat00314
,
Figure 112016124050597-pat00315
은 상기 무인기와 상기 장애물의 최근접 거리,
Figure 112016124050597-pat00316
는 상기 무인기와 상기 장애물의 미리 설정된 거리,
Figure 112016124050597-pat00317
은 위치 가중 파라미터의 변곡 기준점임.
The method of claim 3,
Wherein the horizontal position control unit controls the horizontal position of the UAV according to the following equation: < RTI ID = 0.0 > UAV < / RTI >
Figure 112016124050597-pat00307

Figure 112016124050597-pat00308

here,
Figure 112016124050597-pat00309
The horizontal position state in which the UAV is controlled,
Figure 112016124050597-pat00310
Is a position weighting parameter,
Figure 112016124050597-pat00311
Is a tangent vector,
Figure 112016124050597-pat00312
Is a normal vector,
Figure 112016124050597-pat00313
Is the current position vector of the UAV,
Figure 112016124050597-pat00314
,
Figure 112016124050597-pat00315
The distance between the UAV and the obstacle,
Figure 112016124050597-pat00316
The predetermined distance between the UAV and the obstacle,
Figure 112016124050597-pat00317
Is the inflection point of the position weighting parameter.
제1항에 있어서,
상기 무인기의 이동 방향으로 상기 장애물의 일부분과의 거리를 측정하는 거리 측정 센서를 더 포함하되,
상기 무인기 기동부는 상기 무인기의 이동 방향으로 상기 장애물의 일부분이 미리 지정된 간격 이내에 근접할 경우 무인기의 헤딩각을 회전시켜 상기 무인기의 센서 시선 방향과 상기 이동 방향이 변경되도록 하는 헤딩각 제어부를 포함하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치.
The method according to claim 1,
Further comprising a distance measuring sensor for measuring a distance to a part of the obstacle in a moving direction of the UAV,
And a heading angle control unit for rotating the heading angle of the UAV when the part of the obstacle is within a predetermined distance in the movement direction of the UAV so that the direction of the sensor line of sight of the UAV is changed, UAV flight control system for object shape mapping and real - time guidance.
제6항에 있어서,
상기 헤딩각 제어부는 하기 수학식에 따라 상기 무인기의 헤딩각을 제어하는 것을 특징으로 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치,
Figure 112015001876620-pat00259

Figure 112015001876620-pat00260

여기서,
Figure 112015001876620-pat00261
는 상기 무인기가 제어될 요 각도 상태,
Figure 112015001876620-pat00262
는 자세 가중 파라미터,
Figure 112015001876620-pat00263
는 센서 시선 방향의 요 각도,
Figure 112015001876620-pat00264
는 무인기 이동 방향의 요 각도,
Figure 112015001876620-pat00265
는 이동 방향으로의 상기 무인기와 상기 장애물 사이의 간격,
Figure 112015001876620-pat00266
는 허용간격 상한,
Figure 112015001876620-pat00267
는 허용간격 하한임.
The method according to claim 6,
Wherein the heading angle control unit controls the heading angle of the UAV according to the following equation:
Figure 112015001876620-pat00259

Figure 112015001876620-pat00260

here,
Figure 112015001876620-pat00261
Is a state in which the UAV is controlled,
Figure 112015001876620-pat00262
A posture weighting parameter,
Figure 112015001876620-pat00263
The yaw angle in the sensor sight direction,
Figure 112015001876620-pat00264
The yaw angle of the UAV movement direction,
Figure 112015001876620-pat00265
The distance between the unmanned aerial vehicle and the obstacle in the moving direction,
Figure 112015001876620-pat00266
Is the upper limit of the allowable interval,
Figure 112015001876620-pat00267
Is the allowable spacing.
제1항에 있어서,
상기 무인기 기동부는 감지된 상기 장애물의 형상이 상기 다중 영상의 이미지 평면 내에 포함되지 않을 경우 위 혹은 아래 방향으로 상기 무인기를 기동시켜 상기 장애물이 상기 이미지 평면 내에 놓여지도록 하는 수직 위치 제어부를 포함하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치.
The method according to claim 1,
Wherein the unmanned launching unit includes a vertical position control unit for activating the UAV when the detected shape of the obstacle is not included in the image plane of the multiple images so that the obstacle is placed in the image plane UAV flight control system for shape mapping and real time guidance.
제8항에 있어서,
상기 수직 위치 제어부는 상기 장애물이 위아래 방향으로 모두 상기 이미지 평면 내에 맞춰지지 않는다면, 위 혹은 아래 방향 중 일 방향을 선택하여 상기 무인기를 기동시키고, 상기 장애물의 일 끝단에 도달하면 타 방향으로 상기 무인기를 기동시키는 것을 특징으로 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치.
9. The method of claim 8,
If the obstacle is not aligned in the image plane in the up and down directions, the vertical position control unit activates the UAV by selecting one of the up and down directions, and if the obstacle reaches one end of the obstacle, Wherein the control unit is configured to activate the object-shape mapping and real-time guidance.
제9항에 있어서,
상기 맵핑부는 상기 무인기가 타 방향으로 이동할 때 맵핑을 수행하는 것을 특징으로 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치.
10. The method of claim 9,
Wherein the mapping unit performs mapping when the UAV moves in the other direction.
제1항에 있어서,
상기 맵핑부는 상기 장애물에 대해 수집된 데이터 지점의 시차(disparity)를 이용하여 중복 데이터를 제거하는 것을 특징으로 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치.
The method according to claim 1,
Wherein the mapping unit removes redundant data by using a disparity of data points collected for the obstacle.
제11항에 있어서,
상기 맵핑부는 임의의 데이터 지점을 중심으로 미리 지정된 범위 내에 존재하는 타 데이터 지점과의 시차를 비교하여 높은 시차를 가지는 데이터 지점을 제외한 나머지 데이터 지점을 제거하는 것을 특징으로 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 장치.
12. The method of claim 11,
Wherein the mapping unit compares a time difference with another data point existing within a predetermined range around an arbitrary data point and removes remaining data points excluding data points having a high time difference, UAV flight control system for.
무인기에 설치되어 상기 무인기의 비행을 제어하는 무인기 비행 제어 장치에 의해 수행되는 무인기 비행 제어 방법으로서,
(a) 다중 카메라를 통해 다중 영상을 획득하고, 다중 영상 처리를 통해 깊이 정보를 포함하는 깊이 지도를 생성하는 단계;
(b) 상기 깊이 지도에 기초하여 획득한 깊이 정보로부터 상기 다중 영상 내에 존재하는 장애물을 감지하는 단계;
(c) 상기 무인기와 상기 장애물의 위치 관계에 따라 상기 무인기의 위치 및 자세를 제어하는 단계; 및
(d) 감지된 상기 장애물에 대해 상기 깊이 지도에서의 위치를 관성 프레임(inertial frame)의 절대 위치로 변환하는 단계를 포함하되,
상기 장애물의 위치 및 형상은 미지(unknown) 상태인 것을 특징으로 하는 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 방법.
A UAV flight control method performed by a UAV that is installed in a UAV and controls the flight of the UAV,
(a) acquiring multiple images through multiple cameras and generating a depth map including depth information through multiple image processing;
(b) detecting an obstacle existing in the multiple image from depth information acquired based on the depth map;
(c) controlling the position and posture of the UAV according to the positional relationship between the UAV and the obstacle; And
(d) converting the position in the depth map to the absolute position of the inertial frame for the detected obstacle,
Wherein the position and the shape of the obstacle are in an unknown state.
삭제delete 제13항에 있어서,
상기 단계 (c)는 상기 관성 프레임의 xy평면에 평행한 경로를 생성하기 위해 상기 무인기의 수평 위치를 제어하는 단계 (c1)을 포함하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 방법.
14. The method of claim 13,
Wherein the step (c) includes the step (c1) of controlling the horizontal position of the UAV to create a path parallel to the xy plane of the inertia frame.
제15항에 있어서,
상기 단계 (c1)는,
상기 무인기가 상기 장애물로부터 미리 설정된 거리로부터 미리 설정된 범위를 벗어나 상기 장애물에 가까워지는 경우에는 상기 장애물에 대한 접선 벡터에는 0의 가중치를 주고 상기 장애물에 대한 법선 벡터에는 1의 가중치를 주어 상기 장애물로부터 멀어지는 방향으로 상기 무인기를 기동시키고,
상기 무인기가 미리 설정된 거리로부터 미리 설정된 범위를 벗어나 상기 장애물로부터 멀어지는 경우에는 상기 접선 벡터에는 0의 가중치를 주고 상기 법선 벡터에는 -1의 가중치를 주어 상기 장애물로 가까워지는 방향으로 상기 무인기를 기동시키며,
상기 무인기가 미리 설정된 거리로부터 미리 설정된 범위 이내에 있는 경우에는 상기 접선 벡터의 가중치와 상기 법선 벡터의 가중치를 -1과 1 사이의 값으로 설정하여 상기 장애물의 형상 맵핑이 수행되도록 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 방법.
16. The method of claim 15,
The step (c1)
When the unmanned aerial vehicle approaches the obstacle from a preset distance from the predetermined distance from the obstacle, a tangent vector for the obstacle is given a weight of 0 and a normal vector for the obstacle is given a weight of 1 to move away from the obstacle Direction of the UAV,
When the unmanned aerial vehicle moves away from the obstacle by a predetermined distance from the predetermined distance, the tangent vector is given a weight of 0, and the normal vector is given a weight of -1 to activate the unmanned aerial vehicle in a direction approaching the obstacle,
And setting the weight of the tangent vector and the weight of the normal vector to a value between -1 and 1 to perform the shape mapping of the obstacle when the UAV is within a preset range from the predetermined distance, UAV flight control method for real - time guidance.
제15항에 있어서,
상기 단계 (c1)는 하기 수학식에 따라 상기 무인기의 수평 위치를 제어하는 것을 특징으로 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 방법,
Figure 112016124050597-pat00318

Figure 112016124050597-pat00319

여기서,
Figure 112016124050597-pat00320
는 상기 무인기가 제어될 수평 위치 상태,
Figure 112016124050597-pat00321
은 위치 가중 파라미터,
Figure 112016124050597-pat00322
는 접선 벡터,
Figure 112016124050597-pat00323
는 법선 벡터,
Figure 112016124050597-pat00324
는 상기 무인기의 현재 위치 벡터,
Figure 112016124050597-pat00325
,
Figure 112016124050597-pat00326
은 상기 무인기와 상기 장애물의 최근접 거리,
Figure 112016124050597-pat00327
는 상기 무인기와 상기 장애물의 미리 설정된 거리,
Figure 112016124050597-pat00328
은 위치 가중 파라미터의 변곡 기준점임.
16. The method of claim 15,
Wherein the step (c1) controls the horizontal position of the UAV according to the following equation: < EMI ID =
Figure 112016124050597-pat00318

Figure 112016124050597-pat00319

here,
Figure 112016124050597-pat00320
The horizontal position state in which the UAV is controlled,
Figure 112016124050597-pat00321
Is a position weighting parameter,
Figure 112016124050597-pat00322
Is a tangent vector,
Figure 112016124050597-pat00323
Is a normal vector,
Figure 112016124050597-pat00324
Is the current position vector of the UAV,
Figure 112016124050597-pat00325
,
Figure 112016124050597-pat00326
The distance between the UAV and the obstacle,
Figure 112016124050597-pat00327
The predetermined distance between the UAV and the obstacle,
Figure 112016124050597-pat00328
Is the inflection point of the position weighting parameter.
제13항에 있어서,
상기 무인기의 이동 방향으로 상기 장애물의 일부분과의 거리를 측정하는 단계를 더 포함하되,
상기 단계 (c)는 상기 무인기의 이동 방향으로 상기 장애물의 일부분이 미리 지정된 간격 이내에 근접할 경우 무인기의 헤딩각을 회전시켜 상기 무인기의 센서 시선 방향과 상기 이동 방향이 변경되도록 하는 단계 (c2)를 포함하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 방법.
14. The method of claim 13,
Further comprising the step of measuring a distance to a portion of the obstacle in a moving direction of the UAV,
Wherein the step (c) includes the step (c2) of rotating the heading angle of the UAV when the part of the obstacle approaches the UAV in the moving direction of the UAV, thereby changing the direction of the sensor line of sight of the UAV and the moving direction A method of UAV control for object shape mapping and real time guidance.
제18항에 있어서,
상기 단계 (c2)는 하기 수학식에 따라 상기 무인기의 헤딩각을 제어하는 것을 특징으로 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 방법,
Figure 112015001876620-pat00279

Figure 112015001876620-pat00280

여기서,
Figure 112015001876620-pat00281
는 상기 무인기가 제어될 요 각도 상태,
Figure 112015001876620-pat00282
는 자세 가중 파라미터,
Figure 112015001876620-pat00283
는 센서 시선 방향의 요 각도,
Figure 112015001876620-pat00284
는 무인기 이동 방향의 요 각도,
Figure 112015001876620-pat00285
는 이동 방향으로의 상기 무인기와 상기 장애물 사이의 간격,
Figure 112015001876620-pat00286
는 허용간격 상한,
Figure 112015001876620-pat00287
는 허용간격 하한임.
19. The method of claim 18,
Wherein the step (c2) controls the heading angle of the UAV according to the following equation: < EMI ID =
Figure 112015001876620-pat00279

Figure 112015001876620-pat00280

here,
Figure 112015001876620-pat00281
Is a state in which the UAV is controlled,
Figure 112015001876620-pat00282
A posture weighting parameter,
Figure 112015001876620-pat00283
The yaw angle in the sensor sight direction,
Figure 112015001876620-pat00284
The yaw angle of the UAV movement direction,
Figure 112015001876620-pat00285
The distance between the unmanned aerial vehicle and the obstacle in the moving direction,
Figure 112015001876620-pat00286
Is the upper limit of the allowable interval,
Figure 112015001876620-pat00287
Is the allowable spacing.
제13항에 있어서,
상기 단계 (c)는 감지된 상기 장애물의 형상이 상기 다중 영상의 이미지 평면 내에 포함되지 않을 경우 위 혹은 아래 방향으로 상기 무인기를 기동시켜 상기 장애물이 상기 이미지 평면 내에 놓여지도록 하는 단계 (c3)를 포함하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 방법.
14. The method of claim 13,
Wherein the step (c) includes the step (c3) of causing the obstacle to be placed in the image plane by activating the UAV if the detected shape of the obstacle is not included in the image plane of the multiple images A method of UAV flight control for object shape mapping and real time guidance.
제20항에 있어서,
상기 단계 (c3)는 상기 장애물이 위아래 방향으로 모두 상기 이미지 평면 내에 맞춰지지 않는다면, 위 혹은 아래 방향 중 일 방향을 선택하여 상기 무인기를 기동시키고, 상기 장애물의 일 끝단에 도달하면 타 방향으로 상기 무인기를 기동시키는 것을 특징으로 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 방법.
21. The method of claim 20,
If the obstacle is not aligned within the image plane in all the up and down directions, the step (c3) may select one of the up and down directions to start the UAV, and if the obstacle reaches one end of the obstacle, Wherein the method further comprises the step of activating the object-shape mapping and real-time guidance.
제21항에 있어서,
상기 단계 (d)는 상기 무인기가 타 방향으로 이동할 때 맵핑을 수행하는 것을 특징으로 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 방법.
22. The method of claim 21,
Wherein the step (d) performs a mapping when the UAV moves in the other direction.
제13항에 있어서,
상기 단계 (d)는 상기 장애물에 대해 수집된 데이터 지점의 시차(disparity)를 이용하여 중복 데이터를 제거하는 것을 특징으로 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 방법.
14. The method of claim 13,
Wherein the step (d) removes redundant data using the disparity of the data points collected for the obstacle.
제23항에 있어서,
상기 단계 (d)는 임의의 데이터 지점을 중심으로 미리 지정된 범위 내에 존재하는 타 데이터 지점과의 시차를 비교하여 높은 시차를 가지는 데이터 지점을 제외한 나머지 데이터 지점을 제거하는 것을 특징으로 하는, 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 방법.
24. The method of claim 23,
Wherein the step (d) compares the time difference with another data point existing within a predetermined range around an arbitrary data point, and removes the remaining data points except the data point having a high time difference. And UAV flight control method for real - time guidance.
제13항, 제15항 내지 제24항 중 어느 한 항에 기재된 사물 형상 맵핑 및 실시간 유도를 위한 무인기 비행 제어 방법을 수행하기 위해 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체.
A recording medium on which a program that can be read by a digital processing apparatus for performing object shape mapping and real time guidance for real-time guidance according to any one of claims 13, 15 to 24 is provided.
KR1020150002699A 2015-01-08 2015-01-08 UAV flight control device and method for object shape mapping and real-time guidance using depth map KR101736089B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150002699A KR101736089B1 (en) 2015-01-08 2015-01-08 UAV flight control device and method for object shape mapping and real-time guidance using depth map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150002699A KR101736089B1 (en) 2015-01-08 2015-01-08 UAV flight control device and method for object shape mapping and real-time guidance using depth map

Publications (2)

Publication Number Publication Date
KR20160085963A KR20160085963A (en) 2016-07-19
KR101736089B1 true KR101736089B1 (en) 2017-05-30

Family

ID=56616177

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150002699A KR101736089B1 (en) 2015-01-08 2015-01-08 UAV flight control device and method for object shape mapping and real-time guidance using depth map

Country Status (1)

Country Link
KR (1) KR101736089B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020139477A1 (en) * 2018-12-27 2020-07-02 Intel Corporation Collision avoidance system, depth imaging system, vehicle, map generator, amd methods thereof

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102474684B1 (en) * 2016-07-22 2022-12-05 한화테크윈 주식회사 Apparatus For Disaster Relief
CN109708636B (en) * 2017-10-26 2021-05-14 广州极飞科技股份有限公司 Navigation chart configuration method, obstacle avoidance method and device, terminal and unmanned aerial vehicle
CN111052028B (en) * 2018-01-23 2022-04-05 深圳市大疆创新科技有限公司 System and method for automatic surface and sky detection
CN109737983B (en) 2019-01-25 2022-02-22 北京百度网讯科技有限公司 Method and device for generating a travel route
CN109978947B (en) * 2019-03-21 2021-08-17 广州极飞科技股份有限公司 Method, device, equipment and storage medium for monitoring unmanned aerial vehicle
CN111610800B (en) * 2020-05-26 2021-07-06 电子科技大学 Loosely-coupled unmanned aerial vehicle control system
KR20240032216A (en) * 2022-08-31 2024-03-12 삼성전자주식회사 Electronic apparatus and controlling method thereof
CN115661204B (en) * 2022-11-01 2023-11-10 中国人民解放军军事科学院国防科技创新研究院 Collaborative searching and tracking positioning method for moving target by unmanned aerial vehicle cluster
CN117472082B (en) * 2023-12-26 2024-03-22 众芯汉创(江苏)科技有限公司 Unmanned aerial vehicle route generation method and device based on AI vision assistance
CN117848350B (en) * 2024-03-05 2024-05-07 湖北华中电力科技开发有限责任公司 Unmanned aerial vehicle route planning method for power transmission line construction engineering

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101458502B1 (en) 2013-03-27 2014-11-07 국방과학연구소 Apparatus for path planning of unmanned vehicle, and its control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020139477A1 (en) * 2018-12-27 2020-07-02 Intel Corporation Collision avoidance system, depth imaging system, vehicle, map generator, amd methods thereof
US11237572B2 (en) 2018-12-27 2022-02-01 Intel Corporation Collision avoidance system, depth imaging system, vehicle, map generator and methods thereof

Also Published As

Publication number Publication date
KR20160085963A (en) 2016-07-19

Similar Documents

Publication Publication Date Title
KR101736089B1 (en) UAV flight control device and method for object shape mapping and real-time guidance using depth map
Yang et al. A 3D collision avoidance strategy for UAVs in a non-cooperative environment
Saha et al. A real-time monocular vision-based frontal obstacle detection and avoidance for low cost UAVs in GPS denied environment
Matthies et al. Stereo vision-based obstacle avoidance for micro air vehicles using disparity space
Meyer et al. Comprehensive simulation of quadrotor uavs using ros and gazebo
Mohta et al. Experiments in fast, autonomous, gps-denied quadrotor flight
CN113168186A (en) Collision avoidance system, depth imaging system, vehicle, map generator and method thereof
KR101642828B1 (en) Obstacle avoidance system and method based on multiple images
Park et al. Collision avoidance for quadrotor using stereo vision depth maps
Park et al. Landing site searching and selection algorithm development using vision system and its application to quadrotor
US11014650B2 (en) Moving body, moving body control system, moving body control method, interface device, and recording medium having program recorded thereon
KR101350242B1 (en) Method and apparatus for searching a landing site of aircraft using a depth map
Santos et al. UAV obstacle avoidance using RGB-D system
Marzat et al. Reactive MPC for autonomous MAV navigation in indoor cluttered environments: Flight experiments
Hebecker et al. Model-based local path planning for UAVs
Salaskar et al. Quadcopter–obstacle detection and collision avoidance
Asadi et al. An integrated aerial and ground vehicle (UAV-UGV) system for automated data collection for indoor construction sites
KR20210075647A (en) Method and apparatus for learning of controlling aviation of unmanned aviation vehicle by using depth camera
Soloviev et al. Planning of the mobile robot motion in non-deterministic environments with potential fields method
Razinkova et al. Tracking a moving ground object using quadcopter UAV in a presence of noise
Park et al. 3D shape mapping of obstacle using stereo vision sensor on quadrotor UAV
Park et al. Landing site searching algorithm of a quadrotor using depth map of stereo vision on unknown terrain
Mendes et al. Safe teleoperation of a quadrotor using FastSLAM
Hing et al. Improving unmanned aerial vehicle pilot training and operation for flying in cluttered environments
Dinaux et al. FAITH: Fast iterative half-plane focus of expansion estimation using optic flow

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant