KR20200008409A - A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera - Google Patents

A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera Download PDF

Info

Publication number
KR20200008409A
KR20200008409A KR1020180082494A KR20180082494A KR20200008409A KR 20200008409 A KR20200008409 A KR 20200008409A KR 1020180082494 A KR1020180082494 A KR 1020180082494A KR 20180082494 A KR20180082494 A KR 20180082494A KR 20200008409 A KR20200008409 A KR 20200008409A
Authority
KR
South Korea
Prior art keywords
camera
image
sub
stereo
drone
Prior art date
Application number
KR1020180082494A
Other languages
Korean (ko)
Other versions
KR102526857B1 (en
Inventor
기명석
복윤수
손지환
안재영
이정환
차지훈
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020180082494A priority Critical patent/KR102526857B1/en
Priority to CN201910594108.0A priority patent/CN110726397B/en
Publication of KR20200008409A publication Critical patent/KR20200008409A/en
Application granted granted Critical
Publication of KR102526857B1 publication Critical patent/KR102526857B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/617Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
    • G05D1/622Obstacle avoidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

The present invention relates to a method and an apparatus for detecting obstacles of an unmanned vehicle. More specifically, the present invention has a sub camera between a pair of stereo cameras, allows an image photographed by the sub camera to be changed based on an obstacle event, and detects obstacles based on the image photographed by the sub camera and the image of the pair of stereo cameras.

Description

스테레오 카메라와 추가 카메라를 이용한 무인비행체 장애물 탐지 장치 및 방법 {A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera}A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera}

본 발명은 무인기의 자율 비행을 위한 장애물을 탐지하기 위한 것으로, 스테레오 카메라에 물리적 제어가 가능한 부가 카메라를 추가 조합한 장애물 탐지 시스템 및 방법에 관한 발명이다.The present invention relates to an obstacle detection system and method for detecting an obstacle for autonomous flight of an unmanned aerial vehicle, and additionally adding an additional camera capable of physical control to a stereo camera.

무인기 기술이 점차 발전함에 따라 조종기를 이용한 수동 제어 위주에서 무인기 스스로 주위 환경을 판단하는 자율비행 및 특정 임무 수행을 위한 무인기 기술들이 개발되고 있다. 이를 위하여 자율비행 시 무인기의 충돌 방지를 위해 비행 경로상의 장애물을 탐지하고 이를 회피하는 기술들이 활발히 연구되고 있다. 현재 무인기의 장애물 탐지에는 스테레오 카메라, 라이다 및 초음파 등의 다양한 센서들을 단독 혹은 결합하는 방법을 사용하고 있다. As drones are gradually developed, drones are being developed for autonomous flight and specific tasks performed by the drone to determine the surrounding environment in a manual control mode using a remote controller. To this end, technologies for detecting and avoiding obstacles in the flight path are actively researched to prevent collision of the drone during autonomous flight. Currently, obstacle detection of drones uses a single or combined method of various sensors such as a stereo camera, a lidar, and an ultrasonic wave.

특히 스테레오 카메라 기반의 장애물 탐지 시스템은 고가의 라이다에 비해 저렴한 가격에 장애물 회피 시스템을 구축할 수 있어 대부분의 무인기 장애물 회피 시스템에 적용되고 있다. In particular, the obstacle detection system based on a stereo camera is applicable to most drone obstacle avoidance systems because an obstacle avoidance system can be constructed at a lower price than an expensive lidar.

하지만, 스테레오 카메라 기반의 장애물 탐지 시스템은 스테레오 카메라 간의 거리인 베이스라인 길이에 따라 탐지 거리에 제한이 존재한다. 이때 원거리 탐지를 위해 카메라간의 베이스라인 길이를 늘릴 경우 원거리 장애물은 탐지가 가능하지만 근거리 장애물의 경우에는 occlusion이나 시차 오류로 인해 오히려 인식률이 떨어질 수 있다. 또한 스테레오 카메라는 기본적으로 수평라인의 시차를 이용하여 물체의 거리를 측정하는 방식이기 때문에 전깃줄이나 빨랫줄과 같은 가로로 가늘고 긴 형태의 구조물은 인식률이 매우 떨어진다는 단점이 존재한다. However, the stereo camera-based obstacle detection system has a limitation in the detection distance according to the baseline length, which is the distance between the stereo cameras. In this case, if the baseline length between cameras is increased for the long range detection, the long distance obstacle can be detected, but in the case of the short range obstacle, the recognition rate may decrease due to occlusion or parallax error. In addition, since stereo cameras basically measure the distance of objects using parallax of horizontal lines, there is a disadvantage in that the recognition rate is very low in a long thin structure such as an electric wire or a clothesline.

또한 무인기는 적재 중량 및 배터리, HW 리소스의 제약으로 많은 수의 센서를 장착하는데 제한을 가지기 때문에 개발자 또는 사용자가 원하는 기능의 센서들을 다 부착할 수 없다는 제약이 따른다.In addition, the drone is limited to mounting a large number of sensors due to the limitations of loading weight, battery, and HW resources, and thus, a drone cannot be attached to all sensors having a desired function.

따라서 무인기의 자율 비행을 위한 장애물을 탐지하기 위해, 스테레오 카메라 기반에서 효율적으로 장애물을 탐지할 수 있는 기술이 요구되고 있는 실정이다.Therefore, in order to detect obstacles for autonomous flight of the drone, a technique for efficiently detecting obstacles based on a stereo camera is required.

본 발명은 무인기의 안전운항에 필요한 장애물 탐지를 수행하는데 목적이 있다. An object of the present invention is to perform obstacle detection required for the safe operation of the drone.

본 발명은 무인기에서 무게 및 HW 리소스의 제약을 극복하여 장애물 탐지를 수행하는 방법을 제시하는데 그 목적이 있다. An object of the present invention is to provide a method for performing obstacle detection by overcoming the constraints of weight and HW resources in an unmanned aerial vehicle.

본 발명은 무인기에서 기존 스테레오 방식의 장애물 탐지 방법에서는 해결하기 힘든 탐지 문제점을 해결하는 방법을 제시하는데 그 목적이 있다.An object of the present invention is to propose a method for solving a detection problem that is difficult to solve in the conventional stereo obstacle detection method in the drone.

본 발명은 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 근거리 및 원거리의 장애물 탐지를 할 수 있는 방법을 제공하는데 목적이 있다.An object of the present invention is to provide a method for detecting obstacles in the near and far distance in a drone obstacle detection system based on a stereo camera.

본 발명은 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 양안시차 오류를 극복하는데 목적이 있다.An object of the present invention is to overcome the binocular parallax error in a drone obstacle detection system based on a stereo camera.

본 발명은 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 틸트 현상 오류를 극복하는데 목적이 있다.An object of the present invention is to overcome a tilt phenomenon error in a drone obstacle detection system based on a stereo camera.

이와 함께, 본 발명이 해결하고자 하는 다른 과제는 기존 스테레오 방식의 장애물 검출이 어려운 전선과 같은 가로 구조물 탐지하는 방법을 제공하는데 그 목적이 있다. In addition, another object of the present invention is to provide a method for detecting a horizontal structure, such as a wire difficult to detect obstacles in the conventional stereo system.

본 발명은 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 장애물을 판단하고 이를 등록하여 영상 보정을 하는데 그 목적이 있다.An object of the present invention is to determine the obstacle in the unmanned aerial vehicle obstacle detection system based on the stereo camera and to register it to correct the image.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Technical problems to be achieved in the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.

본 발명의 일 실시예에 따라, 무인기가 장애물을 탐지하는 방법을 제공할 수 있다. 이 때 무인기가 장애물을 탐지하는 방법은 한 쌍의 스테레오 카메라들로부터 영상을 입력 받고, 상기 입력 받은 영상으로부터 깊이맵을 생성하고, 상기 깊이맵을 분석하여 장애 이벤트 발생 여부를 판단하는 단계를 포함한다. According to one embodiment of the present invention, a drone may provide a method for detecting an obstacle. In this case, the method for detecting an obstacle by the drone includes receiving an image from a pair of stereo cameras, generating a depth map from the received image, and analyzing the depth map to determine whether a failure event occurs. .

이 때 상기 한 쌍의 스테레오 카메라들 사이에 서브 카메라가 존재하고, 상기 서브 카메라가 촬영하는 영상이 상기 장애 이벤트에 기초하여 변경되고, 상기 서브 카메라에서 촬영된 영상 및 상기 한 쌍의 스테레오 카메라들의 영상에 기초하여 장애물을 탐지할 수 있다. At this time, there is a sub camera between the pair of stereo cameras, the image captured by the sub camera is changed based on the fault event, the image captured by the sub camera, and the image of the pair of stereo cameras. Obstacles can be detected based on.

또한, 다음의 실시예들은 무인기가 장애물을 탐지하는 방법 및 장치에서 공통으로 적용될 수 있다.In addition, the following embodiments may be applied in common in a method and apparatus for detecting an obstacle by a drone.

본 발명의 일 실시예에 따라, 한 쌍의 스테레오 카메라들로부터 입력 받은 영상들을 비교한 경우, 영상들간 매칭되는 점 또는 영역이 존재하는지 판단하되, 영상들간 매칭되는 점 또는 영역이 존재하지 않는 경우 장애 이벤트로 등록할 수 있다. 이 때 장애 이벤트가 등록된 경우, 서브 카메라의 구동축과 스테레오 카메라간의 베이스라인이 평행을 이루도록 상기 서브 카메라가 배치될 수 있다. 또한 이때 서브 카메라에서 획득한 영상과 스테레오 카메라가 획득한 좌 우 영상 중 하나와 스테레오 매칭할 수 있다.According to an embodiment of the present invention, when comparing images received from a pair of stereo cameras, it is determined whether there is a point or region matching between images, but if there is no matching point or region between the images You can register as an event. In this case, when a failure event is registered, the sub camera may be arranged such that the baseline between the driving shaft of the sub camera and the stereo camera is parallel to each other. In this case, stereo matching may be performed with one of the left and right images acquired by the sub camera and the stereo camera.

본 발명의 일 실시예에 따라, 상기 생성된 깊이맵을 분석하여, 영상 내의 제 1 영역이 임계치 이상인지 판단하되, 상기 제 1 영역이 영상 내에서 임계치 이상 존재하는 것으로 판단된 경우, 상기 장애 이벤트로 등록될 수 있다. 상기 장애 이벤트가 등록된 경우 무인기의 기울어진 각도를 파악하고, 상기 파악된 각도에 따라 제 1 각도를 결정할 수 있다. 또한 서브 카메라가 스테레오 카메라의 입력 영상보다 제 1 각도만큼 차이 나는 영상을 촬영할 수 있다. 이 때 상기 서브카메라로부터 획득한 영상과 스테레오 카메라의 영상 간의 중복되는 범위를 파악하고, 상기 중복되는 범위의 깊이 값을 측정한 뒤, 상기 중복되는 범위의 깊이 값을 확장할 수 있다.According to an embodiment of the present invention, by analyzing the generated depth map, it is determined whether the first region in the image is greater than or equal to the threshold, and when it is determined that the first region is greater than or equal to the threshold in the image, the disorder event. It can be registered as. When the obstacle event is registered, the inclination angle of the drone may be determined, and the first angle may be determined according to the determined angle. In addition, the sub-camera may capture an image that is different from the input image of the stereo camera by a first angle. At this time, the overlapping range between the image obtained from the sub-camera and the image of the stereo camera can be identified, the depth value of the overlapping range can be measured, and the depth value of the overlapping range can be expanded.

본 발명의 일 실시예에 따라 상기 생성된 깊이맵을 분석하는 경우, 영상 내에 수평 라인이 존재하는지 여부를 판단하되, 영상 내에 수평 라인이 존재하는 것으로 판단된 경우, 영상 내의 수평 라인이 두 개 이상인 경우 상기 장애 이벤트로 등록될 수 있다. 상기 장애 이벤트로 등록된 경우, 상기 서브카메라의 구동축과 스테레오 카메라간의 베이스 라인이 서로 수직을 이루도록 상기 서브 카메라가 배치될 수 있다. 또한 상기 수직으로 배치된 서브 카메라와 스테레오 카메라간 수직 스테레오 매칭을 수행하여, 상기 영상 내의 수평 라인이 실제 장애물인지를 최종 판별할 수 있다.When analyzing the generated depth map according to an embodiment of the present invention, it is determined whether there is a horizontal line in the image, but if it is determined that there is a horizontal line in the image, there are two or more horizontal lines in the image. In this case, the failure event may be registered. When registered as the fault event, the sub camera may be arranged such that the base line between the driving shaft of the sub camera and the stereo camera is perpendicular to each other. In addition, vertical stereo matching between the vertically disposed sub-camera and the stereo camera may be performed to finally determine whether the horizontal line in the image is an actual obstacle.

본 발명의 일 실시예에 따라, 무인기가 장애물을 탐지하는 장치를 제공할 수 있다. 이 때 무인기가 장애물을 탐지하는 장치는 한 쌍의 스테레오 카메라들로부터 영상을 입력 받는 영상 획득부, 상기 입력 받은 영상으로부터 깊이맵을 생성하는 깊이맵 생성부, 상기 깊이맵을 분석하여 장애 이벤트 발생 여부를 판단하는 깊이맵 영상 분석부 및 서브 카메라 제어부를 포함할 수 있다.According to one embodiment of the present invention, a drone may provide an apparatus for detecting an obstacle. In this case, the apparatus for detecting an obstacle by the drone includes an image acquisition unit that receives an image from a pair of stereo cameras, a depth map generator that generates a depth map from the input image, and analyzes the depth map to determine whether a failure event occurs. It may include a depth map image analysis unit and a sub-camera control unit for determining the.

이 때, 상기 한 쌍의 스테레오 카메라들 사이에 서브 카메라가 존재할 수 있다. 또한 상기 서브 카메라가 촬영하는 영상이 상기 장애 이벤트에 기초하여 변경되고, 상기 서브 카메라에서 촬영된 영상 및 상기 한 쌍의 스테레오 카메라들의 영상에 기초하여 장애물을 탐지할 수 있다.In this case, a sub camera may exist between the pair of stereo cameras. In addition, an image captured by the sub camera may be changed based on the fault event, and an obstacle may be detected based on an image captured by the sub camera and an image of the pair of stereo cameras.

본 발명에 의하면 무인기의 안전운항에 필요한 장애물 탐지를 수행하는 방법을 제공할 수 있다.According to the present invention can provide a method for performing obstacle detection required for the safe operation of the drone.

본 발명에 의하면 무인기에서 무게 및 HW 리소스의 제약을 극복하여 장애물 탐지를 수행하는 방법을 제공할 수 있다. According to the present invention, it is possible to provide a method for performing obstacle detection by overcoming constraints of weight and HW resources in an unmanned aerial vehicle.

본 발명에 의하면 무인기에서 기존 스테레오 방식의 장애물 탐지 방법에서는 해결하기 힘든 탐지 문제점을 해결하는 방법을 제시할 수 있다.According to the present invention, a method for solving a detection problem that is difficult to solve in the conventional stereo obstacle detection method in an unmanned aerial vehicle can be proposed.

본 발명에 의하면 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 근거리 및 원거리의 장애물 탐지를 할 수 있는 방법을 제공할 수 있다.According to the present invention, it is possible to provide a method for detecting near and far obstacles in a drone obstacle detection system based on a stereo camera.

본 발명에 의하면 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 양안시차 오류를 극복하는 방법을 제공할 수 있다.According to the present invention, a method for overcoming binocular parallax error in a drone obstacle detection system based on a stereo camera can be provided.

본 발명에 의하면 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 틸트 현상 오류를 극복하는 방법을 제공할 수 있다.According to the present invention, a method for overcoming a tilt phenomenon error in a drone obstacle detection system based on a stereo camera can be provided.

본 발명에 의하면 기존 스테레오 방식의 장애물 검출이 어려운 전선과 같은 가로 구조물을 탐지하는 방법을 제공할 수 있다.According to the present invention, it is possible to provide a method for detecting a horizontal structure such as a wire, which is difficult to detect an obstacle of a conventional stereo system.

본 발명에 의하면 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 장애물을 판단하고 이를 등록하여 영상 보정을 할 수 있다.According to the present invention, in a stereo camera-based drone obstacle detection system, an obstacle may be determined and registered to correct an image.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtained in the present invention are not limited to the above-mentioned effects, and other effects not mentioned above may be clearly understood by those skilled in the art from the following description. will be.

도 1은 본 발명의 일 실시예에 따른 복수의 카메라를 이용한 장애물 탐지 시스템의 블록도를 보여준다.
도 2는 본 발명의 일 실시예에 따른 복수의 카메라 기반 무인기 장애물 탐지 시스템에서 깊이맵 영상 분석부의 블록도를 보여준다.
도 3은 본 발명의 일 실시예에 따른 멀티카메라 기반 무인기 장애물 탐지 시스템에서 서브 카메라 제어 및 인식부의 블록도를 보여준다.
도 4는 본 발명의 일 실시예에 따른 멀티카메라 기반 무인기 장애물 탐지 시스템의 카메라 장치 구성에 대한 일 예를 보인다.
도 5는 양안 시차 오류 및 본 발명의 일 실시예에 따른 오류 보정 방법을 나타낸 도면이다.
도 6은 본 발명의 일 실시예로 무인기의 고속 이동 시 발생하는 틸트 현상에 대한 일 예를 그림으로 도시 한다.
도 7은 본 발명의 일 실시예에 따라 가로 장애물을 판별하는 방법에 대한 일 예를 그림으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 장애물 탐지 방법의 흐름도를 보여준다.
도 9는 본 발명의 일 실시예로 시차오류 발생시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다.
도 10은 본 발명의 일 실시에로 틸트 현상 발생시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다.
도 11은 본 발명의 일 실시예로 가로 장애물 발견 시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다.
1 is a block diagram of an obstacle detection system using a plurality of cameras according to an embodiment of the present invention.
2 is a block diagram of a depth map image analyzing unit in a plurality of camera-based drone obstacle detection systems according to an exemplary embodiment of the present invention.
3 is a block diagram of a sub-camera control and recognition unit in a multi-camera drone obstacle detection system according to an exemplary embodiment of the present invention.
4 shows an example of a camera device configuration of a multi-camera-based drone obstacle detection system according to an embodiment of the present invention.
5 is a diagram illustrating a binocular parallax error and an error correction method according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating an example of a tilt phenomenon that occurs when a drone moves at a high speed according to an embodiment of the present invention.
7 is a diagram illustrating an example of a method of determining a horizontal obstacle according to an embodiment of the present invention.
8 is a flowchart illustrating an obstacle detection method according to an embodiment of the present invention.
9 is a flowchart illustrating a method for detecting an obstacle when a parallax error occurs according to an embodiment of the present invention.
10 is a flowchart illustrating a method for detecting an obstacle when a tilt phenomenon occurs in an embodiment of the present invention.
FIG. 11 is a flowchart illustrating an obstacle detecting method when a horizontal obstacle is found according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.

본 발명의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 발명에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the following description of embodiments of the present invention, when it is determined that detailed descriptions of well-known structures or functions may obscure the gist of the present invention, detailed descriptions thereof will be omitted. In the drawings, parts irrelevant to the description of the present invention are omitted, and like reference numerals designate like parts.

본 발명에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present invention, when a component is "connected", "coupled" or "connected" with another component, it is not only a direct connection, but also an indirect connection in which another component exists in between. It may also include. In addition, when a component "includes" or "having" another component, it means that it may further include another component, without excluding the other component unless otherwise stated. .

본 발명에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 발명의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다.In the present invention, the terms "first" and "second" are used only for the purpose of distinguishing one component from other components, and do not limit the order or the importance between the components unless otherwise specified. Therefore, within the scope of the present invention, a first component in one embodiment may be referred to as a second component in another embodiment, and likewise, a second component in one embodiment may be referred to as a first component in another embodiment. It may also be called.

본 발명에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 발명의 범위에 포함된다.In the present invention, the components distinguished from each other to clearly describe each feature, and does not necessarily mean that the components are separated. That is, a plurality of components may be integrated into one hardware or software unit, or one component may be distributed into a plurality of hardware or software units. Therefore, even if not mentioned otherwise, such integrated or distributed embodiments are included in the scope of the present invention.

본 발명에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 발명의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 발명의 범위에 포함된다.In the present disclosure, components described in various embodiments are not necessarily required components, and some may be optional components. Therefore, an embodiment consisting of a subset of the components described in an embodiment is also included in the scope of the present invention. In addition, embodiments including other components in addition to the components described in the various embodiments are included in the scope of the present invention.

본 발명은 무인기의 자율 비행을 위한 장애물 탐지를 위해 스테레오 카메라 에 물리적 제어가 가능한 부가 카메라를 추가 조합한 장애물 탐지 시스템 및 방법에 관한 것이다. 더욱 상세하게는 스테레오 카메라에 모터 또는 기계적으로 제어가 가능한 추가적인 카메라를 이용하여 근거리 장애물 및 기존 스테레오 시스템으로는 탐지가 어려운 가로 장애물 탐지를 수행하는 무인비행체 장애물 탐지 시스템 및 방법에 관한 것이다.The present invention relates to an obstacle detection system and method in which an additional camera capable of physical control is further added to a stereo camera for obstacle detection for autonomous flight of a drone. More specifically, the present invention relates to a drone obstacle detection system and method for performing a short distance obstacle and a horizontal obstacle detection that is difficult to detect with a conventional stereo system by using a motor or mechanically controlled additional camera in a stereo camera.

본 발명의 이점 및 특징, 그것들을 달성하는 방법은 첨부되어 있는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 제시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments set forth below, but may be implemented in various forms, and only the present embodiments are intended to complete the disclosure of the present invention, and those skilled in the art to which the present invention pertains. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims.

이하, 본 발명의 실시예들에 의하여 무인기 장애물 탐지 시스템 및 그 방법을 설명하기 위한 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명한다. 이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. Hereinafter, the present invention will be described with reference to the drawings of a block diagram or a processing flowchart for explaining a drone obstacle detection system and a method thereof according to embodiments of the present invention. It will be appreciated that each block of the flowchart illustrations and combinations of flowchart illustrations may be performed by computer program instructions. Since these computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, those instructions executed through the processor of the computer or other programmable data processing equipment may be described in the flowchart block (s). It will create means to perform the functions.

또한 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. Each block may also represent a module, segment or portion of code that includes one or more executable instructions for executing a specified logical function (s). It should also be noted that in some alternative implementations, the functions noted in the blocks may occur out of order.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 복수의 카메라를 이용한 장애물 탐지 시스템의 블록도를 보여준다.1 is a block diagram of an obstacle detection system using a plurality of cameras according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 무인기 탐지 시스템(100)은 영상 획득부(120), 깊이맵 생성부(130), 깊이맵 영상 분석부(140), 서브 카메라 제어 및 인식부(150) 및 장애물 인식부(160)등을 포함할 수 있다.The drone detection system 100 according to an exemplary embodiment of the present invention includes an image acquisition unit 120, a depth map generator 130, a depth map image analyzer 140, a sub camera control and recognition unit 150, and an obstacle. The recognition unit 160 may be included.

영상 획득부는(120) 한 쌍의 스테레오 카메라와 추가적인 서브 카메라로 구성될 수 있다. 본 발명의 일 실시예로 한 쌍의 스테레오 카메라와 하나의 서브 카메라가 명시된 바 있으나, 발명의 적용 목적 및 방법에 따라 스테레오 카메라와 서브 카메라의 개수는 한 개 이상이 될 수 있는바, 상술한 실시예로 한정되지 않는다.The image acquirer 120 may include a pair of stereo cameras and an additional sub camera. Although one pair of stereo cameras and one sub camera are specified as an embodiment of the present invention, the number of stereo cameras and sub cameras may be one or more according to the application purpose and method of the present invention. It is not limited to the example.

영상 획득부는(120) 한 쌍의 스테레오 카메라와 추가적인 서브 카메라를 이용하여 외부로부터 동기화된 복수의 입력 영상을 획득한다. 보다 상세하게는 영상 획득부는(120) 클럭 동기화 신호에 따라 동일한 시간에 복수의 입력 영상을 획득할 수 있다. The image acquisition unit 120 acquires a plurality of input images synchronized from the outside using a pair of stereo cameras and an additional sub camera. In more detail, the image acquisition unit 120 may acquire a plurality of input images at the same time according to the clock synchronization signal.

영상 획득부(120)의 스테레오 카메라는 수평 라인으로 정렬된 상태로 구성될 수 있다. 이때 한 쌍의 스테레오 카메라는 일정한 간격만큼 떨어져 있을 수 있으며, 한 쌍의 스테레오 카메라는 일직선 상에 놓이도록 구성될 수 있다.The stereo camera of the image acquisition unit 120 may be configured to be aligned in a horizontal line. In this case, the pair of stereo cameras may be separated by a predetermined interval, and the pair of stereo cameras may be configured to lie in a straight line.

본 발명의 일 실시예로 한 쌍의 스테레오 카메라 간의 간격은 빠른 속도로 이동하는 무인기에서 원거리 장애물을 탐지하기 위한 충분한 길이의 베이스라인을 가질 수 있도록 구성될 수 있다. In one embodiment of the present invention, the spacing between a pair of stereo cameras may be configured to have a baseline of sufficient length to detect distant obstacles in a fast moving drone.

또한 영상 획득부(120)의 스테레오 카메라는 양안 시차를 가진 복수의 스테레오 영상을 획득할 수 있다. In addition, the stereo camera of the image acquisition unit 120 may acquire a plurality of stereo images having binocular parallax.

영상 획득부(120)의 서브 카메라는 장치의 작동 초기에는 일반 모드로 세팅 되어 있을 수 있다. 이때, 일반 모드로 세팅 된 서브 카메라는 한 쌍의 스테레오 카메라의 베이스라인 사이에 위치할 수 있다. 이 때 본 발명의 일 실시예로 서브 카메라는 한 쌍의 스테레오 카메라 간 중간에 위치할 수 있으나, 상술한 실시예로 한정되지 않는다. 또한 서브 카메라는 한 쌍의 스테레오 카메라의 베이스 라인 위에 배치될 수 있다.The sub-camera of the image acquisition unit 120 may be set to a normal mode at the initial operation of the device. In this case, the sub camera set in the normal mode may be located between the baselines of the pair of stereo cameras. At this time, in one embodiment of the present invention, the sub-camera may be located in the middle between a pair of stereo cameras, but is not limited to the above-described embodiment. Also, the sub camera may be disposed on the base line of the pair of stereo cameras.

이때 본 발명의 일 실시예로 서브 카메라와 구동 모터가 연결되어 있는 구동 축은 한 쌍의 스테레오 카메라가 이루고 있는 일직선과 평행을 이룰 수 있다. 이 때, 일반 모드에서 서브 카메라는 스테레오 카메라가 잡기 어려운 근거리 장애물을 탐지 하는데 활용될 수 있다. 또한 이와 달리 일반 모드에서 한 쌍의 스테레오 카메라는 원거리 장애물을 탐지 하는데 활용될 수 있다. At this time, in one embodiment of the present invention, the driving shaft to which the sub-camera and the driving motor are connected may be parallel to a straight line formed by the pair of stereo cameras. In this case, the sub camera in the normal mode may be used to detect near obstacles that are difficult to be grasped by the stereo camera. Alternatively, in normal mode, a pair of stereo cameras can be used to detect distant obstacles.

깊이맵 생성부(130)는 스테레오 영상을 이용하여 깊이맵을 추출하는 기능을 수행한다. 수평라인으로 정렬된 두 대의 카메라는 카메라에서 물체까지의 거리에 따라 서로 다른 시차를 갖는 복수의 영상을 획득할 수 있다. 깊이맵 생성부(130)는 획득한 복수의 영상으로부터 스테레오 매칭을 수행한다. 보다 상세하게는 스테레오 매칭 과정에서는 두 영상에서 동일한 위치를 찾아 영상 객체간에 시차를 계산하고 이 시차를 이용하여 깊이맵을 획득하는 과정을 수행한다. The depth map generator 130 performs a function of extracting a depth map using a stereo image. Two cameras arranged in a horizontal line may acquire a plurality of images having different parallaxes according to the distance from the camera to the object. The depth map generator 130 performs stereo matching from the obtained plurality of images. In more detail, the stereo matching process finds the same position in two images, calculates parallax between image objects, and acquires a depth map using the parallax.

깊이맵 영상 분석부(140)는 생성된 깊이맵을 분석하여 객체를 분류하고 무인기의 진행 방향에 존재하는 장애물 후보를 추출 하고 해당 결과를 이벤트로 저장하는 기능을 수행한다. The depth map image analyzing unit 140 analyzes the generated depth map, classifies objects, extracts obstacle candidates present in the moving direction of the drone, and stores a corresponding result as an event.

깊이맵 영상 분석부(140)는 생성된 깊이맵을 분석하여 베이스라인이 길어 인식할 수 없는 근거리 장애물에 대한 시차 오류를 검출하고 해당 결과를 이벤트로 저장하는 기능을 수행한다. The depth map image analyzing unit 140 analyzes the generated depth map to detect a parallax error with respect to a short range obstacle that cannot be recognized due to a long baseline and to store the result as an event.

깊이맵 영상 분석부(140)는 생성된 깊이맵을 분석하여 무인기가 고속으로 진행할 때 무인기가 기울어져 발생하는 틸트 현상을 검출하고 해당 결과를 이벤트로 저장하는 기능을 수행한다. 이 때 본 발명의 일 실시예로 틸트 현상의 검출은 무인기의 IMU 정보를 분석하는 방법과 영상의 수평선을 분석하여 결정하는 방법 등을 사용할 수 있다. The depth map image analyzing unit 140 analyzes the generated depth map to detect a tilt phenomenon caused by tilting the drone when the drone proceeds at a high speed, and stores the result as an event. At this time, in one embodiment of the present invention, the detection of the tilt phenomenon may use a method of analyzing the IMU information of the drone, a method of analyzing the horizontal line of the image, and the like.

깊이맵 영상 분석부(140)는 생성된 깊이맵을 분석하여 무인기의 비행에 큰 위험이 되는 전선과 같은 가로 형태의 장애물이 있는지 확인하기 위해 비행 깊이맵에 수평라인이 존재하는지 검사한다. 이 때 본 발명의 일 실시예로 수평라인 검출은 영상의 가로라인 에지 추출 등을 통해 수행될 수 있다. The depth map image analyzer 140 analyzes the generated depth map and checks whether a horizontal line exists in the flight depth map to check whether there is a horizontal obstacle such as an electric wire that is a great risk for the flight of the drone. At this time, in one embodiment of the present invention, the horizontal line detection may be performed by extracting the horizontal line edge of the image.

이때 검출되는 수평라인은 지평선이나 실제 전선과 같은 것들이 검출 될 수 있다. 다만, 단순한 수평라인 검출만으로는 이 라인이 실제 무인기 비행의 장애물이 되는 수평라인인지를 판단할 수 없다. 보다 상세하게는 검출된 수평 라인이 무인기 비행의 장애물이 되는 전선인지 또는 장애물이 아닌 지평선인지 판단할 수 없으므로 서브 카메라 제어 및 인식부(150)에서 이를 검사하기 위해 검출된 결과를 이벤트로 저장하는 기능을 수행한다. At this time, the horizontal line can be detected such as the horizon or the actual wire. However, simple horizontal line detection alone cannot determine whether this line is a horizontal line that is an obstacle to the actual drone flight. More specifically, since it is not possible to determine whether the detected horizontal line is a wire that becomes an obstacle of the drone flight or a horizon rather than an obstacle, the sub camera control and recognition unit 150 stores the detected result as an event to check it. Do this.

도 2는 본 발명의 일 실시예에 따른 복수의 카메라 기반 무인기 장애물 탐지 시스템에서 깊이맵 영상 분석부(140)의 블록도를 보여준다.2 is a block diagram of a depth map image analyzing unit 140 in a plurality of camera-based drone obstacle detection systems according to an embodiment of the present invention.

깊이맵 영상 분석부(140)는 입력된 깊이맵을 분석하여 영상 내의 깊이맵에 따라 영역을 분류하는 깊이맵 정보 분석부(200)가 포함될 수 있다. The depth map image analyzer 140 may include a depth map information analyzer 200 that analyzes the input depth map and classifies the area according to the depth map in the image.

깊이맵 영상 분석부(140)는 분석된 깊이맵 분류 영역 정보를 바탕으로 장애물의 위험이 있는 영역을 구분하는 장애물 후보 분석부(210) 가 포함될 수 있다. The depth map image analyzer 140 may include an obstacle candidate analyzer 210 that classifies a region of danger of an obstacle based on the analyzed depth map classification region information.

깊이맵 영상 분석부(140)는 깊이맵에 시차 오차가 발생하여 매칭 오류가 발생한 영역을 분류하는 근거리 오차 추출부(220)가 포함될 수 있다. The depth map image analyzer 140 may include a short range error extracting unit 220 classifying a region in which a matching error occurs because a parallax error occurs in the depth map.

또한 깊이맵 영상 분석부(140)는 분석된 깊이맵 분류 영역에서 수평라인이 존재하는지 검출하는 수평라인 검출부(230), 수평라인 검출부(230)에서 검출된 수평라인을 향후 가로 장애물 판별을 위해 등록하는 가로 장애물 후보 추출부(240), 틸트 현상 검출부(250)를 포함할 수 있다. 보다 상세하게는 근거리 오차 추출부(220)에서는 시차 오류 이벤트 판단 및 등록이 발생할 수 있다. 보다 상세하게는 가로 장애물 후보 추출부(240)에서는 가로 장애물 오류 이벤트 판단 및 등록이 발생할 수 있다. 보다 상세하게는 틸트 현상 검출부(250) 에서는 무인기 틸트 현상에 대한 오류 판단 및 등록이 발생할 수 있다.In addition, the depth map image analyzer 140 registers a horizontal line detector 230 for detecting whether a horizontal line exists in the analyzed depth map classification region and a horizontal line detected by the horizontal line detector 230 for future horizontal obstacle determination. The horizontal obstacle candidate extractor 240 and the tilt phenomenon detection unit 250 may be included. In more detail, the near error extraction unit 220 may generate a parallax error event and register the error. In more detail, the horizontal obstacle candidate extractor 240 may determine and register a horizontal obstacle error event. In more detail, in the tilt phenomenon detection unit 250, error determination and registration for the drone tilt phenomenon may occur.

도 3은 본 발명의 일 실시예에 따른 멀티카메라 기반 무인기 장애물 탐지 시스템에서 서브 카메라 제어 및 인식부(150)의 블록도를 보여준다.3 is a block diagram of the sub-camera control and recognition unit 150 in the multi-camera drone obstacle detection system according to an embodiment of the present invention.

서브 카메라 제어 및 인식부(150)는 스테레오 카메라 사이에 설치된 추가적인 카메라를 제어하는 역할을 수행한다. 이 때, 서브 카메라 제어 및 인식부(150)에 의해 제어되는 서브카메라는 스테레오 카메라 기반의 무인기 장애물 탐지 시스템을 보완하기 위한 다양한 역할을 수행할 수 있다.The sub camera control and recognition unit 150 serves to control additional cameras installed between the stereo cameras. At this time, the sub-camera controlled by the sub-camera control and recognition unit 150 may play various roles to complement the stereo camera-based drone obstacle detection system.

서브 카메라 제어 및 인식부(150)는 깊이맵 영상 분석부(140)에서 장애물 및 오류 발생을 분석한 결과가 이벤트로 등록된 경우, 서브 카메라의 동작을 제어하는 기능을 수행한다. 이 때, 이벤트의 일 예시로 시차 오류, 무인기 틸트 현상, 가로장애물 후보 등록 등이 해당될 수 있다. The sub camera control and recognition unit 150 controls the operation of the sub camera when the result of analyzing the occurrence of the obstacle and the error in the depth map image analyzer 140 is registered as an event. In this case, examples of the event may include a parallax error, a drone tilt phenomenon, and registration of a road obstacle candidate.

본 발명의 일 실시예로, 서브 카메라 제어 및 인식부(150)는 시차 오류가 발생하였다는 이벤트가 등록되면 동작한다.In one embodiment of the present invention, the sub-camera control and recognition unit 150 operates when an event that a parallax error occurs is registered.

시차 오류란 스테레오 카메라 간의 배치 길이인 베이스 라인이 너무 멀어 근거리 객체를 촬영할 경우 좌우 카메라에서 촬영한 영상간에 시차가 너무 커 매칭이 이루어지지 않는 오류이다. A parallax error is an error in which matching is not performed because the parallax is too large between the images taken by the left and right cameras when the short distance of the baseline between the stereo cameras is too far.

이 때 서브 카메라는 한 쌍의 스테레오 카메라의 베이스라인 사이에 위치할 수 있다. 이때 본 발명의 일 실시예로 서브 카메라와 구동모터가 연결되어 있는 구동 축은 한 쌍의 스테레오 카메라가 이루고 있는 일직선과 평행을 이룰 수 있다.In this case, the sub camera may be located between the baselines of the pair of stereo cameras. At this time, in one embodiment of the present invention, the driving shaft to which the sub-camera and the driving motor are connected may be parallel to the straight line formed by the pair of stereo cameras.

시차오류를 보정하기 위한 본 발명의 일 실시예로, 서브 카메라 제어 및 인식부(150)는 좌우 카메라에서 입력 받은 영상 간의 스테레오 매칭 후 서브 카메라에서 획득한 영상과의 스테레오 매칭을 수행할 수 있다. 보다 상세하게는 좌우 카메라간 스테레오 매칭을 수행한 후, 서브 카메라의 영상을 좌 우 카메라 중 한 대에서 획득된 영상과 다시 스테레오 매칭을 수행할 수 있다. 이와 같은 방법을 통해 본 발명은 근거리 장애물 객체를 인지하고 시차 오류를 극복하는 동작을 수행할 수 있다. In an embodiment of the present invention for correcting parallax errors, the sub-camera control and recognition unit 150 may perform stereo matching with an image obtained by the sub-camera after stereo matching between images input from the left and right cameras. In more detail, after performing stereo matching between the left and right cameras, the stereo matching may be performed again with the image obtained from one of the left and right cameras. Through this method, the present invention can recognize a near obstacle object and perform an operation of overcoming parallax errors.

본 발명의 일 실시예로, 서브 카메라 제어 및 인식부(150)는 깊이맵 영상 분석부(140)에서 틸트 현상이 발생하였다는 이벤트가 등록되면 동작한다.In an embodiment of the present invention, the sub-camera control and recognition unit 150 operates when an event indicating that a tilt phenomenon occurs in the depth map image analyzer 140 is registered.

서브 카메라 제어 및 인식부(150)는 무인기가 고속으로 비행 시 발생하는 틸트 현상으로 인해 무인기가 기울어져 카메라가 하방을 촬영하게 되어 나타나는 문제를 해결하는 기능을 수행한다. 이 때 틸트 현상이란 하방 촬영으로 장애물을 파악하지 못하는 현상을 의미한다. 구체적으로는 카메라가 비행 전방이 아닌 하방을 촬영하게 되면 획득된 영상에는 지상의 수평선 아래 영역이 많은 부분을 차지하게 된다. 이때 수평선 이하의 영상은 깊이맵을 정확히 추출하기 힘들게 하며, 하방 촬영으로 인해 전방의 장애물을 제대로 파악할 수 없다는 문제점이 존재한다.The sub-camera control and recognition unit 150 performs a function of solving a problem in which the drone is tilted and the camera is photographed downward due to a tilt phenomenon generated when the drone is flying at a high speed. In this case, the tilt phenomenon means a phenomenon in which obstacles are not recognized by shooting downward. Specifically, when the camera captures the lower part of the flight rather than the front of the flight, the area under the horizontal horizon occupies a large part of the acquired image. At this time, the image below the horizon makes it difficult to accurately extract the depth map, and there is a problem in that it is impossible to properly grasp the obstacle in front due to the downward shooting.

서브 카메라 제어 및 인식부(150)는 무인기에 장착된 IMU 정보를 주기적으로 분석하여 무인기에서 틸트 현상이 발생하는지 여부를 판단한다. 이때, 서브 카메라 제어 및 인식부(150)는 틸트 현상이 발생하였다는 이벤트가 등록된 경우 서브 카메라의 위치를 모터 등의 물리적 장치 제어를 통해 틸트 각도에 따라 변경하여 틸트 현상으로 나타나는 현상을 보완하는 동작을 수행한다. 구체적인 틸트 영상 보완 기법에 대해서는 도면과 함께 후술하기로 한다.The sub-camera control and recognition unit 150 periodically analyzes the IMU information installed in the drone to determine whether the tilt occurs in the drone. At this time, the sub-camera control and recognition unit 150 compensates for the phenomenon that appears as a tilt phenomenon by changing the position of the sub-camera according to the tilt angle through the control of a physical device such as a motor when an event indicating that a tilt phenomenon has occurred is registered. Perform the action. A detailed tilt image complementary technique will be described later with reference to the accompanying drawings.

본 발명의 일 실시예로, 서브 카메라 제어 및 인식부(150)는 깊이맵 영상 분석부(140)에서 가로 장애물이 발견되었다는 이벤트가 등록되면 동작한다. 즉, 서브 카메라 제어 및 인식부(150)는 무인기의 비행시 일반적인 스테레오 영상으로는 탐지하기 힘든 전깃줄과 같은 가로 장애물을 판별하는 기능을 수행한다. In an embodiment of the present invention, the sub-camera control and recognition unit 150 operates when an event indicating that a horizontal obstacle is found in the depth map image analyzer 140 is registered. That is, the sub-camera control and recognition unit 150 performs a function of determining a horizontal obstacle such as an electric wire that is difficult to detect with a general stereo image during flight of the drone.

서브 카메라 제어 및 인식부(150)에서는 깊이맵 영상 분석부(140)에서 수평라인이 검출되었다는 이벤트가 발생하면 서브 카메라를 제어하여 가로 장애물인지 여부를 판단하는 작업을 수행한다. 보다 상세하게는 영상 내의 수평라인이 1개가 존재하는 경우 지평선으로 판단할 수 있다. 따라서 이때는 가로 장애물이 존재하지 않는다. 그러나 영상 내의 수평라인이 2개 이상인 경우, 그 중 1개 이상은 가로장애물이 될 수 있는바, 이 경우에는 가로 장애물이 발생한 것으로 판단하여 가로장애물 이벤트를 발생시킬 수 있다.When the event that the horizontal line is detected by the depth map image analyzing unit 140 occurs, the sub camera control and recognition unit 150 controls the sub camera to determine whether it is a horizontal obstacle. More specifically, when there is one horizontal line in the image, it may be determined as a horizon line. Therefore, there is no horizontal obstacle at this time. However, if there are two or more horizontal lines in the image, one or more of them may be a horizontal obstacle. In this case, the horizontal obstacle may be determined to generate a horizontal obstacle event.

보다 상세하게는 서브 카메라 제어 및 인식부(150)는 수평라인 검출 이벤트 발생 시 서브 카메라를 모터 등의 물리적 장치를 이용하여 구동모터를 중심으로 회전하여 이동시킨다. 이때 발명의 일 실시예로 서브 카메라는 스테레오 카메라 중 한 대와 직렬로 정렬될 수 있다. 보다 상세하게는 한 쌍의 스테레오 카메라 간의 연결 축과 구동 모터와 서브 카메라가 연결된 구동 축이 수직을 형성할 수 있다.More specifically, the sub-camera control and recognition unit 150 rotates and moves the sub-camera about the driving motor by using a physical device such as a motor when a horizontal line detection event occurs. At this time, in an embodiment of the present invention, the sub camera may be aligned in series with one of the stereo cameras. More specifically, the connecting shaft between the pair of stereo cameras and the driving shaft to which the driving motor and the sub camera are connected may form a vertical axis.

이 때 서브 카메라 제어 및 인식부(150)에서는 일반적인 수평 스테레오 매칭이 아닌 수직 스테레오 매칭을 수행하고 이에 대한 깊이맵을 추출한다.At this time, the sub-camera control and recognition unit 150 performs vertical stereo matching instead of general horizontal stereo matching and extracts a depth map thereof.

서브 카메라 제어 및 인식부(150)에서는 추출된 깊이맵을 분석하여 수평라인이 가로 장애물인지를 판단하는 과정을 수행한다. 보다 상세하게는 가로 장애물이 아닌 수평선이라면 시차가 발생하지 않는다. 반면 무인기의 탐지 거리 내의 전깃줄과 같은 가로 장애물의 경우라면 상하 양안 시차가 발생되어 가로 장애물임을 확인할 수 있다.The sub-camera control and recognition unit 150 analyzes the extracted depth map to determine whether the horizontal line is a horizontal obstacle. In more detail, parallax does not occur in a horizontal line rather than a horizontal obstacle. On the other hand, in the case of a horizontal obstacle such as a power line within the detection range of the drone, a vertical and horizontal binocular parallax may be generated to confirm that the horizontal obstacle.

상기 기능들을 구현하기 위한 서브 카메라 제어 및 인식부(150)는 서브 카메라 제어 구동부(300), 틸트 정보 분석부(310), 근거리 깊이값 측정부(320), 틸트 영상 보정부(330), 수직 스테레오 매칭부(340), 가로 장애물 추출부(350)로 구성될 수 있다.The sub-camera control and recognition unit 150 for implementing the functions includes a sub-camera control driver 300, a tilt information analyzer 310, a near depth value measurer 320, a tilt image corrector 330, and a vertical The stereo matching unit 340 and the horizontal obstacle extraction unit 350 may be configured.

이 때 서브 카메라 제어 구동부(300)는 시차 오류, 가로 장애물 후보 등록, 무인기 틸트 이벤트가 발생하였을 때 각 이벤트 별로 서브 카메라를 제어하는 역할을 수행할 수 있다. In this case, the sub-camera control driver 300 may control the sub-camera for each event when a parallax error, a horizontal obstacle candidate registration, or a drone tilt event occurs.

이 때 근거리 깊이값 측정부(320)는 시차 오류 이벤트가 발생할 경우 서브 카메라를 이용하여 스테레오 카메라 중 한 대와 스테레오 매칭을 재 수행하여 시차 오류를 보정하는 기능을 수행할 수 있다. In this case, when the parallax error event occurs, the near depth measurement unit 320 may perform a function of correcting the parallax error by performing stereo matching with one of the stereo cameras again using the sub camera.

이 때 틸트 영상 보정부(330)는 틸트 정보 분석부(310)로부터 현재 무인기의 상태 정보를 입력 받아 무인기의 틸트 상태를 확인할 수 있다.At this time, the tilt image corrector 330 may receive the state information of the current drone from the tilt information analyzer 310 to check the tilt state of the drone.

또한 틸트 영상 보정부(330)는 틸트 이벤트가 발생 하였을 경우 서브 카메라의 위치를 틸트 각도에 따라 물리적 장치로 카메라의 위치를 조정하여 틸트 영상을 보정하는 역할을 수행할 수 있다. In addition, when the tilt event occurs, the tilt image corrector 330 may adjust the position of the sub camera according to the tilt angle to correct the tilt image by adjusting the position of the camera with a physical device.

가로 장애물 추출부(350)는 가로 장애물 후보 이벤트가 발생 하였을 경우 서브 카메라를 물리적으로 이동 시킬 수 있다. 이 때 본 발명의 일 실시예로 서브 카메라는 스테레오 카메라 중 한 대와 수직으로 정렬될 수 있다. 또한 가로 장애물 추출부(350)는 수직 스테레오 영상 매칭부(340)를 통해 수직 깊이값을 측정하여 수평 스테레오 매칭으로는 검출 할 수 없는 전깃줄과 같은 가로 장애물을 추출할 수 있다. The horizontal obstacle extractor 350 may physically move the sub camera when the horizontal obstacle candidate event occurs. At this time, in one embodiment of the present invention, the sub-camera may be vertically aligned with one of the stereo cameras. In addition, the horizontal obstacle extractor 350 may measure a vertical depth value through the vertical stereo image matching unit 340 to extract a horizontal obstacle such as a power line that cannot be detected by horizontal stereo matching.

본 발명에서는 가로 장애물을 검출하기 위해 두 대의 카메라만을 이용하나 리소스의 허용 범위나 정확성을 높이기 위해서는 스테레오 카메라와 부가 카메라를 모두 이용하는 것도 가능한 바 상술한 실시예로 한정되지 않는다.In the present invention, only two cameras are used to detect horizontal obstacles, but both a stereo camera and an additional camera may be used to increase the allowable range or accuracy of resources.

상기와 같이, 본 발명의 일 실시예에 따르면, 무게와 HW 리소스 등에 제한이 따르는 무인기에서 한 쌍의 스테레오 카메라와 물리적으로 제어 가능한 한 대의 추가적 카메라를 이용하여 기존의 스테레오 카메라 기반의 장애물 탐지 시스템이 가진 여러 단점을 보완할 수 있다. As described above, according to an embodiment of the present invention, an obstacle detection system based on an existing stereo camera is provided by using a pair of stereo cameras and one additional camera that are physically controllable in a drone with limitations on weight and HW resources. Several shortcomings can be compensated for.

도 4는 본 발명의 일 실시예에 따른 멀티카메라 기반 무인기 장애물 탐지 시스템의 카메라 장치 구성에 대한 일 예를 보인다. 이 때 무인기 장애물 탐지 시스템의 카메라 장치 구성은 스테레오 카메라 및 서브 카메라로 구성될 수 있다. 이때, 본 발명의 일 실시예로 서브 카메라는 스테레오 카메라의 베이스 라인보다 상단에 위치할 수 있다.4 shows an example of a camera device configuration of a multi-camera-based drone obstacle detection system according to an embodiment of the present invention. At this time, the camera device configuration of the drone obstacle detection system may be composed of a stereo camera and a sub camera. At this time, in one embodiment of the present invention, the sub camera may be located above the base line of the stereo camera.

도 4a는 이벤트 중 양안 시차 오류가 발생한 경우의 서브 카메라의 구동방식을 나타낸 도면이다. 또한 도 4a는 초기 카메라의 구성을 나타낸 도면과 같다. 이 때, 영상 획득부(120)의 서브 카메라는 장치의 작동 초기에는 일반 모드로 세팅 되어 있을 수 있다. 이때, 일반 모드로 세팅 된 서브 카메라는 초기에는 한 쌍의 스테레오 카메라의 베이스라인 사이에 위치할 수 있다. 이 때 본 발명의 일 실시예로 서브 카메라는 한 쌍의 스테레오 카메라들의 중간에 위치할 수 있으나, 상술한 실시예로 한정되지 않는다. 이때 본 발명의 일 실시예로 서브 카메라와 구동모터가 연결되어 있는 구동 축은 한 쌍의 스테레오 카메라가 이루고 있는 일직선과 평행을 이룰 수 있다. 보다 상세하게는 스테레오 카메라의 베이스라인과 서브 카메라의 구동 축이 평행하게 구성될 수 있다. 이 때, 도 4a와 같이 서브카메라는 한 쌍의 스테레오 카메라 사이에 위치하여 한 쌍의 스테레오 카메라의 베이스라인이 너무 멀어 발생할 수 있는 양안 시차를 보정할 수 있다.4A is a diagram illustrating a driving method of a sub camera when a binocular parallax error occurs during an event. 4A is a view showing the configuration of an initial camera. At this time, the sub-camera of the image acquisition unit 120 may be set to the normal mode at the initial operation of the device. In this case, the sub camera set in the normal mode may be initially located between the baselines of the pair of stereo cameras. At this time, in one embodiment of the present invention, the sub-camera may be located in the middle of the pair of stereo cameras, but is not limited to the above-described embodiment. At this time, in one embodiment of the present invention, the driving shaft to which the sub-camera and the driving motor are connected may be parallel to the straight line formed by the pair of stereo cameras. More specifically, the baseline of the stereo camera and the drive axis of the sub camera may be configured in parallel. In this case, as shown in FIG. 4A, the sub-camera may be positioned between a pair of stereo cameras to correct binocular disparity that may occur because the baseline of the pair of stereo cameras is too far.

도 4b는 이벤트 중 무인기의 틸트 현상 및 가로 장애물 후보 등록 이벤트가 발생한 경우의 서브 카메라의 구동방식을 나타낸 도면이다. 도 4b를 참조하면 서브 카메라는 무인기의 틸트 현상 및 전기줄과 같은 가로 장애물로 예상되는 이벤트가 발생할 경우 모터와 같은 물리적 장치를 통해 서브 카메라를 제어 구동하여 이를 보완할 수 있도록 구성된다. FIG. 4B is a diagram illustrating a driving method of a sub camera when a tilt phenomenon of an unmanned aerial vehicle and a horizontal obstacle candidate registration event occur during an event. Referring to FIG. 4B, when an event expected by a tilting phenomenon of a drone and a horizontal obstacle such as an electric wire occurs, the sub camera is configured to compensate for this by controlling the sub camera through a physical device such as a motor.

이 때 본 발명의 일 실시예로 서브 카메라와 구동모터가 연결되어 있는 구동 축은 한 쌍의 스테레오 카메라가 이루고 있는 일직선과 일정한 각도를 유지하여 위치할 수 있다. At this time, in one embodiment of the present invention, the driving shaft to which the sub-camera and the driving motor are connected may be positioned at a constant angle with a straight line formed by the pair of stereo cameras.

틸트 이벤트가 발생 하였을 경우 본 발명의 일 실시예로 서브 카메라의 위치는 틸트 각도에 따라 물리적 장치로 조정될 수 있다. 이 때 서브 카메라의 구동 축과 한 쌍의 스테레오 카메라가 이루고 있는 베이스라인이 이루는 각도는 특정 각도를 가질 수 있다. 이 때 특정 각도는 틸트 현상에 따른 오류를 보정할 수 있는 각도가 될 수 있다.When a tilt event occurs, in one embodiment of the present invention, the position of the sub camera may be adjusted by a physical device according to the tilt angle. At this time, the angle formed by the driving axis of the sub camera and the baseline formed by the pair of stereo cameras may have a specific angle. In this case, the specific angle may be an angle to correct an error caused by the tilt phenomenon.

가로 장애물 후보 이벤트가 발생 하였을 경우 본 발명의 일 실시예로 서브 카메라는 스테레오 카메라 중 한 대와 직렬으로 정렬될 수 있다. 즉, 이 때 서브 카메라의 구동 축과 한 쌍의 스테레오 카메라가 이루고 있는 베이스 라인의 각도는 90도가 될 수 있다. 보다 상세하게는 서브 카메라의 구동 축과 한 쌍의 스테레오 카메라가 이루고 있는 베이스 라인은 서로 수직으로 구성되어, 수직 스테레오 매칭을 할 수 있다.When the horizontal obstacle candidate event occurs, according to an embodiment of the present invention, the sub camera may be aligned in series with one of the stereo cameras. That is, the angle of the base line formed by the driving axis of the sub camera and the pair of stereo cameras may be 90 degrees. In more detail, the driving axis of the sub-camera and the base line formed by the pair of stereo cameras are perpendicular to each other to perform vertical stereo matching.

도 5는 양안 시차 오류 및 본 발명의 일 실시예에 따른 오류 보정 방법을 나타낸 도면이다.5 is a diagram illustrating a binocular parallax error and an error correction method according to an embodiment of the present invention.

보다 상세하게는 도 5a, b는 스테레오 카메라의 먼 베이스 라인 배치로 인해 발생할 수 있는 양안 시차 오류를 나타내고 있으며, 도 5c는 서브 카메라를 이용하여 이를 해결하기 위한 일 예를 도식화 하였다. More specifically, FIGS. 5A and 5B illustrate binocular parallax errors that may occur due to a far baseline arrangement of a stereo camera, and FIG. 5C illustrates an example for solving the problem using a sub camera.

도 5a는 원거리 스테레오 영상을 좌 영상과 우 영상으로 구분하여 나타낸 도면이다. 도 5a에서 보면 스테레오 카메라를 통하여 획득한 영상은 대상이 되는 객체와의 거리에 따라 서로 다른 시차를 가진 영상을 획득할 수 있다.5A is a diagram illustrating a far stereo image divided into a left image and a right image. In FIG. 5A, an image acquired through a stereo camera may acquire an image having different parallaxes according to a distance from a target object.

도 5b는 근거리 스테레오 영상을 좌 영상과 우 영상으로 구분하여 나타낸 도면으로, 양안 시차 오류가 발생한 경우이다. 도 5b와 같이 스테레오 카메라 사이의 베이스라인이 너무 멀 경우 근거리의 객체를 촬영하면 좌/우 스테레오 영상의 시차가 너무 커서 서로 다른 객체로 인식하여 매칭이 되지 않는 경우가 발생한다. 5B is a diagram illustrating a near stereo image divided into a left image and a right image, in which a binocular disparity error occurs. When the baseline between the stereo cameras is too far, as shown in FIG. 5B, when the object in the short distance is photographed, the parallax of the left and right stereo images is too large to recognize them as different objects and thus may not match.

도 5c는 본 발명의 일 실시예를 통해 양안시차 오류가 보정된 좌 영상과 우 영상을 나타낸 도면이다. 본 발명에서는 도 5b에서와 같이 양안 시차가 발생할 경우 부가적인 서브 카메라에서 촬영된 영상을 기존 스테레오 영상과 매칭하여 근거리 양안시차 오류를 보정한다. 이 때 도 5c와 같이 서브 카메라는 스테레오 카메라 사이에 배치될 수 있다. 이 때 본 발명의 일 실시예로 서브 카메라는 한 쌍의 스테레오 카메라 간 중간에 위치할 수 있으나, 상술한 실시예로 한정되지 않는다. 또한 서브 카메라는 한 쌍의 스테레오 카메라의 베이스 라인 위에 배치될 수 있다. 이때 본 발명의 일 실시예로 서브 카메라와 구동 모터가 연결되어 있는 구동 축은 한 쌍의 스테레오 카메라가 이루고 있는 일직선과 평행을 이룰 수 있다.5C is a diagram illustrating a left image and a right image in which binocular parallax error is corrected according to an embodiment of the present invention. In the present invention, when binocular disparity occurs as shown in FIG. 5B, an image captured by an additional sub-camera is matched with an existing stereo image to correct a near binocular disparity error. In this case, as shown in FIG. 5C, the sub camera may be disposed between the stereo cameras. At this time, in one embodiment of the present invention, the sub-camera may be located in the middle between a pair of stereo cameras, but is not limited to the above-described embodiment. Also, the sub camera may be disposed on the base line of the pair of stereo cameras. At this time, in one embodiment of the present invention, the driving shaft to which the sub-camera and the driving motor are connected may be parallel to a straight line formed by the pair of stereo cameras.

도 6은 본 발명의 일 실시예로 무인기의 고속 이동 시 발생하는 틸트 현상에 대한 일 예를 그림으로 도시 한다. FIG. 6 is a diagram illustrating an example of a tilt phenomenon that occurs when a drone moves at a high speed according to an embodiment of the present invention.

도 6a는 일반적인 정면 촬영 영상에서 획득된 깊이맵을 나타낸 도면이고, 도 6b는 무인기가 고속으로 진행 시 틸트 현상에 의해 하방을 촬영한 깊이맵을 나타낸 도면이다. 도 6b와 같이 수평선 아래 영역이 영상의 대부분을 차지할 경우에는 깊이맵 추출의 특성상 깊이맵이 잘 추출되지 않는 현상이 발생한다. FIG. 6A is a diagram illustrating a depth map obtained from a general front image, and FIG. 6B is a diagram illustrating a depth map obtained by tilting when the drone is traveling at high speed. As shown in FIG. 6B, when the area under the horizontal line occupies most of the image, the depth map may not be easily extracted due to the depth map extraction.

도 6c는 서브 카메라를 이용해 틸트 영상을 보완하기 위한 일 예를 도시한다. 도 6c에서 보는 바와 같이 서브 카메라는 기존의 스테레오 카메라에서 촬영된 영상과 스테레오 매칭을 수행한다. 이 때 서브 카메라는 모터를 이용하여 제어되며, 틸트 현상의 기울기를 보완할 수 있는 각도만큼 이동되어 영상을 촬영할 수 있다. 서브 카메라를 제어하여 획득된 영상은 본 발명의 작동 초기에 획득한 스테레오 영상보다는 상단 각도를 촬영할 수 있다. 6C illustrates an example for supplementing a tilt image by using a sub camera. As shown in FIG. 6C, the sub camera performs stereo matching with an image captured by a conventional stereo camera. At this time, the sub-camera is controlled using a motor, and the sub camera is moved by an angle that can compensate for the tilt of the tilt phenomenon to take an image. An image obtained by controlling the sub camera may capture an upper angle of the image rather than a stereo image obtained at the beginning of the operation of the present invention.

이때 서브카메라는 스테레오 매칭으로부터 생성된 깊이맵을 바탕으로 스테레오 카메라에 촬영되지 않은 상단 영역의 깊이맵을 확장하여 깊이값을 추출한다. 보다 상세하게는 스테레오 카메라의 영상과 스테레오 카메라의 영상보다 상단이 촬영된 서브 카메라의 영상이 존재하게 될 것이다. 영상들간의 중복 부분을 파악하고, 중복 부분으로부터 서브카메라가 촬영한 상단 영역의 깊이맵을 확장할 수 있다. 이 때 틸트 현상에 의해 목적된 촬영 영역보다 아래 영역이 촬영된 스테레오 카메라의 영상을 위 영역으로 확장할 수 있다. 이를 이용하면 틸트 현상으로 인해 발생하는 전방 장애물의 미싱을 보완할 수 있고 지면 촬영으로 인해 발생하는 깊이맵 측정의 오류를 보완할 수 있다. At this time, the sub-camera extracts the depth value by extending the depth map of the upper region not captured by the stereo camera based on the depth map generated from the stereo matching. In more detail, the image of the stereo camera and the sub camera photographed on the upper side of the stereo camera will be present. The overlapping portions between the images may be identified, and the depth map of the upper region photographed by the sub-camera may be extended from the overlapping portions. At this time, the image of the stereo camera in which the region below the intended shooting region is captured by the tilt phenomenon can be extended to the upper region. This can be used to compensate for missing front obstacles caused by tilting and to compensate for errors in depth map measurements caused by ground imaging.

도 7은 본 발명의 일 실시예에 따라 가로 장애물을 판별하는 방법에 대한 일 예를 그림으로 도시한다. 가로 장애물의 경우, 수평선이 탐지가 되었어도 해당 수평선이 실제로 가로 장애물인지 여부에 대한 판단이 필요하다. 즉, 지평선과 같은 경우는 가로 장애물에 해당되지 않으나, 무인기의 전방에 있는 전깃줄과 같은 경우는 경우는 가로 장애물로 판별될 수 있다. 7 is a diagram illustrating an example of a method of determining a horizontal obstacle according to an embodiment of the present invention. In the case of a horizontal obstacle, even if a horizontal line is detected, it is necessary to determine whether the horizontal line is actually a horizontal obstacle. That is, the case such as the horizon does not correspond to the horizontal obstacle, but the case such as the electrical wire in front of the drone may be determined as the horizontal obstacle.

도 7a는 일반적인 스테레오 카메라의 경우를 도시한 도면이다. 이 경우, 지평선과 전기줄과 같은 가느다란 가로 장애물이 존재할 경우 기존의 스테레오 영상 매칭으로는 이를 구별할 수 없다. 이 때, 서브 카메라는 본 발명의 일반모드로 세팅된 것과 같이 스테레오 카메라의 사이에 존재할 수 있다. 보다 상세하게는 스테레오 카메라의 좌 영상과 우 영상을 비교하여 수평 양안시차를 측정한 경우, 전선과 수평선 모두 시차 차이가 발생하지 않는다. 즉, 시차 차이를 느낄 수 없는바 영상 내의 가로선이 실제로 무인기의 진행에 장애가 되는 장애물인지 여부를 확인할 수 없다. 이 때는 수평 양안시차만 확인할 수 있기 때문이다.7A is a diagram illustrating a typical stereo camera. In this case, when there are thin horizontal obstacles such as the horizon and the electric wire, conventional stereo image matching cannot distinguish them. At this time, the sub camera may exist between the stereo cameras as set in the normal mode of the present invention. More specifically, when the horizontal binocular disparity is measured by comparing the left image and the right image of the stereo camera, the disparity difference does not occur in both the wire and the horizontal line. That is, it is not possible to determine whether the horizontal parallax in the image is an obstacle that actually hinders the progress of the drone. This is because only horizontal binocular disparity can be checked.

본 발명에서는 이를 해결하기 위해 도 7b와 같이 가로 장애물 후보가 발견될 경우 모터와 같은 물리적 장치를 이용하여 서브 카메라를 기존의 스트레오 카메라 한대와 직선으로 배열한다. 보다 상세하게는 스테레오 카메라의 베이스 라인과 본 발명의 서브카메라의 구동축은 서로 수직을 형성할 수 있다. In order to solve this problem, when the horizontal obstacle candidate is found as illustrated in FIG. 7B, the sub camera is arranged in a straight line with one existing stereo camera using a physical device such as a motor. In more detail, the base line of the stereo camera and the drive shaft of the sub camera of the present invention may be perpendicular to each other.

그 후 서브 카메라 영상과 스테레오 카메라 영상의 수직 양안 시차를 이용하여 전기줄과 같은 가로 장애물을 판별하게 된다. 보다 상세하게는 스테레오 카메라와 서브 카메라간의 수직 스테레오 매칭을 수행한다. 이때 본 발명의 일 실시예로 서브 카메레와 수직 스테레오 매칭을 수행하는 스테레오 카메라는 서브 카메라와 일 직선을 형성하고 있는 스테레오 카메라일 수 있다. 수직 스테레오 매칭을 수행하는 경우 수직 양안 시차를 확인할 수 있는바, 수직 양안 시차를 통해 가로 장애물인지 여부를 판단하게 된다.Afterwards, horizontal obstacles such as electric wires are determined using vertical binocular disparity between the sub camera image and the stereo camera image. More specifically, vertical stereo matching is performed between the stereo camera and the sub camera. At this time, according to an embodiment of the present invention, the stereo camera performing vertical stereo matching with the sub camera may be a stereo camera forming one straight line with the sub camera. When vertical stereo matching is performed, vertical binocular disparity can be checked, and the vertical binocular disparity determines whether it is a horizontal obstacle.

도 7b를 확인하면 서브 카메라에서 획득한 영상과 우 영상을 스테레오 매칭을 하게 되면, 시차 차이가 발생했는지 여부를 확인하여 실제로 무인기의 진행에 장애가 되는 장애물인지 여부를 확인할 수 있다. 보다 상세하게는 영상에서 검출된 가로선이 가로 장애물이 아닌 지평선인 경우, 해당 가로선은 서브 카메라와 스테레오 카메라 간의 영상을 비교하였을 때 시차가 발생하지 않는다. 반면 영상에서 검출된 가로선이 무인기의 탐지 거리 내의 전깃줄과 같은 가로 장애물인 경우 경우, 해당 가로선은 서브 카메라와 스테레오 카메라 간의 영상을 비교하였을 때 상하 양안 시차가 발생된다. 따라서 이때의 영상 내의 가로선은 가로 장애물로 분류될 수 있다.Referring to FIG. 7B, when stereo matching between the image acquired from the sub camera and the right image is performed, it may be determined whether a parallax difference occurs to determine whether the obstacle is actually an obstacle to the progression of the drone. More specifically, when the horizontal line detected in the image is a horizon rather than a horizontal obstacle, the horizontal line does not generate a parallax when the image is compared between the sub camera and the stereo camera. On the other hand, when the horizontal line detected in the image is a horizontal obstacle such as an electrical wire within the detection distance of the drone, the horizontal line is bilateral parallax when the image is compared between the sub camera and the stereo camera. Therefore, horizontal lines in the image at this time may be classified as horizontal obstacles.

도 8은 본 발명의 일 실시예에 따른 장애물 탐지 방법의 흐름도를 보여준다. 8 is a flowchart illustrating an obstacle detection method according to an embodiment of the present invention.

도 8을 참조하면, 먼저 무인기에 장착된 복수의 카메라를 통해 입력 영상을 획득한다(S810). 본 발명의 일 실시예로 서브 카메라의 영상은 스테레오 카메라에서 복수의 영상이 입력될 경우, 동시에 동작하여 입력될 수 있다. 본 발명의 일 실시예로 서브 카메라의 영상은 상기 기술한 이벤트들이 발생하였을 경우에만 동작하여 입력 될 수도 있다. Referring to FIG. 8, first, an input image is obtained through a plurality of cameras mounted in a drone (S810). According to an embodiment of the present invention, when a plurality of images are input from the stereo camera, the images of the sub cameras may be simultaneously operated. According to an embodiment of the present invention, the image of the sub camera may be operated and input only when the above-described events occur.

복수의 스테레오 입력 영상이 획득되면, 깊이맵 생성부(130)는 좌우 영상의 동일한 포인트 또는 영역을 검색한다(S820). 이 때 좌우 영상의 동일한 포인트나 영역이 검색되지 않는 경우 시차오류 이벤트가 고려될 수 있다. 스테레오 매칭 알고리즘은 점 또는 영역 등의 일반적인 스테레오 매칭 방법이 사용될 수 있으며 스테레오 매칭을 수행하기 전에는 캘리브레이션, 영상 전처리 등의 추가적인 과정이 필요할 수 있다.When a plurality of stereo input images are obtained, the depth map generator 130 searches for the same points or regions of the left and right images (S820). In this case, when the same point or area of the left and right images is not searched, a parallax error event may be considered. As a stereo matching algorithm, a general stereo matching method such as a point or an area may be used, and an additional process such as calibration and image preprocessing may be required before performing stereo matching.

좌우 영상의 스테레오 매칭이 완료되면, 깊이맵 생성부(130)는 각각의 매칭점 또는 매칭 영역을 바탕으로 깊이맵을 생성한다(S830).When stereo matching of the left and right images is completed, the depth map generator 130 generates a depth map based on each matching point or matching area (S830).

영상 전체에 대한 깊이맵을 생성한 이후에는, 생성된 깊이맵에서 동일 영역들에 대한 분류를 수행하는 작업이 필요하다(S840). 깊이맵에서 영역을 구분하는 방법은 일반적인 영역 분류 또는 인접한 영역들의 통합 등의 방법 등이 이용될 수 있다. After generating the depth map of the entire image, it is necessary to perform the classification for the same areas in the generated depth map (S840). As a method of classifying regions in the depth map, a general region classification or a method of integrating adjacent regions may be used.

깊이맵에 대한 객체가 분류된 이후에는, 깊이맵을 분석하여 깊이맵에 오류가 있는지 여부와 거리에 따라 장애물 후보를 분류하는 작업들이 필요하다(S850). After the objects for the depth map are classified, operations for classifying the obstacle candidates according to whether the depth map has an error and the distance by analyzing the depth map are necessary (S850).

깊이맵 분석을 통해 장애 발생 이벤트의 발생 여부를 파악(S860)할 수 있다. 이 때, 이벤트의 일 예시로 시차 오류, 무인기 틸트 현상, 가로장애물 후보 등록 등이 해당될 수 있다. Through the depth map analysis, it may be determined whether a failure event has occurred (S860). In this case, examples of the event may include a parallax error, a drone tilt phenomenon, and registration of a road obstacle candidate.

이벤트가 발생하지 않은 경우 이벤트가 발생할 때까지 깊이맵 분석을 진행한다. 그러나, 이벤트가 발생한 경우 장애물 인식부(160)에서는 상기 동작들에 판별된 장애물들을 등록하고 장애물들의 위치를 계산하여 탐지 결과(S870)를 알린다.If no event occurs, depth map analysis is performed until the event occurs. However, when an event occurs, the obstacle recognition unit 160 registers the obstacles identified in the operations and calculates the positions of the obstacles to inform the detection result S870.

그 후 등록된 이벤트에 따라 서브 카메라를 제어하여 오류를 보정(S880)한다. 입력 받은 영상이 종료되지 않은 경우 영상을 입력 받고 깊이맵 분석을 수행하는 절차를 반복(S890)한다.Thereafter, the sub-camera is controlled according to the registered event to correct the error (S880). If the input image is not finished, the procedure of receiving the image and performing the depth map analysis is repeated (S890).

본 발명의 일 실시예로, 서브 카메라 제어 및 인식부(150)에서 이벤트가 발생(S860)하였다는 것을 인식한 경우, 발생한 이벤트의 유형에 따라 서브 카메라 제어 및 인식부(150)는 서브 카메라의 위치 및 동작 방식 등을 달리 제어할 수 있다. 본 발명이 발생한 이벤트의 유형에 따라 동작하는 흐름은 하기의 도면과 같이 분류될 수 있다. 도 9는 시차오류가 발생한 경우의 장애물 탐지 방법, 도 10은 틸트 현상이 발생한 경우의 장애물 탐지 방법, 도 11은 가로 장애물 발견시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다. 이벤트 유형에 따라 서브 카메라 제어 및 인식부(150)의 동작을 위해 분석해야 할 내용들은 다음과 같다.According to an embodiment of the present invention, when the sub camera control and recognition unit 150 recognizes that an event has occurred (S860), the sub camera control and recognition unit 150 may determine the sub camera according to the type of the event. The position and operation method can be controlled differently. The flow that operates according to the type of event in which the present invention occurs may be classified as shown in the following drawings. 9 is a flowchart illustrating a method for detecting an obstacle when a parallax error occurs, FIG. 10 is a method for detecting an obstacle when a tilt phenomenon occurs, and FIG. 11 is a flowchart illustrating a method for detecting an obstacle when a horizontal obstacle is detected. The contents to be analyzed for the operation of the sub camera control and recognition unit 150 according to the event type are as follows.

도 9는 본 발명의 일 실시예로 시차오류 발생시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다.9 is a flowchart illustrating a method for detecting an obstacle when a parallax error occurs according to an embodiment of the present invention.

시차 오류 발생의 확인 및 보정을 위해 먼저 스테레오 카메라에서 좌 우 영상을 입력(S910) 받는다. 그리고 획득한 좌 우 영상에서 매칭점 또는 매칭 영역이 검색되는지 여부를 파악(S920)한다. 이때 좌우 영상에서 매칭점 또는 영역이 검색되지 않을 경우에는 이는 시차 오류일 확률이 높다. 본 발명의 일 실시예로 매칭점 또는 매칭 영역의 계산 대상은 영상내의 코너점 또는 에지점 등이 될 수 있다. 획득한 좌우 영상에서 매칭점 또는 매칭 영역이 검색되지 않는 경우 시차오류 이벤트로 등록(S930)된다. 만약 획득한 좌우 영상에서 매칭점 또는 매칭 영역이 검색된 다면 스테레오 매칭을 통해 깊이 맵을 생성하고 깊이 맵을 분석할 수 있다.In order to confirm and correct the parallax error, first, a left and right image are input from the stereo camera (S910). In operation S920, whether a matching point or a matching area is searched for is obtained from the acquired left and right images. If no matching point or region is found in the left and right images, this is likely a parallax error. In one embodiment of the present invention, the calculation target of the matching point or the matching area may be a corner point or an edge point in the image. If a matching point or a matching area is not found in the acquired left and right images, it is registered as a parallax error event (S930). If a matching point or a matching area is found in the acquired left and right images, the depth map may be generated through stereo matching and the depth map may be analyzed.

시차오류 이벤트로 등록된 경우, 시차오류를 보정하기 위하여 서브 카메라를 사용할 수 있다. 깊이 맵을 생성한 후(S940) 깊이 맵에서 시차 오류 영역 후보를 판단(S950)한다. When registered as a parallax error event, the sub camera may be used to correct the parallax error. After generating the depth map (S940), a parallax error region candidate is determined from the depth map (S950).

그 후 시차 오류 영역 후보 영역에 대해서 서브 카메라를 이용하여 시차 오류 보정(S960)을 한다.Then, the parallax error correction (S960) is performed on the parallax error area candidate area by using the sub camera.

보다 상세하게는, 양안 시차 오류 이벤트가 등록된 것을 확인한 경우, 서브 카메라 제어 및 인식부(150)는 서브 카메라를 스테레오 카메라 사이에 배치할 수 있다. 이 때 본 발명의 일 실시예로 서브 카메라는 한 쌍의 스테레오 카메라 간 중간에 위치할 수 있으나, 상술한 실시예로 한정되지 않는다. 또한 서브 카메라는 한 쌍의 스테레오 카메라의 베이스 라인 위에 배치될 수 있다. 이때 본 발명의 일 실시예로 서브 카메라와 구동 모터가 연결되어 있는 구동 축은 한 쌍의 스테레오 카메라가 이루고 있는 일직선과 평행을 이룰 수 있다.More specifically, when it is confirmed that the binocular parallax error event is registered, the sub camera control and recognition unit 150 may arrange the sub camera between the stereo cameras. At this time, in one embodiment of the present invention, the sub-camera may be located in the middle between a pair of stereo cameras, but is not limited to the above-described embodiment. Also, the sub camera may be disposed on the base line of the pair of stereo cameras. At this time, in one embodiment of the present invention, the driving shaft to which the sub-camera and the driving motor are connected may be parallel to a straight line formed by the pair of stereo cameras.

이때 서브 카메라 제어 및 인식부(150)은 서브 카메라에서 획득된 영상을 좌우 스테레오 카메라 중 하나와 매칭한다. 서브 카메라의 영상과의 스테레오 매칭을 통해 스테레오 카메라간의 베이스 라인 거리로 인해 발생하는 시차 오류를 보정하여 근거리 장애물을 판별하게 된다. 이때 서브 카메라와 스테레오 매칭이 이루어지는 스테레오 카메라의 좌우 영상의 선택은 어느 것이든 무관하다. At this time, the sub camera control and recognition unit 150 matches the image obtained from the sub camera with one of the left and right stereo cameras. Stereo matching with an image of a sub camera is used to correct a parallax error caused by a baseline distance between stereo cameras to determine a short-range obstacle. At this time, the selection of the left and right images of the stereo camera in which stereo matching is performed with the sub camera is irrelevant.

그 후 입력 받은 영상이 종료되었는지를 판단하여 깊이맵 분석을 통한 이벤트 발생 여부 판단을 지속(S960)한다.After that, it is determined whether the received image is terminated, and whether the event occurs through the depth map analysis is continued (S960).

도 10은 본 발명의 일 실시에로 틸트 현상 발생시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다. 서브 카메라 제어를 위해 필요한 또 다른 깊이맵 분석의 대상으로는 틸트 현상 판단이 있다. 10 is a flowchart illustrating a method for detecting an obstacle when a tilt phenomenon occurs in an embodiment of the present invention. Another depth map analysis required for sub camera control is the determination of the tilt phenomenon.

틸트 현상의 발생 확인 및 보정을 위해 먼저 장치에서 영상을 입력 받고, 스테레오 매칭을 수행하여 깊이맵을 생성한다. 그리고 생성된 깊이맵을 분석(S1010)한다.In order to check and correct the occurrence of the tilt phenomenon, first, an image is input from a device, and stereo matching is performed to generate a depth map. The generated depth map is analyzed (S1010).

틸트 현상이 발생하였는지 여부는 깊이맵을 분석 하였을 때 영상 내에서 제 1 영역이 임계치 이상인지 판단하는 과정(S1020)을 통해 결정한다. 이 때 제 1 영역은 지상 영역을 의미할 수 있으며, 또한 목적된 촬영영역이 아닌 영역을 의미할 수 있다. 보다 상세하게는 고속으로 이동하는 무인기는 기울어져 이동하게 되는바, 목적된 촬영 영역이 아닌 영역을 촬영하게 되고 이를 제 1 영역으로 정의할 수 있다. 즉, 틸트 현상이 발생하였는지 여부는 깊이맵을 분석 하였을 때 영상 내에서 지상 영역이 임계치 이상을 차지하고 있는지 여부를 통해 판단한다. Whether the tilt has occurred is determined by analyzing whether the first region is greater than or equal to the threshold in the image when the depth map is analyzed (S1020). In this case, the first area may mean a ground area, and may also mean an area other than the intended photographing area. In more detail, the drone moving at a high speed is inclined to move, and thus, the drone may photograph an area other than the intended photographing area, and may define it as a first area. That is, whether or not the tilt has occurred is determined based on whether the ground region occupies the threshold value or more in the image when the depth map is analyzed.

이 때, 영상 내에서 제 1 영역이 임계치 이상인 경우로 판단되었다면, 틸트 현상이 발생한 것으로 판단(S1030)할 수 있다. 보다 상세하게는 도 6b와 같이 목적된 촬영영역이 임계치 보다 작은 경우에는 본 무인기가 고속 이동을 원인으로 기울어져 하방을 촬영하고 있는 것으로 판단될 수 있다. At this time, if it is determined that the first region is greater than or equal to the threshold value in the image, it may be determined that the tilt phenomenon has occurred (S1030). In more detail, as shown in FIG. 6B, when the target photographing area is smaller than the threshold, it may be determined that the drone is photographed downward due to the high speed movement.

이때 본 발명의 장치는 현 상황을 틸트 현상 이벤트로 등록(S1040)한다. 이때 틸트 현상을 판단하기 위한 임계치는 사용자 또는 운영자에 의해 정의 되거나 무인기의 IMU에서 획득된 정보로 정의될 수도 있을 것이다. At this time, the device of the present invention registers the current situation as a tilt phenomenon event (S1040). In this case, the threshold for determining the tilt phenomenon may be defined by a user or an operator or by information obtained from an IMU of an unmanned aerial vehicle.

영상의 틸트 현상 이벤트 확인 시, 서브 카메라 제어 및 인식부(150)는 무인기의 IMU 에서 전달받은 정보를 바탕으로 현재 무인기가 얼마나 기울어져 비행 중인지 판단한다. 이 때 무인기의 기울어진 각도를 파악하고, 상기 파악된 각도에 따라 제 1 각도를 결정한다. 제 1 각도는 틸트 현상을 보완하기 위해 서브 카메라가 촬영 해야 하는 화면이 스테레오 카메라의 베이스라인과 형성하는 각도를 의미한다. 보다 상세하게는 서브 카메라는 틸트 현상을 보완하기 위해 스테레오 카메라의 입력 화면보다 상단을 찍어야 하는바, 해당 스테레오 카메라의 입력 화면과 비교하였을 때 서브 카메라가 틸트 현상을 보정하기 위해 찍어야 하는 각도를 제 1 각도로 정의할 수 있다. 또한 이 때 서브 카메라가 스테레오 카메라의 입력 영상보다 제 1 각도만큼 차이 나는 영상을 촬영하는 것을 의미할 수 있다. When checking the tilt event of the image, the sub-camera control and recognition unit 150 determines how inclined the drone is currently flying based on the information received from the IMU of the drone. At this time, the inclination angle of the drone is grasped and the first angle is determined according to the grasped angle. The first angle refers to an angle formed by the screen to be photographed by the sub camera to compensate for tilting with the baseline of the stereo camera. In more detail, the sub camera should take a picture above the input screen of the stereo camera to compensate for the tilt, and the first sub-camera should be photographed to correct the tilt when compared to the input screen of the stereo camera. Can be defined in degrees. In this case, it may mean that the sub camera captures an image that is different from the input image of the stereo camera by a first angle.

이 때 서브 카메라 제어 및 인식부(150)은 모터를 이용하여 서브 카메라를 제어하며, 틸트 현상의 기울기를 보완할 수 있는 각도만큼 서브 카메라를 조정하여 영상을 획득한다(S1050).At this time, the sub-camera control and recognition unit 150 controls the sub-camera by using a motor, and obtains an image by adjusting the sub-camera by an angle that can compensate for the tilt of the tilt phenomenon (S1050).

서브 카메라를 제어하여 획득된 영상은 본 발명의 작동 초기에 획득한 스테레오 영상보다는 상단 각도를 촬영하게 되는바, 틸트 현상이 보정된 영상을 획득(S1060)할 수 있다. 보다 상세하게는 서브 카메라 제어 및 인식부(150)은 서브 카메라로부터 상단 각도를 촬영한 영상을 획득하고, 해당 영상과 좌우 스테레오 영상과 중복된 영역에 대해 스테레오 매칭을 수행한다. 반면, 중복된 영역 밖의 깊이 값은 중복된 영역에서부터 얻은 깊이 값을 확장하여 추정 깊이 값을 얻게 된다.The image obtained by controlling the sub camera captures an upper angle than the stereo image obtained at the beginning of the operation of the present invention, and thus an image in which the tilt phenomenon is corrected may be obtained (S1060). In more detail, the sub-camera control and recognition unit 150 obtains an image obtained by capturing an upper angle from the sub-camera, and performs stereo matching on a region overlapped with the corresponding image and the left and right stereo images. On the other hand, the depth value outside the overlapped area is obtained by expanding the depth value obtained from the overlapped area to obtain the estimated depth value.

그 후 입력 받은 영상이 종료되었는지를 판단하여 깊이맵 분석을 통한 이벤트 발생 여부 판단을 지속(S1070)한다.After that, it is determined whether the input image is terminated, and whether the event occurs through the depth map analysis is continued (S1070).

도 11은 본 발명의 일 실시예로 가로 장애물 발견 시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다. 가로 장애물이란 도심이나 지상의 전깃줄, 빨랫줄과 같은 수평 형태의 가는 장애물로써 이는 일반적인 스테레오 방식으로는 검출이 어렵다. 따라서 본 발명에서는 서브 카메라 제어를 통하여 가로 장애물을 검출하는 흐름을 제시한다. FIG. 11 is a flowchart illustrating an obstacle detecting method when detecting a horizontal obstacle according to an embodiment of the present invention. Horizontal obstructions are horizontal obstructions such as urban or ground wires and clotheslines, which are difficult to detect in a typical stereo system. Therefore, the present invention proposes a flow for detecting the horizontal obstacle through the sub camera control.

가로 장애물의 검출을 위해 먼저 장치에서 영상을 입력 받고, 스테레오 매칭을 수행하여 깊이맵을 생성한다. 그리고 생성된 깊이맵을 분석(S1110)한다.In order to detect the horizontal obstacle, the device first receives an image and performs stereo matching to generate a depth map. The generated depth map is analyzed (S1110).

깊이맵 분석 시 영상 내에 수평라인이 존재하는지 여부(S1120)를 판단한다. 영상 내에 수평라인이 존재하는 경우 가로 장애물 후보로 등록(S1130)한다. 보다 상세하게는 영상 내의 수평라인이 1개가 존재하는 경우 지평선으로 판단할 수 있다. 따라서 이때는 가로 장애물이 존재하지 않는다. 그러나 영상 내의 수평라인이 2개 이상인 경우, 그 중 1개 이상은 가로장애물이 될 수 있는바, 이 경우에는 가로 장애물이 발생한 것으로 판단하여 가로장애물 이벤트를 발생시킬 수 있다. During the depth map analysis, it is determined whether a horizontal line exists in the image (S1120). If there is a horizontal line in the image, it is registered as a horizontal obstacle candidate (S1130). More specifically, when there is one horizontal line in the image, it may be determined as a horizon line. Therefore, there is no horizontal obstacle at this time. However, if there are two or more horizontal lines in the image, one or more of them may be a horizontal obstacle. In this case, the horizontal obstacle may be determined to generate a horizontal obstacle event.

따라서 이 때 영상 내에서 인식된 수평라인이 지평선과 같이 실제 가로 장애물이 아닌 경우가 있으므로, 실제 가로 장애물인지 여부를 서브 카메라 제어 및 인식부(150)에서 판단하게 된다. Therefore, at this time, since the horizontal line recognized in the image is not a real horizontal obstacle, such as a horizon, the sub-camera control and recognition unit 150 determines whether or not the actual horizontal obstacle.

가로 장애물 이벤트가 발생되었음을 확인한 경우, 서브 카메라 제어 및 인식부(150)에서는 서브 카메라를 모터 등을 이용해 스테레오 카메라 중 하나와 수직으로 배치(S1140)한다. 보다 상세하게는 스테레오 카메라의 베이스 라인과 본 발명의 서브카메라의 구동축은 서로 수직을 형성할 수 있다.When it is confirmed that the horizontal obstacle event occurs, the sub camera control and recognition unit 150 arranges the sub camera vertically with one of the stereo cameras using a motor or the like (S1140). In more detail, the base line of the stereo camera and the drive shaft of the sub camera of the present invention may be perpendicular to each other.

그 후 도 7b와 같이 스테레오 카메라와 서브 카메라간의 수직 스테레오 매칭을 수행한다. 이때 본 발명의 일 실시예로 서브 카메레와 수직 스테레오 매칭을 수행하는 스테레오 카메라는 서브 카메라와 일 직선을 형성하고 있는 스테레오 카메라일 수 있다. 수직 스테레오 매칭을 수행하는 경우 수직 양안 시차를 확인할 수 있는바, 수직 양안 시차를 통해 가로 장애물인지 여부를 판단하게 된다(S1150). Thereafter, as shown in FIG. 7B, vertical stereo matching between the stereo camera and the sub camera is performed. At this time, according to an embodiment of the present invention, the stereo camera performing vertical stereo matching with the sub camera may be a stereo camera forming one straight line with the sub camera. When vertical stereo matching is performed, the vertical binocular disparity can be checked, and it is determined whether the horizontal obstacle is a vertical obstacle through the vertical binocular disparity (S1150).

보다 상세하게는 영상에서 검출된 가로선이 가로 장애물이 아닌 지평선인 경우, 해당 가로선은 서브 카메라와 스테레오 카메라 간의 영상을 비교하였을 때 시차가 발생하지 않는다. 반면 영상에서 검출된 가로선이 무인기의 탐지 거리 내의 전깃줄과 같은 가로 장애물인 경우 경우, 해당 가로선은 서브 카메라와 스테레오 카메라 간의 영상을 비교하였을 때 상하 양안 시차가 발생된다. 따라서 이때의 영상 내의 가로선은 가로 장애물로 분류될 수 있다. More specifically, when the horizontal line detected in the image is a horizon rather than a horizontal obstacle, the horizontal line does not generate a parallax when the image is compared between the sub camera and the stereo camera. On the other hand, when the horizontal line detected in the image is a horizontal obstacle such as an electrical wire within the detection distance of the drone, the horizontal line is bilateral parallax when the image is compared between the sub camera and the stereo camera. Therefore, horizontal lines in the image at this time may be classified as horizontal obstacles.

그 후 입력 받은 영상이 종료되었는지를 판단하여 깊이맵 분석을 통한 이벤트 발생 여부판단을 지속(S1160)한다.Thereafter, it is determined whether the received image is terminated and the determination of whether an event occurs through the depth map analysis is continued (S1160).

본 발명의 이점 및 특징, 그것들을 달성하는 방법은 첨부되어 있는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 제시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments set forth below, but may be implemented in various forms, and only the present embodiments are intended to complete the disclosure of the present invention, and those skilled in the art to which the present invention pertains. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims.

이하, 본 발명의 실시예들에 의하여 무인기 장애물 탐지 시스템 및 그 방법을 설명하기 위한 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명한다. 이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. Hereinafter, the present invention will be described with reference to the drawings of a block diagram or a processing flowchart for explaining a drone obstacle detection system and a method thereof according to embodiments of the present invention. It will be appreciated that each block of the flowchart illustrations and combinations of flowchart illustrations may be performed by computer program instructions. Since these computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, those instructions executed through the processor of the computer or other programmable data processing equipment may be described in the flowchart block (s). It will create means to perform the functions.

또한 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. Each block may also represent a module, segment or portion of code that includes one or more executable instructions for executing a specified logical function (s). It should also be noted that in some alternative implementations, the functions noted in the blocks may occur out of order.

100: 무인기 탐지 시스템
120: 영상 획득부
130: 깊임맵 생성부
140: 깊이맵 영상 분석부
150: 서브 카메라 제어 및 인식부
160: 장애물 인식부
200: 깊이맵 정보 분석부
210: 장애물 후보 분석부
220: 근거리 오차 추출부
230: 수평라인 검출부
240: 가로 장애물 후보 추출부
250: 틸트 현상 검출부
300: 서브 카메라 제어 구동부
310: 틸트 정보 분석부
320: 근거리 깊이값 측정부
330: 틸트 영상 보정부
340; 수직 스테레오 영상 매칭부
350: 가로 장애물 추출부
100: drone detection system
120: image acquisition unit
130: depth map generator
140: depth map image analysis unit
150: sub camera control and recognition unit
160: obstacle recognition unit
200: depth map information analysis unit
210: obstacle candidate analysis unit
220: short-range error extraction unit
230: horizontal line detection unit
240: horizontal obstacle candidate extracting unit
250: tilt detection unit
300: sub camera control driver
310: tilt information analysis unit
320: near depth measurement unit
330: tilt image correction unit
340; Vertical Stereo Image Matching Unit
350: horizontal obstacle extraction unit

Claims (17)

무인기의 장애물 탐지 방법에 있어서
한 쌍의 스테레오 카메라들로부터 영상을 입력 받는 단계;
상기 입력 받은 영상으로부터 깊이맵을 생성하는 단계; 및
상기 깊이맵을 분석하여 장애 이벤트 발생 여부를 판단하는 단계;
를 포함하되,
상기 한 쌍의 스테레오 카메라들 사이에 서브 카메라가 존재하고,
상기 서브 카메라가 촬영하는 영상이 상기 장애 이벤트에 기초하여 변경되고,
상기 서브 카메라에서 촬영된 영상 및 상기 한 쌍의 스테레오 카메라들의 영상에 기초하여 장애물을 탐지하는
것을 특징으로 하는 무인기의 장애물 탐지 방법.
In the obstacle detection method of the drone
Receiving an image from a pair of stereo cameras;
Generating a depth map from the input image; And
Analyzing the depth map to determine whether a failure event occurs;
Including but not limited to:
There is a sub camera between the pair of stereo cameras,
An image captured by the sub camera is changed based on the fault event,
Detecting an obstacle based on an image captured by the sub camera and an image of the pair of stereo cameras
Obstacle detection method of the drone, characterized in that.
제 1항에 있어서
상기 한 쌍의 스테레오 카메라들로부터 입력 받은 영상들을 비교한 경우,
상기 영상들간 매칭되는 점 또는 영역이 존재하는지 판단하되,
상기 영상들간 매칭되는 점 또는 영역이 존재하지 않는 경우
상기 장애 이벤트로 등록되는 것을 특징으로 하는 무인기의 장애물 탐지 방법.
The method of claim 1
When comparing the images received from the pair of stereo cameras,
It is determined whether there is a matching point or area between the images,
When there is no matching point or area between the images
Obstacle detection method of the drone, characterized in that registered as the failure event.
제 2항에 있어서
상기 장애 이벤트가 등록된 경우
상기 서브 카메라의 구동축과 스테레오 카메라간의 베이스 라인이 평행을 이루도록 상기 서브 카메라가 배치되는 것을 특징으로 하는 무인기의 장애물 탐지 방법.
The method of claim 2
When the failure event is registered
The obstacle detection method of the drone, characterized in that the sub-camera is arranged so that the base line between the drive shaft of the sub-camera and the stereo camera in parallel.
제 3항에 있어서
상기 서브 카메라에서 획득한 영상과
상기 스테레오 카메라가 획득한 좌 우 영상 중 하나와 스테레오 매칭하는 것을 특징으로 하는 무인기의 장애물 탐지 방법.
The method of claim 3
The image acquired by the sub-camera
The obstacle detection method of the drone, characterized in that the stereo matching with one of the left and right images obtained by the stereo camera.
제 1항에 있어서
상기 생성된 깊이맵을 분석하여,
영상 내의 제 1 영역이 임계치 이상인지 판단하되,
상기 제 1 영역이 영상 내에서 임계치 이상 존재하는 것으로 판단된 경우,
상기 장애 이벤트로 등록되는 것을 특징으로 하는 무인기의 장애물 탐지 방법.
The method of claim 1
By analyzing the generated depth map,
It is determined whether the first region in the image is greater than or equal to the threshold,
If it is determined that the first region is greater than or equal to a threshold in the image,
Obstacle detection method of the drone, characterized in that registered as the failure event.
제 5항에 있어서
상기 장애 이벤트가 등록된 경우
무인기의 기울어진 각도를 파악하고,
상기 파악된 각도에 따라 제 1 각도를 결정하되,
상기 서브 카메라가 스테레오 카메라의 입력영상보다 상기 제 1 각도만큼 차이 나는 영상을 촬영하는 것을 특징으로 하는 무인기의 장애물 탐지 방법.
The method of claim 5
When the failure event is registered
Grasp the tilt angle of the drone,
Determine a first angle according to the identified angle,
The sub-camera obstacle detection method of claim 1, characterized in that for taking an image that is different from the input image of the stereo camera by the first angle.
제 6항에 있어서
상기 서브카메라로부터 획득한 영상과 스테레오 카메라의 영상 간의 중복되는 범위를 파악하고,
상기 중복되는 범위의 깊이 값을 측정한 뒤,
상기 중복되는 범위의 깊이 값을 확장하는 것을 특징으로 하는 무인기의 장애물 탐지 방법.
The method of claim 6
To determine the overlapping range between the image obtained from the sub-camera and the image of the stereo camera,
After measuring the depth value of the overlapping range,
The obstacle detection method of the drone, characterized in that for extending the depth value of the overlapping range.
제 1항에 있어서
상기 생성된 깊이맵을 분석하는 경우
영상 내에 수평 라인이 존재하는지 여부를 판단하되,
영상 내에 수평 라인이 존재하는 것으로 판단된 경우,
영상 내의 수평 라인이 두 개 이상인 경우 상기 장애 이벤트로 등록되는 것을 특징으로 하는 무인기의 장애물 탐지 방법.
The method of claim 1
When analyzing the generated depth map
Determine if there is a horizontal line in the image,
If it is determined that a horizontal line exists in the image,
If there are two or more horizontal lines in the image obstacle detection method of the drone, characterized in that registered as the failure event.
제 8항에 있어서
상기 장애 이벤트로 등록된 경우
상기 서브카메라의 구동축과 스테레오 카메라간의 베이스 라인이 서로 수직을 이루도록 상기 서브카메라가 배치되는 것을 특징으로 하는 무인기의 장애물 탐지 방법.
The method of claim 8
When registered as the fault event
The obstacle detection method of the drone, characterized in that the sub-camera is disposed so that the base line between the driving axis of the sub-camera and the stereo camera perpendicular to each other.
제 9항에 있어서
상기 수직으로 배치된 서브 카메라와 스테레오 카메라간 수직 스테레오 매칭을 수행하여
상기 영상 내의 수평 라인이 실제 장애물인지를 최종 판별하는 것을 특징으로 하는 무인기의 장애물 탐지 방법.
The method of claim 9
Vertical stereo matching is performed between the vertically disposed sub-camera and the stereo camera
And finally determining whether a horizontal line in the image is a real obstacle.
무인기의 장애물 탐지 장치에 있어서
한 쌍의 스테레오 카메라들로부터 영상을 입력 받는 영상 획득부;
상기 입력 받은 영상으로부터 깊이맵을 생성하는 깊이맵 생성부; 및
상기 깊이맵을 분석하여 장애 이벤트 발생 여부를 판단하는 깊이맵 영상 분석부;
서브 카메라 제어부;
를 포함하되,
상기 한 쌍의 스테레오 카메라들 사이에 서브 카메라가 존재하고,
상기 서브 카메라 제어부는
상기 서브 카메라가 촬영하는 영상을 상기 장애 이벤트에 기초하여 변경하고,
상기 서브 카메라에서 촬영된 영상 및 상기 한 쌍의 스테레오 카메라들의 영상에 기초하여 장애물을 탐지하는
것을 특징으로 하는 무인기의 장애물 탐지 장치.
In the obstacle detection device of the drone
An image acquisition unit which receives an image from a pair of stereo cameras;
A depth map generator for generating a depth map from the input image; And
A depth map image analyzer determining whether a failure event occurs by analyzing the depth map;
A sub camera controller;
Including but not limited to:
There is a sub camera between the pair of stereo cameras,
The sub camera controller
Change the image photographed by the sub camera based on the fault event;
Detecting an obstacle based on an image captured by the sub camera and an image of the pair of stereo cameras
Obstacle detection device of the drone.
제 11항에 있어서
상기 한 쌍의 스테레오 카메라들로부터 입력 받은 영상들을 비교한 경우,
상기 영상들간 매칭되는 점 또는 영역이 존재하는지 판단하되,
상기 영상들간 매칭되는 점 또는 영역이 존재하지 않는 경우 상기 장애 이벤트로 등록되는 것을 특징으로 하는 무인기의 장애물 탐지 장치.
The method of claim 11
When comparing the images received from the pair of stereo cameras,
It is determined whether there is a matching point or area between the images,
The obstacle detection apparatus of the drone, characterized in that registered as the failure event when there is no matching point or region between the images.
제 12항에 있어서
상기 장애 이벤트가 등록된 경우
상기 서브 카메라 제어부는
상기 서브카메라의 구동축과 스테레오 카메라간의 베이스라인이 평행을 이루도록 상기 서브 카메라를 배치시키는 것을 것을 특징으로 하는 무인기의 장애물 탐지 장치.
The method of claim 12
When the failure event is registered
The sub camera controller
The obstacle detection apparatus of the drone, characterized in that the sub-camera is arranged so that the baseline between the drive shaft of the sub-camera and the stereo camera is parallel.
제 11항에 있어서
상기 생성된 깊이맵을 분석하여,
영상 내의 제 1 영역이 임계치 이상인지 판단하되,
상기 제 1 영역이 영상 내에서 임계치 이상 존재하는 것으로 판단된 경우,
상기 장애 이벤트로 등록하는 것을 특징으로 하는 무인기의 장애물 탐지 장치.
The method of claim 11
By analyzing the generated depth map,
It is determined whether the first region in the image is greater than or equal to the threshold,
If it is determined that the first region is greater than or equal to a threshold in the image,
Obstacle detection device of the drone, characterized in that registered as the failure event.
제 14항에 있어서
상기 장애 이벤트가 등록된 경우
무인기의 기울어진 각도를 파악하고,
상기 파악된 각도에 따라 제 1 각도를 결정하되,
상기 서브 카메라가 스테레오 카메라의 입력 영상보다 상기 제 1 각도만큼 차이 나는 영상을 촬영하는 것을 특징으로 하는 무인기의 장애물 탐지 장치.
The method of claim 14,
When the failure event is registered
Grasp the tilt angle of the drone,
Determine a first angle according to the identified angle,
The obstacle detection apparatus of the unmanned aerial vehicle, characterized in that the sub-camera to take an image that is different from the input image of the stereo camera by the first angle.
제 11항에 있어서
상기 생성된 깊이맵을 분석하는 경우
영상 내에 수평 라인이 존재하는지 여부를 판단하되,
영상 내에 수평 라인이 존재하는 것으로 판단된 경우,
영상 내의 수평 라인이 두 개 이상인 경우 상기 장애 이벤트로 등록되는 것을 특징으로 하는 무인기의 장애물 탐지 장치.
The method of claim 11
When analyzing the generated depth map
Determine if there is a horizontal line in the image,
If it is determined that a horizontal line exists in the image,
If there are two or more horizontal lines in the image obstacle detection apparatus of the drone, characterized in that registered as the failure event.
제 16항에 있어서
상기 장애 이벤트로 등록된 경우
상기 서브 카메라 제어부는
상기 서브카메라의 구동축과 스테레오 카메라간의 베이스 라인이 서로 수직을 이루도록 상기 서브카메라를 배치하는 것을 특징으로 하는 무인기의 장애물 탐지 장치.
The method of claim 16
When registered as the fault event
The sub camera controller
The sub-camera obstacle detecting device of claim 1, wherein the sub-camera is arranged such that the base line between the driving shaft of the sub-camera and the stereo camera is perpendicular to each other.
KR1020180082494A 2018-07-16 2018-07-16 A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera KR102526857B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180082494A KR102526857B1 (en) 2018-07-16 2018-07-16 A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera
CN201910594108.0A CN110726397B (en) 2018-07-16 2019-07-03 Unmanned aerial vehicle obstacle detection device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180082494A KR102526857B1 (en) 2018-07-16 2018-07-16 A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera

Publications (2)

Publication Number Publication Date
KR20200008409A true KR20200008409A (en) 2020-01-28
KR102526857B1 KR102526857B1 (en) 2023-04-28

Family

ID=69217099

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180082494A KR102526857B1 (en) 2018-07-16 2018-07-16 A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera

Country Status (2)

Country Link
KR (1) KR102526857B1 (en)
CN (1) CN110726397B (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112484692B (en) * 2020-11-05 2023-01-03 江西洪都航空工业集团有限责任公司 Visual detection method and device for relative height of aircraft and cloud layer
KR20240134859A (en) * 2021-11-01 2024-09-10 브룩허스트 거라지 인코포레이티드 Precise height estimation using sensor fusion

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001328600A (en) * 2000-05-19 2001-11-27 Fuji Heavy Ind Ltd Landing point searching device, flying object using therewith and landing point evaluating device
JP2003306200A (en) * 2002-04-15 2003-10-28 Natl Space Development Agency Of Japan Image navigation for rendezvous docking and navigation device
KR20140061089A (en) * 2012-11-13 2014-05-21 재단법인대구경북과학기술원 Method and device control stereoscopic camera
KR20180075111A (en) * 2016-12-26 2018-07-04 이선구 Collision avoidance apparatus for vehicles

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650708B (en) * 2017-01-19 2023-08-11 南京航空航天大学 Automatic driving obstacle vision detection method and system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001328600A (en) * 2000-05-19 2001-11-27 Fuji Heavy Ind Ltd Landing point searching device, flying object using therewith and landing point evaluating device
JP2003306200A (en) * 2002-04-15 2003-10-28 Natl Space Development Agency Of Japan Image navigation for rendezvous docking and navigation device
KR20140061089A (en) * 2012-11-13 2014-05-21 재단법인대구경북과학기술원 Method and device control stereoscopic camera
KR20180075111A (en) * 2016-12-26 2018-07-04 이선구 Collision avoidance apparatus for vehicles

Also Published As

Publication number Publication date
CN110726397A (en) 2020-01-24
KR102526857B1 (en) 2023-04-28
CN110726397B (en) 2021-12-14

Similar Documents

Publication Publication Date Title
US10860039B2 (en) Obstacle avoidance method and apparatus and unmanned aerial vehicle
KR101708659B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
EP2824416B1 (en) Distance calculation device and distance calculation method
US20180040133A1 (en) Systems and methods for determining feature point motion
US20180114067A1 (en) Apparatus and method for extracting objects in view point of moving vehicle
US20220156973A1 (en) Information processing apparatus, information processing method, and program
WO2020015748A1 (en) Systems and methods for lidar detection
KR102410268B1 (en) Object tracking method and object tracking apparatus for performing the method
JP6506032B2 (en) Survey data processing apparatus, survey data processing method and program
CN111213153A (en) Target object motion state detection method, device and storage medium
KR102526857B1 (en) A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera
KR20200056068A (en) System for tracking an object in unmanned aerial vehicle based on mvs
JPWO2016113875A1 (en) Information provision system for billing location evaluation
US11108966B2 (en) Information processing apparatus and subject information acquisition method
JP7278846B2 (en) OBJECT POSITION DETECTION DEVICE, TRIP CONTROL SYSTEM, AND TRIP CONTROL METHOD
JP4123138B2 (en) Vehicle detection method and vehicle detection device
KR102592988B1 (en) Method and device for detecting object in aerial images
US11276197B2 (en) Information processing apparatus and subject information acquisition method
KR102135672B1 (en) Autonomous driving devise and method
JP2001116527A (en) Method and device for detecting solid body
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
KR102310958B1 (en) Wide viewing angle stereo camera apparatus and depth image processing method using the same
KR20190103523A (en) Autonomous driving devise and method
JP7437930B2 (en) Mobile objects and imaging systems
KR101470939B1 (en) A system and the method for detecting face using CCTV

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant