KR20200008409A - A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera - Google Patents
A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera Download PDFInfo
- Publication number
- KR20200008409A KR20200008409A KR1020180082494A KR20180082494A KR20200008409A KR 20200008409 A KR20200008409 A KR 20200008409A KR 1020180082494 A KR1020180082494 A KR 1020180082494A KR 20180082494 A KR20180082494 A KR 20180082494A KR 20200008409 A KR20200008409 A KR 20200008409A
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- image
- sub
- stereo
- drone
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000001514 detection method Methods 0.000 claims description 72
- 238000010586 diagram Methods 0.000 description 22
- 238000004458 analytical method Methods 0.000 description 11
- 238000000605 extraction Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 230000002146 bilateral effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
- B64D45/04—Landing aids; Safety measures to prevent collision with earth's surface
- B64D45/08—Landing aids; Safety measures to prevent collision with earth's surface optical
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/80—Arrangement of on-board electronics, e.g. avionics systems or wiring
- B64U20/87—Mounting of imaging devices, e.g. mounting of gimbals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/006—Apparatus mounted on flying objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/617—Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
- G05D1/622—Obstacle avoidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Radar, Positioning & Navigation (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
본 발명은 무인기의 자율 비행을 위한 장애물을 탐지하기 위한 것으로, 스테레오 카메라에 물리적 제어가 가능한 부가 카메라를 추가 조합한 장애물 탐지 시스템 및 방법에 관한 발명이다.The present invention relates to an obstacle detection system and method for detecting an obstacle for autonomous flight of an unmanned aerial vehicle, and additionally adding an additional camera capable of physical control to a stereo camera.
무인기 기술이 점차 발전함에 따라 조종기를 이용한 수동 제어 위주에서 무인기 스스로 주위 환경을 판단하는 자율비행 및 특정 임무 수행을 위한 무인기 기술들이 개발되고 있다. 이를 위하여 자율비행 시 무인기의 충돌 방지를 위해 비행 경로상의 장애물을 탐지하고 이를 회피하는 기술들이 활발히 연구되고 있다. 현재 무인기의 장애물 탐지에는 스테레오 카메라, 라이다 및 초음파 등의 다양한 센서들을 단독 혹은 결합하는 방법을 사용하고 있다. As drones are gradually developed, drones are being developed for autonomous flight and specific tasks performed by the drone to determine the surrounding environment in a manual control mode using a remote controller. To this end, technologies for detecting and avoiding obstacles in the flight path are actively researched to prevent collision of the drone during autonomous flight. Currently, obstacle detection of drones uses a single or combined method of various sensors such as a stereo camera, a lidar, and an ultrasonic wave.
특히 스테레오 카메라 기반의 장애물 탐지 시스템은 고가의 라이다에 비해 저렴한 가격에 장애물 회피 시스템을 구축할 수 있어 대부분의 무인기 장애물 회피 시스템에 적용되고 있다. In particular, the obstacle detection system based on a stereo camera is applicable to most drone obstacle avoidance systems because an obstacle avoidance system can be constructed at a lower price than an expensive lidar.
하지만, 스테레오 카메라 기반의 장애물 탐지 시스템은 스테레오 카메라 간의 거리인 베이스라인 길이에 따라 탐지 거리에 제한이 존재한다. 이때 원거리 탐지를 위해 카메라간의 베이스라인 길이를 늘릴 경우 원거리 장애물은 탐지가 가능하지만 근거리 장애물의 경우에는 occlusion이나 시차 오류로 인해 오히려 인식률이 떨어질 수 있다. 또한 스테레오 카메라는 기본적으로 수평라인의 시차를 이용하여 물체의 거리를 측정하는 방식이기 때문에 전깃줄이나 빨랫줄과 같은 가로로 가늘고 긴 형태의 구조물은 인식률이 매우 떨어진다는 단점이 존재한다. However, the stereo camera-based obstacle detection system has a limitation in the detection distance according to the baseline length, which is the distance between the stereo cameras. In this case, if the baseline length between cameras is increased for the long range detection, the long distance obstacle can be detected, but in the case of the short range obstacle, the recognition rate may decrease due to occlusion or parallax error. In addition, since stereo cameras basically measure the distance of objects using parallax of horizontal lines, there is a disadvantage in that the recognition rate is very low in a long thin structure such as an electric wire or a clothesline.
또한 무인기는 적재 중량 및 배터리, HW 리소스의 제약으로 많은 수의 센서를 장착하는데 제한을 가지기 때문에 개발자 또는 사용자가 원하는 기능의 센서들을 다 부착할 수 없다는 제약이 따른다.In addition, the drone is limited to mounting a large number of sensors due to the limitations of loading weight, battery, and HW resources, and thus, a drone cannot be attached to all sensors having a desired function.
따라서 무인기의 자율 비행을 위한 장애물을 탐지하기 위해, 스테레오 카메라 기반에서 효율적으로 장애물을 탐지할 수 있는 기술이 요구되고 있는 실정이다.Therefore, in order to detect obstacles for autonomous flight of the drone, a technique for efficiently detecting obstacles based on a stereo camera is required.
본 발명은 무인기의 안전운항에 필요한 장애물 탐지를 수행하는데 목적이 있다. An object of the present invention is to perform obstacle detection required for the safe operation of the drone.
본 발명은 무인기에서 무게 및 HW 리소스의 제약을 극복하여 장애물 탐지를 수행하는 방법을 제시하는데 그 목적이 있다. An object of the present invention is to provide a method for performing obstacle detection by overcoming the constraints of weight and HW resources in an unmanned aerial vehicle.
본 발명은 무인기에서 기존 스테레오 방식의 장애물 탐지 방법에서는 해결하기 힘든 탐지 문제점을 해결하는 방법을 제시하는데 그 목적이 있다.An object of the present invention is to propose a method for solving a detection problem that is difficult to solve in the conventional stereo obstacle detection method in the drone.
본 발명은 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 근거리 및 원거리의 장애물 탐지를 할 수 있는 방법을 제공하는데 목적이 있다.An object of the present invention is to provide a method for detecting obstacles in the near and far distance in a drone obstacle detection system based on a stereo camera.
본 발명은 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 양안시차 오류를 극복하는데 목적이 있다.An object of the present invention is to overcome the binocular parallax error in a drone obstacle detection system based on a stereo camera.
본 발명은 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 틸트 현상 오류를 극복하는데 목적이 있다.An object of the present invention is to overcome a tilt phenomenon error in a drone obstacle detection system based on a stereo camera.
이와 함께, 본 발명이 해결하고자 하는 다른 과제는 기존 스테레오 방식의 장애물 검출이 어려운 전선과 같은 가로 구조물 탐지하는 방법을 제공하는데 그 목적이 있다. In addition, another object of the present invention is to provide a method for detecting a horizontal structure, such as a wire difficult to detect obstacles in the conventional stereo system.
본 발명은 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 장애물을 판단하고 이를 등록하여 영상 보정을 하는데 그 목적이 있다.An object of the present invention is to determine the obstacle in the unmanned aerial vehicle obstacle detection system based on the stereo camera and to register it to correct the image.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Technical problems to be achieved in the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.
본 발명의 일 실시예에 따라, 무인기가 장애물을 탐지하는 방법을 제공할 수 있다. 이 때 무인기가 장애물을 탐지하는 방법은 한 쌍의 스테레오 카메라들로부터 영상을 입력 받고, 상기 입력 받은 영상으로부터 깊이맵을 생성하고, 상기 깊이맵을 분석하여 장애 이벤트 발생 여부를 판단하는 단계를 포함한다. According to one embodiment of the present invention, a drone may provide a method for detecting an obstacle. In this case, the method for detecting an obstacle by the drone includes receiving an image from a pair of stereo cameras, generating a depth map from the received image, and analyzing the depth map to determine whether a failure event occurs. .
이 때 상기 한 쌍의 스테레오 카메라들 사이에 서브 카메라가 존재하고, 상기 서브 카메라가 촬영하는 영상이 상기 장애 이벤트에 기초하여 변경되고, 상기 서브 카메라에서 촬영된 영상 및 상기 한 쌍의 스테레오 카메라들의 영상에 기초하여 장애물을 탐지할 수 있다. At this time, there is a sub camera between the pair of stereo cameras, the image captured by the sub camera is changed based on the fault event, the image captured by the sub camera, and the image of the pair of stereo cameras. Obstacles can be detected based on.
또한, 다음의 실시예들은 무인기가 장애물을 탐지하는 방법 및 장치에서 공통으로 적용될 수 있다.In addition, the following embodiments may be applied in common in a method and apparatus for detecting an obstacle by a drone.
본 발명의 일 실시예에 따라, 한 쌍의 스테레오 카메라들로부터 입력 받은 영상들을 비교한 경우, 영상들간 매칭되는 점 또는 영역이 존재하는지 판단하되, 영상들간 매칭되는 점 또는 영역이 존재하지 않는 경우 장애 이벤트로 등록할 수 있다. 이 때 장애 이벤트가 등록된 경우, 서브 카메라의 구동축과 스테레오 카메라간의 베이스라인이 평행을 이루도록 상기 서브 카메라가 배치될 수 있다. 또한 이때 서브 카메라에서 획득한 영상과 스테레오 카메라가 획득한 좌 우 영상 중 하나와 스테레오 매칭할 수 있다.According to an embodiment of the present invention, when comparing images received from a pair of stereo cameras, it is determined whether there is a point or region matching between images, but if there is no matching point or region between the images You can register as an event. In this case, when a failure event is registered, the sub camera may be arranged such that the baseline between the driving shaft of the sub camera and the stereo camera is parallel to each other. In this case, stereo matching may be performed with one of the left and right images acquired by the sub camera and the stereo camera.
본 발명의 일 실시예에 따라, 상기 생성된 깊이맵을 분석하여, 영상 내의 제 1 영역이 임계치 이상인지 판단하되, 상기 제 1 영역이 영상 내에서 임계치 이상 존재하는 것으로 판단된 경우, 상기 장애 이벤트로 등록될 수 있다. 상기 장애 이벤트가 등록된 경우 무인기의 기울어진 각도를 파악하고, 상기 파악된 각도에 따라 제 1 각도를 결정할 수 있다. 또한 서브 카메라가 스테레오 카메라의 입력 영상보다 제 1 각도만큼 차이 나는 영상을 촬영할 수 있다. 이 때 상기 서브카메라로부터 획득한 영상과 스테레오 카메라의 영상 간의 중복되는 범위를 파악하고, 상기 중복되는 범위의 깊이 값을 측정한 뒤, 상기 중복되는 범위의 깊이 값을 확장할 수 있다.According to an embodiment of the present invention, by analyzing the generated depth map, it is determined whether the first region in the image is greater than or equal to the threshold, and when it is determined that the first region is greater than or equal to the threshold in the image, the disorder event. It can be registered as. When the obstacle event is registered, the inclination angle of the drone may be determined, and the first angle may be determined according to the determined angle. In addition, the sub-camera may capture an image that is different from the input image of the stereo camera by a first angle. At this time, the overlapping range between the image obtained from the sub-camera and the image of the stereo camera can be identified, the depth value of the overlapping range can be measured, and the depth value of the overlapping range can be expanded.
본 발명의 일 실시예에 따라 상기 생성된 깊이맵을 분석하는 경우, 영상 내에 수평 라인이 존재하는지 여부를 판단하되, 영상 내에 수평 라인이 존재하는 것으로 판단된 경우, 영상 내의 수평 라인이 두 개 이상인 경우 상기 장애 이벤트로 등록될 수 있다. 상기 장애 이벤트로 등록된 경우, 상기 서브카메라의 구동축과 스테레오 카메라간의 베이스 라인이 서로 수직을 이루도록 상기 서브 카메라가 배치될 수 있다. 또한 상기 수직으로 배치된 서브 카메라와 스테레오 카메라간 수직 스테레오 매칭을 수행하여, 상기 영상 내의 수평 라인이 실제 장애물인지를 최종 판별할 수 있다.When analyzing the generated depth map according to an embodiment of the present invention, it is determined whether there is a horizontal line in the image, but if it is determined that there is a horizontal line in the image, there are two or more horizontal lines in the image. In this case, the failure event may be registered. When registered as the fault event, the sub camera may be arranged such that the base line between the driving shaft of the sub camera and the stereo camera is perpendicular to each other. In addition, vertical stereo matching between the vertically disposed sub-camera and the stereo camera may be performed to finally determine whether the horizontal line in the image is an actual obstacle.
본 발명의 일 실시예에 따라, 무인기가 장애물을 탐지하는 장치를 제공할 수 있다. 이 때 무인기가 장애물을 탐지하는 장치는 한 쌍의 스테레오 카메라들로부터 영상을 입력 받는 영상 획득부, 상기 입력 받은 영상으로부터 깊이맵을 생성하는 깊이맵 생성부, 상기 깊이맵을 분석하여 장애 이벤트 발생 여부를 판단하는 깊이맵 영상 분석부 및 서브 카메라 제어부를 포함할 수 있다.According to one embodiment of the present invention, a drone may provide an apparatus for detecting an obstacle. In this case, the apparatus for detecting an obstacle by the drone includes an image acquisition unit that receives an image from a pair of stereo cameras, a depth map generator that generates a depth map from the input image, and analyzes the depth map to determine whether a failure event occurs. It may include a depth map image analysis unit and a sub-camera control unit for determining the.
이 때, 상기 한 쌍의 스테레오 카메라들 사이에 서브 카메라가 존재할 수 있다. 또한 상기 서브 카메라가 촬영하는 영상이 상기 장애 이벤트에 기초하여 변경되고, 상기 서브 카메라에서 촬영된 영상 및 상기 한 쌍의 스테레오 카메라들의 영상에 기초하여 장애물을 탐지할 수 있다.In this case, a sub camera may exist between the pair of stereo cameras. In addition, an image captured by the sub camera may be changed based on the fault event, and an obstacle may be detected based on an image captured by the sub camera and an image of the pair of stereo cameras.
본 발명에 의하면 무인기의 안전운항에 필요한 장애물 탐지를 수행하는 방법을 제공할 수 있다.According to the present invention can provide a method for performing obstacle detection required for the safe operation of the drone.
본 발명에 의하면 무인기에서 무게 및 HW 리소스의 제약을 극복하여 장애물 탐지를 수행하는 방법을 제공할 수 있다. According to the present invention, it is possible to provide a method for performing obstacle detection by overcoming constraints of weight and HW resources in an unmanned aerial vehicle.
본 발명에 의하면 무인기에서 기존 스테레오 방식의 장애물 탐지 방법에서는 해결하기 힘든 탐지 문제점을 해결하는 방법을 제시할 수 있다.According to the present invention, a method for solving a detection problem that is difficult to solve in the conventional stereo obstacle detection method in an unmanned aerial vehicle can be proposed.
본 발명에 의하면 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 근거리 및 원거리의 장애물 탐지를 할 수 있는 방법을 제공할 수 있다.According to the present invention, it is possible to provide a method for detecting near and far obstacles in a drone obstacle detection system based on a stereo camera.
본 발명에 의하면 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 양안시차 오류를 극복하는 방법을 제공할 수 있다.According to the present invention, a method for overcoming binocular parallax error in a drone obstacle detection system based on a stereo camera can be provided.
본 발명에 의하면 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 틸트 현상 오류를 극복하는 방법을 제공할 수 있다.According to the present invention, a method for overcoming a tilt phenomenon error in a drone obstacle detection system based on a stereo camera can be provided.
본 발명에 의하면 기존 스테레오 방식의 장애물 검출이 어려운 전선과 같은 가로 구조물을 탐지하는 방법을 제공할 수 있다.According to the present invention, it is possible to provide a method for detecting a horizontal structure such as a wire, which is difficult to detect an obstacle of a conventional stereo system.
본 발명에 의하면 스테레오 카메라 기반의 무인비행체 장애물 탐지 시스템에서 장애물을 판단하고 이를 등록하여 영상 보정을 할 수 있다.According to the present invention, in a stereo camera-based drone obstacle detection system, an obstacle may be determined and registered to correct an image.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtained in the present invention are not limited to the above-mentioned effects, and other effects not mentioned above may be clearly understood by those skilled in the art from the following description. will be.
도 1은 본 발명의 일 실시예에 따른 복수의 카메라를 이용한 장애물 탐지 시스템의 블록도를 보여준다.
도 2는 본 발명의 일 실시예에 따른 복수의 카메라 기반 무인기 장애물 탐지 시스템에서 깊이맵 영상 분석부의 블록도를 보여준다.
도 3은 본 발명의 일 실시예에 따른 멀티카메라 기반 무인기 장애물 탐지 시스템에서 서브 카메라 제어 및 인식부의 블록도를 보여준다.
도 4는 본 발명의 일 실시예에 따른 멀티카메라 기반 무인기 장애물 탐지 시스템의 카메라 장치 구성에 대한 일 예를 보인다.
도 5는 양안 시차 오류 및 본 발명의 일 실시예에 따른 오류 보정 방법을 나타낸 도면이다.
도 6은 본 발명의 일 실시예로 무인기의 고속 이동 시 발생하는 틸트 현상에 대한 일 예를 그림으로 도시 한다.
도 7은 본 발명의 일 실시예에 따라 가로 장애물을 판별하는 방법에 대한 일 예를 그림으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 장애물 탐지 방법의 흐름도를 보여준다.
도 9는 본 발명의 일 실시예로 시차오류 발생시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다.
도 10은 본 발명의 일 실시에로 틸트 현상 발생시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다.
도 11은 본 발명의 일 실시예로 가로 장애물 발견 시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다.1 is a block diagram of an obstacle detection system using a plurality of cameras according to an embodiment of the present invention.
2 is a block diagram of a depth map image analyzing unit in a plurality of camera-based drone obstacle detection systems according to an exemplary embodiment of the present invention.
3 is a block diagram of a sub-camera control and recognition unit in a multi-camera drone obstacle detection system according to an exemplary embodiment of the present invention.
4 shows an example of a camera device configuration of a multi-camera-based drone obstacle detection system according to an embodiment of the present invention.
5 is a diagram illustrating a binocular parallax error and an error correction method according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating an example of a tilt phenomenon that occurs when a drone moves at a high speed according to an embodiment of the present invention.
7 is a diagram illustrating an example of a method of determining a horizontal obstacle according to an embodiment of the present invention.
8 is a flowchart illustrating an obstacle detection method according to an embodiment of the present invention.
9 is a flowchart illustrating a method for detecting an obstacle when a parallax error occurs according to an embodiment of the present invention.
10 is a flowchart illustrating a method for detecting an obstacle when a tilt phenomenon occurs in an embodiment of the present invention.
FIG. 11 is a flowchart illustrating an obstacle detecting method when a horizontal obstacle is found according to an embodiment of the present invention.
이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.
본 발명의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 발명에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the following description of embodiments of the present invention, when it is determined that detailed descriptions of well-known structures or functions may obscure the gist of the present invention, detailed descriptions thereof will be omitted. In the drawings, parts irrelevant to the description of the present invention are omitted, and like reference numerals designate like parts.
본 발명에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present invention, when a component is "connected", "coupled" or "connected" with another component, it is not only a direct connection, but also an indirect connection in which another component exists in between. It may also include. In addition, when a component "includes" or "having" another component, it means that it may further include another component, without excluding the other component unless otherwise stated. .
본 발명에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 발명의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다.In the present invention, the terms "first" and "second" are used only for the purpose of distinguishing one component from other components, and do not limit the order or the importance between the components unless otherwise specified. Therefore, within the scope of the present invention, a first component in one embodiment may be referred to as a second component in another embodiment, and likewise, a second component in one embodiment may be referred to as a first component in another embodiment. It may also be called.
본 발명에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 발명의 범위에 포함된다.In the present invention, the components distinguished from each other to clearly describe each feature, and does not necessarily mean that the components are separated. That is, a plurality of components may be integrated into one hardware or software unit, or one component may be distributed into a plurality of hardware or software units. Therefore, even if not mentioned otherwise, such integrated or distributed embodiments are included in the scope of the present invention.
본 발명에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 발명의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 발명의 범위에 포함된다.In the present disclosure, components described in various embodiments are not necessarily required components, and some may be optional components. Therefore, an embodiment consisting of a subset of the components described in an embodiment is also included in the scope of the present invention. In addition, embodiments including other components in addition to the components described in the various embodiments are included in the scope of the present invention.
본 발명은 무인기의 자율 비행을 위한 장애물 탐지를 위해 스테레오 카메라 에 물리적 제어가 가능한 부가 카메라를 추가 조합한 장애물 탐지 시스템 및 방법에 관한 것이다. 더욱 상세하게는 스테레오 카메라에 모터 또는 기계적으로 제어가 가능한 추가적인 카메라를 이용하여 근거리 장애물 및 기존 스테레오 시스템으로는 탐지가 어려운 가로 장애물 탐지를 수행하는 무인비행체 장애물 탐지 시스템 및 방법에 관한 것이다.The present invention relates to an obstacle detection system and method in which an additional camera capable of physical control is further added to a stereo camera for obstacle detection for autonomous flight of a drone. More specifically, the present invention relates to a drone obstacle detection system and method for performing a short distance obstacle and a horizontal obstacle detection that is difficult to detect with a conventional stereo system by using a motor or mechanically controlled additional camera in a stereo camera.
본 발명의 이점 및 특징, 그것들을 달성하는 방법은 첨부되어 있는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 제시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments set forth below, but may be implemented in various forms, and only the present embodiments are intended to complete the disclosure of the present invention, and those skilled in the art to which the present invention pertains. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims.
이하, 본 발명의 실시예들에 의하여 무인기 장애물 탐지 시스템 및 그 방법을 설명하기 위한 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명한다. 이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. Hereinafter, the present invention will be described with reference to the drawings of a block diagram or a processing flowchart for explaining a drone obstacle detection system and a method thereof according to embodiments of the present invention. It will be appreciated that each block of the flowchart illustrations and combinations of flowchart illustrations may be performed by computer program instructions. Since these computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, those instructions executed through the processor of the computer or other programmable data processing equipment may be described in the flowchart block (s). It will create means to perform the functions.
또한 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. Each block may also represent a module, segment or portion of code that includes one or more executable instructions for executing a specified logical function (s). It should also be noted that in some alternative implementations, the functions noted in the blocks may occur out of order.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 복수의 카메라를 이용한 장애물 탐지 시스템의 블록도를 보여준다.1 is a block diagram of an obstacle detection system using a plurality of cameras according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 무인기 탐지 시스템(100)은 영상 획득부(120), 깊이맵 생성부(130), 깊이맵 영상 분석부(140), 서브 카메라 제어 및 인식부(150) 및 장애물 인식부(160)등을 포함할 수 있다.The
영상 획득부는(120) 한 쌍의 스테레오 카메라와 추가적인 서브 카메라로 구성될 수 있다. 본 발명의 일 실시예로 한 쌍의 스테레오 카메라와 하나의 서브 카메라가 명시된 바 있으나, 발명의 적용 목적 및 방법에 따라 스테레오 카메라와 서브 카메라의 개수는 한 개 이상이 될 수 있는바, 상술한 실시예로 한정되지 않는다.The
영상 획득부는(120) 한 쌍의 스테레오 카메라와 추가적인 서브 카메라를 이용하여 외부로부터 동기화된 복수의 입력 영상을 획득한다. 보다 상세하게는 영상 획득부는(120) 클럭 동기화 신호에 따라 동일한 시간에 복수의 입력 영상을 획득할 수 있다. The
영상 획득부(120)의 스테레오 카메라는 수평 라인으로 정렬된 상태로 구성될 수 있다. 이때 한 쌍의 스테레오 카메라는 일정한 간격만큼 떨어져 있을 수 있으며, 한 쌍의 스테레오 카메라는 일직선 상에 놓이도록 구성될 수 있다.The stereo camera of the
본 발명의 일 실시예로 한 쌍의 스테레오 카메라 간의 간격은 빠른 속도로 이동하는 무인기에서 원거리 장애물을 탐지하기 위한 충분한 길이의 베이스라인을 가질 수 있도록 구성될 수 있다. In one embodiment of the present invention, the spacing between a pair of stereo cameras may be configured to have a baseline of sufficient length to detect distant obstacles in a fast moving drone.
또한 영상 획득부(120)의 스테레오 카메라는 양안 시차를 가진 복수의 스테레오 영상을 획득할 수 있다. In addition, the stereo camera of the
영상 획득부(120)의 서브 카메라는 장치의 작동 초기에는 일반 모드로 세팅 되어 있을 수 있다. 이때, 일반 모드로 세팅 된 서브 카메라는 한 쌍의 스테레오 카메라의 베이스라인 사이에 위치할 수 있다. 이 때 본 발명의 일 실시예로 서브 카메라는 한 쌍의 스테레오 카메라 간 중간에 위치할 수 있으나, 상술한 실시예로 한정되지 않는다. 또한 서브 카메라는 한 쌍의 스테레오 카메라의 베이스 라인 위에 배치될 수 있다.The sub-camera of the
이때 본 발명의 일 실시예로 서브 카메라와 구동 모터가 연결되어 있는 구동 축은 한 쌍의 스테레오 카메라가 이루고 있는 일직선과 평행을 이룰 수 있다. 이 때, 일반 모드에서 서브 카메라는 스테레오 카메라가 잡기 어려운 근거리 장애물을 탐지 하는데 활용될 수 있다. 또한 이와 달리 일반 모드에서 한 쌍의 스테레오 카메라는 원거리 장애물을 탐지 하는데 활용될 수 있다. At this time, in one embodiment of the present invention, the driving shaft to which the sub-camera and the driving motor are connected may be parallel to a straight line formed by the pair of stereo cameras. In this case, the sub camera in the normal mode may be used to detect near obstacles that are difficult to be grasped by the stereo camera. Alternatively, in normal mode, a pair of stereo cameras can be used to detect distant obstacles.
깊이맵 생성부(130)는 스테레오 영상을 이용하여 깊이맵을 추출하는 기능을 수행한다. 수평라인으로 정렬된 두 대의 카메라는 카메라에서 물체까지의 거리에 따라 서로 다른 시차를 갖는 복수의 영상을 획득할 수 있다. 깊이맵 생성부(130)는 획득한 복수의 영상으로부터 스테레오 매칭을 수행한다. 보다 상세하게는 스테레오 매칭 과정에서는 두 영상에서 동일한 위치를 찾아 영상 객체간에 시차를 계산하고 이 시차를 이용하여 깊이맵을 획득하는 과정을 수행한다. The
깊이맵 영상 분석부(140)는 생성된 깊이맵을 분석하여 객체를 분류하고 무인기의 진행 방향에 존재하는 장애물 후보를 추출 하고 해당 결과를 이벤트로 저장하는 기능을 수행한다. The depth map
깊이맵 영상 분석부(140)는 생성된 깊이맵을 분석하여 베이스라인이 길어 인식할 수 없는 근거리 장애물에 대한 시차 오류를 검출하고 해당 결과를 이벤트로 저장하는 기능을 수행한다. The depth map
깊이맵 영상 분석부(140)는 생성된 깊이맵을 분석하여 무인기가 고속으로 진행할 때 무인기가 기울어져 발생하는 틸트 현상을 검출하고 해당 결과를 이벤트로 저장하는 기능을 수행한다. 이 때 본 발명의 일 실시예로 틸트 현상의 검출은 무인기의 IMU 정보를 분석하는 방법과 영상의 수평선을 분석하여 결정하는 방법 등을 사용할 수 있다. The depth map
깊이맵 영상 분석부(140)는 생성된 깊이맵을 분석하여 무인기의 비행에 큰 위험이 되는 전선과 같은 가로 형태의 장애물이 있는지 확인하기 위해 비행 깊이맵에 수평라인이 존재하는지 검사한다. 이 때 본 발명의 일 실시예로 수평라인 검출은 영상의 가로라인 에지 추출 등을 통해 수행될 수 있다. The depth
이때 검출되는 수평라인은 지평선이나 실제 전선과 같은 것들이 검출 될 수 있다. 다만, 단순한 수평라인 검출만으로는 이 라인이 실제 무인기 비행의 장애물이 되는 수평라인인지를 판단할 수 없다. 보다 상세하게는 검출된 수평 라인이 무인기 비행의 장애물이 되는 전선인지 또는 장애물이 아닌 지평선인지 판단할 수 없으므로 서브 카메라 제어 및 인식부(150)에서 이를 검사하기 위해 검출된 결과를 이벤트로 저장하는 기능을 수행한다. At this time, the horizontal line can be detected such as the horizon or the actual wire. However, simple horizontal line detection alone cannot determine whether this line is a horizontal line that is an obstacle to the actual drone flight. More specifically, since it is not possible to determine whether the detected horizontal line is a wire that becomes an obstacle of the drone flight or a horizon rather than an obstacle, the sub camera control and
도 2는 본 발명의 일 실시예에 따른 복수의 카메라 기반 무인기 장애물 탐지 시스템에서 깊이맵 영상 분석부(140)의 블록도를 보여준다.2 is a block diagram of a depth map
깊이맵 영상 분석부(140)는 입력된 깊이맵을 분석하여 영상 내의 깊이맵에 따라 영역을 분류하는 깊이맵 정보 분석부(200)가 포함될 수 있다. The depth
깊이맵 영상 분석부(140)는 분석된 깊이맵 분류 영역 정보를 바탕으로 장애물의 위험이 있는 영역을 구분하는 장애물 후보 분석부(210) 가 포함될 수 있다. The depth
깊이맵 영상 분석부(140)는 깊이맵에 시차 오차가 발생하여 매칭 오류가 발생한 영역을 분류하는 근거리 오차 추출부(220)가 포함될 수 있다. The depth
또한 깊이맵 영상 분석부(140)는 분석된 깊이맵 분류 영역에서 수평라인이 존재하는지 검출하는 수평라인 검출부(230), 수평라인 검출부(230)에서 검출된 수평라인을 향후 가로 장애물 판별을 위해 등록하는 가로 장애물 후보 추출부(240), 틸트 현상 검출부(250)를 포함할 수 있다. 보다 상세하게는 근거리 오차 추출부(220)에서는 시차 오류 이벤트 판단 및 등록이 발생할 수 있다. 보다 상세하게는 가로 장애물 후보 추출부(240)에서는 가로 장애물 오류 이벤트 판단 및 등록이 발생할 수 있다. 보다 상세하게는 틸트 현상 검출부(250) 에서는 무인기 틸트 현상에 대한 오류 판단 및 등록이 발생할 수 있다.In addition, the depth
도 3은 본 발명의 일 실시예에 따른 멀티카메라 기반 무인기 장애물 탐지 시스템에서 서브 카메라 제어 및 인식부(150)의 블록도를 보여준다.3 is a block diagram of the sub-camera control and
서브 카메라 제어 및 인식부(150)는 스테레오 카메라 사이에 설치된 추가적인 카메라를 제어하는 역할을 수행한다. 이 때, 서브 카메라 제어 및 인식부(150)에 의해 제어되는 서브카메라는 스테레오 카메라 기반의 무인기 장애물 탐지 시스템을 보완하기 위한 다양한 역할을 수행할 수 있다.The sub camera control and
서브 카메라 제어 및 인식부(150)는 깊이맵 영상 분석부(140)에서 장애물 및 오류 발생을 분석한 결과가 이벤트로 등록된 경우, 서브 카메라의 동작을 제어하는 기능을 수행한다. 이 때, 이벤트의 일 예시로 시차 오류, 무인기 틸트 현상, 가로장애물 후보 등록 등이 해당될 수 있다. The sub camera control and
본 발명의 일 실시예로, 서브 카메라 제어 및 인식부(150)는 시차 오류가 발생하였다는 이벤트가 등록되면 동작한다.In one embodiment of the present invention, the sub-camera control and
시차 오류란 스테레오 카메라 간의 배치 길이인 베이스 라인이 너무 멀어 근거리 객체를 촬영할 경우 좌우 카메라에서 촬영한 영상간에 시차가 너무 커 매칭이 이루어지지 않는 오류이다. A parallax error is an error in which matching is not performed because the parallax is too large between the images taken by the left and right cameras when the short distance of the baseline between the stereo cameras is too far.
이 때 서브 카메라는 한 쌍의 스테레오 카메라의 베이스라인 사이에 위치할 수 있다. 이때 본 발명의 일 실시예로 서브 카메라와 구동모터가 연결되어 있는 구동 축은 한 쌍의 스테레오 카메라가 이루고 있는 일직선과 평행을 이룰 수 있다.In this case, the sub camera may be located between the baselines of the pair of stereo cameras. At this time, in one embodiment of the present invention, the driving shaft to which the sub-camera and the driving motor are connected may be parallel to the straight line formed by the pair of stereo cameras.
시차오류를 보정하기 위한 본 발명의 일 실시예로, 서브 카메라 제어 및 인식부(150)는 좌우 카메라에서 입력 받은 영상 간의 스테레오 매칭 후 서브 카메라에서 획득한 영상과의 스테레오 매칭을 수행할 수 있다. 보다 상세하게는 좌우 카메라간 스테레오 매칭을 수행한 후, 서브 카메라의 영상을 좌 우 카메라 중 한 대에서 획득된 영상과 다시 스테레오 매칭을 수행할 수 있다. 이와 같은 방법을 통해 본 발명은 근거리 장애물 객체를 인지하고 시차 오류를 극복하는 동작을 수행할 수 있다. In an embodiment of the present invention for correcting parallax errors, the sub-camera control and
본 발명의 일 실시예로, 서브 카메라 제어 및 인식부(150)는 깊이맵 영상 분석부(140)에서 틸트 현상이 발생하였다는 이벤트가 등록되면 동작한다.In an embodiment of the present invention, the sub-camera control and
서브 카메라 제어 및 인식부(150)는 무인기가 고속으로 비행 시 발생하는 틸트 현상으로 인해 무인기가 기울어져 카메라가 하방을 촬영하게 되어 나타나는 문제를 해결하는 기능을 수행한다. 이 때 틸트 현상이란 하방 촬영으로 장애물을 파악하지 못하는 현상을 의미한다. 구체적으로는 카메라가 비행 전방이 아닌 하방을 촬영하게 되면 획득된 영상에는 지상의 수평선 아래 영역이 많은 부분을 차지하게 된다. 이때 수평선 이하의 영상은 깊이맵을 정확히 추출하기 힘들게 하며, 하방 촬영으로 인해 전방의 장애물을 제대로 파악할 수 없다는 문제점이 존재한다.The sub-camera control and
서브 카메라 제어 및 인식부(150)는 무인기에 장착된 IMU 정보를 주기적으로 분석하여 무인기에서 틸트 현상이 발생하는지 여부를 판단한다. 이때, 서브 카메라 제어 및 인식부(150)는 틸트 현상이 발생하였다는 이벤트가 등록된 경우 서브 카메라의 위치를 모터 등의 물리적 장치 제어를 통해 틸트 각도에 따라 변경하여 틸트 현상으로 나타나는 현상을 보완하는 동작을 수행한다. 구체적인 틸트 영상 보완 기법에 대해서는 도면과 함께 후술하기로 한다.The sub-camera control and
본 발명의 일 실시예로, 서브 카메라 제어 및 인식부(150)는 깊이맵 영상 분석부(140)에서 가로 장애물이 발견되었다는 이벤트가 등록되면 동작한다. 즉, 서브 카메라 제어 및 인식부(150)는 무인기의 비행시 일반적인 스테레오 영상으로는 탐지하기 힘든 전깃줄과 같은 가로 장애물을 판별하는 기능을 수행한다. In an embodiment of the present invention, the sub-camera control and
서브 카메라 제어 및 인식부(150)에서는 깊이맵 영상 분석부(140)에서 수평라인이 검출되었다는 이벤트가 발생하면 서브 카메라를 제어하여 가로 장애물인지 여부를 판단하는 작업을 수행한다. 보다 상세하게는 영상 내의 수평라인이 1개가 존재하는 경우 지평선으로 판단할 수 있다. 따라서 이때는 가로 장애물이 존재하지 않는다. 그러나 영상 내의 수평라인이 2개 이상인 경우, 그 중 1개 이상은 가로장애물이 될 수 있는바, 이 경우에는 가로 장애물이 발생한 것으로 판단하여 가로장애물 이벤트를 발생시킬 수 있다.When the event that the horizontal line is detected by the depth map
보다 상세하게는 서브 카메라 제어 및 인식부(150)는 수평라인 검출 이벤트 발생 시 서브 카메라를 모터 등의 물리적 장치를 이용하여 구동모터를 중심으로 회전하여 이동시킨다. 이때 발명의 일 실시예로 서브 카메라는 스테레오 카메라 중 한 대와 직렬로 정렬될 수 있다. 보다 상세하게는 한 쌍의 스테레오 카메라 간의 연결 축과 구동 모터와 서브 카메라가 연결된 구동 축이 수직을 형성할 수 있다.More specifically, the sub-camera control and
이 때 서브 카메라 제어 및 인식부(150)에서는 일반적인 수평 스테레오 매칭이 아닌 수직 스테레오 매칭을 수행하고 이에 대한 깊이맵을 추출한다.At this time, the sub-camera control and
서브 카메라 제어 및 인식부(150)에서는 추출된 깊이맵을 분석하여 수평라인이 가로 장애물인지를 판단하는 과정을 수행한다. 보다 상세하게는 가로 장애물이 아닌 수평선이라면 시차가 발생하지 않는다. 반면 무인기의 탐지 거리 내의 전깃줄과 같은 가로 장애물의 경우라면 상하 양안 시차가 발생되어 가로 장애물임을 확인할 수 있다.The sub-camera control and
상기 기능들을 구현하기 위한 서브 카메라 제어 및 인식부(150)는 서브 카메라 제어 구동부(300), 틸트 정보 분석부(310), 근거리 깊이값 측정부(320), 틸트 영상 보정부(330), 수직 스테레오 매칭부(340), 가로 장애물 추출부(350)로 구성될 수 있다.The sub-camera control and
이 때 서브 카메라 제어 구동부(300)는 시차 오류, 가로 장애물 후보 등록, 무인기 틸트 이벤트가 발생하였을 때 각 이벤트 별로 서브 카메라를 제어하는 역할을 수행할 수 있다. In this case, the
이 때 근거리 깊이값 측정부(320)는 시차 오류 이벤트가 발생할 경우 서브 카메라를 이용하여 스테레오 카메라 중 한 대와 스테레오 매칭을 재 수행하여 시차 오류를 보정하는 기능을 수행할 수 있다. In this case, when the parallax error event occurs, the near
이 때 틸트 영상 보정부(330)는 틸트 정보 분석부(310)로부터 현재 무인기의 상태 정보를 입력 받아 무인기의 틸트 상태를 확인할 수 있다.At this time, the
또한 틸트 영상 보정부(330)는 틸트 이벤트가 발생 하였을 경우 서브 카메라의 위치를 틸트 각도에 따라 물리적 장치로 카메라의 위치를 조정하여 틸트 영상을 보정하는 역할을 수행할 수 있다. In addition, when the tilt event occurs, the
가로 장애물 추출부(350)는 가로 장애물 후보 이벤트가 발생 하였을 경우 서브 카메라를 물리적으로 이동 시킬 수 있다. 이 때 본 발명의 일 실시예로 서브 카메라는 스테레오 카메라 중 한 대와 수직으로 정렬될 수 있다. 또한 가로 장애물 추출부(350)는 수직 스테레오 영상 매칭부(340)를 통해 수직 깊이값을 측정하여 수평 스테레오 매칭으로는 검출 할 수 없는 전깃줄과 같은 가로 장애물을 추출할 수 있다. The
본 발명에서는 가로 장애물을 검출하기 위해 두 대의 카메라만을 이용하나 리소스의 허용 범위나 정확성을 높이기 위해서는 스테레오 카메라와 부가 카메라를 모두 이용하는 것도 가능한 바 상술한 실시예로 한정되지 않는다.In the present invention, only two cameras are used to detect horizontal obstacles, but both a stereo camera and an additional camera may be used to increase the allowable range or accuracy of resources.
상기와 같이, 본 발명의 일 실시예에 따르면, 무게와 HW 리소스 등에 제한이 따르는 무인기에서 한 쌍의 스테레오 카메라와 물리적으로 제어 가능한 한 대의 추가적 카메라를 이용하여 기존의 스테레오 카메라 기반의 장애물 탐지 시스템이 가진 여러 단점을 보완할 수 있다. As described above, according to an embodiment of the present invention, an obstacle detection system based on an existing stereo camera is provided by using a pair of stereo cameras and one additional camera that are physically controllable in a drone with limitations on weight and HW resources. Several shortcomings can be compensated for.
도 4는 본 발명의 일 실시예에 따른 멀티카메라 기반 무인기 장애물 탐지 시스템의 카메라 장치 구성에 대한 일 예를 보인다. 이 때 무인기 장애물 탐지 시스템의 카메라 장치 구성은 스테레오 카메라 및 서브 카메라로 구성될 수 있다. 이때, 본 발명의 일 실시예로 서브 카메라는 스테레오 카메라의 베이스 라인보다 상단에 위치할 수 있다.4 shows an example of a camera device configuration of a multi-camera-based drone obstacle detection system according to an embodiment of the present invention. At this time, the camera device configuration of the drone obstacle detection system may be composed of a stereo camera and a sub camera. At this time, in one embodiment of the present invention, the sub camera may be located above the base line of the stereo camera.
도 4a는 이벤트 중 양안 시차 오류가 발생한 경우의 서브 카메라의 구동방식을 나타낸 도면이다. 또한 도 4a는 초기 카메라의 구성을 나타낸 도면과 같다. 이 때, 영상 획득부(120)의 서브 카메라는 장치의 작동 초기에는 일반 모드로 세팅 되어 있을 수 있다. 이때, 일반 모드로 세팅 된 서브 카메라는 초기에는 한 쌍의 스테레오 카메라의 베이스라인 사이에 위치할 수 있다. 이 때 본 발명의 일 실시예로 서브 카메라는 한 쌍의 스테레오 카메라들의 중간에 위치할 수 있으나, 상술한 실시예로 한정되지 않는다. 이때 본 발명의 일 실시예로 서브 카메라와 구동모터가 연결되어 있는 구동 축은 한 쌍의 스테레오 카메라가 이루고 있는 일직선과 평행을 이룰 수 있다. 보다 상세하게는 스테레오 카메라의 베이스라인과 서브 카메라의 구동 축이 평행하게 구성될 수 있다. 이 때, 도 4a와 같이 서브카메라는 한 쌍의 스테레오 카메라 사이에 위치하여 한 쌍의 스테레오 카메라의 베이스라인이 너무 멀어 발생할 수 있는 양안 시차를 보정할 수 있다.4A is a diagram illustrating a driving method of a sub camera when a binocular parallax error occurs during an event. 4A is a view showing the configuration of an initial camera. At this time, the sub-camera of the
도 4b는 이벤트 중 무인기의 틸트 현상 및 가로 장애물 후보 등록 이벤트가 발생한 경우의 서브 카메라의 구동방식을 나타낸 도면이다. 도 4b를 참조하면 서브 카메라는 무인기의 틸트 현상 및 전기줄과 같은 가로 장애물로 예상되는 이벤트가 발생할 경우 모터와 같은 물리적 장치를 통해 서브 카메라를 제어 구동하여 이를 보완할 수 있도록 구성된다. FIG. 4B is a diagram illustrating a driving method of a sub camera when a tilt phenomenon of an unmanned aerial vehicle and a horizontal obstacle candidate registration event occur during an event. Referring to FIG. 4B, when an event expected by a tilting phenomenon of a drone and a horizontal obstacle such as an electric wire occurs, the sub camera is configured to compensate for this by controlling the sub camera through a physical device such as a motor.
이 때 본 발명의 일 실시예로 서브 카메라와 구동모터가 연결되어 있는 구동 축은 한 쌍의 스테레오 카메라가 이루고 있는 일직선과 일정한 각도를 유지하여 위치할 수 있다. At this time, in one embodiment of the present invention, the driving shaft to which the sub-camera and the driving motor are connected may be positioned at a constant angle with a straight line formed by the pair of stereo cameras.
틸트 이벤트가 발생 하였을 경우 본 발명의 일 실시예로 서브 카메라의 위치는 틸트 각도에 따라 물리적 장치로 조정될 수 있다. 이 때 서브 카메라의 구동 축과 한 쌍의 스테레오 카메라가 이루고 있는 베이스라인이 이루는 각도는 특정 각도를 가질 수 있다. 이 때 특정 각도는 틸트 현상에 따른 오류를 보정할 수 있는 각도가 될 수 있다.When a tilt event occurs, in one embodiment of the present invention, the position of the sub camera may be adjusted by a physical device according to the tilt angle. At this time, the angle formed by the driving axis of the sub camera and the baseline formed by the pair of stereo cameras may have a specific angle. In this case, the specific angle may be an angle to correct an error caused by the tilt phenomenon.
가로 장애물 후보 이벤트가 발생 하였을 경우 본 발명의 일 실시예로 서브 카메라는 스테레오 카메라 중 한 대와 직렬으로 정렬될 수 있다. 즉, 이 때 서브 카메라의 구동 축과 한 쌍의 스테레오 카메라가 이루고 있는 베이스 라인의 각도는 90도가 될 수 있다. 보다 상세하게는 서브 카메라의 구동 축과 한 쌍의 스테레오 카메라가 이루고 있는 베이스 라인은 서로 수직으로 구성되어, 수직 스테레오 매칭을 할 수 있다.When the horizontal obstacle candidate event occurs, according to an embodiment of the present invention, the sub camera may be aligned in series with one of the stereo cameras. That is, the angle of the base line formed by the driving axis of the sub camera and the pair of stereo cameras may be 90 degrees. In more detail, the driving axis of the sub-camera and the base line formed by the pair of stereo cameras are perpendicular to each other to perform vertical stereo matching.
도 5는 양안 시차 오류 및 본 발명의 일 실시예에 따른 오류 보정 방법을 나타낸 도면이다.5 is a diagram illustrating a binocular parallax error and an error correction method according to an embodiment of the present invention.
보다 상세하게는 도 5a, b는 스테레오 카메라의 먼 베이스 라인 배치로 인해 발생할 수 있는 양안 시차 오류를 나타내고 있으며, 도 5c는 서브 카메라를 이용하여 이를 해결하기 위한 일 예를 도식화 하였다. More specifically, FIGS. 5A and 5B illustrate binocular parallax errors that may occur due to a far baseline arrangement of a stereo camera, and FIG. 5C illustrates an example for solving the problem using a sub camera.
도 5a는 원거리 스테레오 영상을 좌 영상과 우 영상으로 구분하여 나타낸 도면이다. 도 5a에서 보면 스테레오 카메라를 통하여 획득한 영상은 대상이 되는 객체와의 거리에 따라 서로 다른 시차를 가진 영상을 획득할 수 있다.5A is a diagram illustrating a far stereo image divided into a left image and a right image. In FIG. 5A, an image acquired through a stereo camera may acquire an image having different parallaxes according to a distance from a target object.
도 5b는 근거리 스테레오 영상을 좌 영상과 우 영상으로 구분하여 나타낸 도면으로, 양안 시차 오류가 발생한 경우이다. 도 5b와 같이 스테레오 카메라 사이의 베이스라인이 너무 멀 경우 근거리의 객체를 촬영하면 좌/우 스테레오 영상의 시차가 너무 커서 서로 다른 객체로 인식하여 매칭이 되지 않는 경우가 발생한다. 5B is a diagram illustrating a near stereo image divided into a left image and a right image, in which a binocular disparity error occurs. When the baseline between the stereo cameras is too far, as shown in FIG. 5B, when the object in the short distance is photographed, the parallax of the left and right stereo images is too large to recognize them as different objects and thus may not match.
도 5c는 본 발명의 일 실시예를 통해 양안시차 오류가 보정된 좌 영상과 우 영상을 나타낸 도면이다. 본 발명에서는 도 5b에서와 같이 양안 시차가 발생할 경우 부가적인 서브 카메라에서 촬영된 영상을 기존 스테레오 영상과 매칭하여 근거리 양안시차 오류를 보정한다. 이 때 도 5c와 같이 서브 카메라는 스테레오 카메라 사이에 배치될 수 있다. 이 때 본 발명의 일 실시예로 서브 카메라는 한 쌍의 스테레오 카메라 간 중간에 위치할 수 있으나, 상술한 실시예로 한정되지 않는다. 또한 서브 카메라는 한 쌍의 스테레오 카메라의 베이스 라인 위에 배치될 수 있다. 이때 본 발명의 일 실시예로 서브 카메라와 구동 모터가 연결되어 있는 구동 축은 한 쌍의 스테레오 카메라가 이루고 있는 일직선과 평행을 이룰 수 있다.5C is a diagram illustrating a left image and a right image in which binocular parallax error is corrected according to an embodiment of the present invention. In the present invention, when binocular disparity occurs as shown in FIG. 5B, an image captured by an additional sub-camera is matched with an existing stereo image to correct a near binocular disparity error. In this case, as shown in FIG. 5C, the sub camera may be disposed between the stereo cameras. At this time, in one embodiment of the present invention, the sub-camera may be located in the middle between a pair of stereo cameras, but is not limited to the above-described embodiment. Also, the sub camera may be disposed on the base line of the pair of stereo cameras. At this time, in one embodiment of the present invention, the driving shaft to which the sub-camera and the driving motor are connected may be parallel to a straight line formed by the pair of stereo cameras.
도 6은 본 발명의 일 실시예로 무인기의 고속 이동 시 발생하는 틸트 현상에 대한 일 예를 그림으로 도시 한다. FIG. 6 is a diagram illustrating an example of a tilt phenomenon that occurs when a drone moves at a high speed according to an embodiment of the present invention.
도 6a는 일반적인 정면 촬영 영상에서 획득된 깊이맵을 나타낸 도면이고, 도 6b는 무인기가 고속으로 진행 시 틸트 현상에 의해 하방을 촬영한 깊이맵을 나타낸 도면이다. 도 6b와 같이 수평선 아래 영역이 영상의 대부분을 차지할 경우에는 깊이맵 추출의 특성상 깊이맵이 잘 추출되지 않는 현상이 발생한다. FIG. 6A is a diagram illustrating a depth map obtained from a general front image, and FIG. 6B is a diagram illustrating a depth map obtained by tilting when the drone is traveling at high speed. As shown in FIG. 6B, when the area under the horizontal line occupies most of the image, the depth map may not be easily extracted due to the depth map extraction.
도 6c는 서브 카메라를 이용해 틸트 영상을 보완하기 위한 일 예를 도시한다. 도 6c에서 보는 바와 같이 서브 카메라는 기존의 스테레오 카메라에서 촬영된 영상과 스테레오 매칭을 수행한다. 이 때 서브 카메라는 모터를 이용하여 제어되며, 틸트 현상의 기울기를 보완할 수 있는 각도만큼 이동되어 영상을 촬영할 수 있다. 서브 카메라를 제어하여 획득된 영상은 본 발명의 작동 초기에 획득한 스테레오 영상보다는 상단 각도를 촬영할 수 있다. 6C illustrates an example for supplementing a tilt image by using a sub camera. As shown in FIG. 6C, the sub camera performs stereo matching with an image captured by a conventional stereo camera. At this time, the sub-camera is controlled using a motor, and the sub camera is moved by an angle that can compensate for the tilt of the tilt phenomenon to take an image. An image obtained by controlling the sub camera may capture an upper angle of the image rather than a stereo image obtained at the beginning of the operation of the present invention.
이때 서브카메라는 스테레오 매칭으로부터 생성된 깊이맵을 바탕으로 스테레오 카메라에 촬영되지 않은 상단 영역의 깊이맵을 확장하여 깊이값을 추출한다. 보다 상세하게는 스테레오 카메라의 영상과 스테레오 카메라의 영상보다 상단이 촬영된 서브 카메라의 영상이 존재하게 될 것이다. 영상들간의 중복 부분을 파악하고, 중복 부분으로부터 서브카메라가 촬영한 상단 영역의 깊이맵을 확장할 수 있다. 이 때 틸트 현상에 의해 목적된 촬영 영역보다 아래 영역이 촬영된 스테레오 카메라의 영상을 위 영역으로 확장할 수 있다. 이를 이용하면 틸트 현상으로 인해 발생하는 전방 장애물의 미싱을 보완할 수 있고 지면 촬영으로 인해 발생하는 깊이맵 측정의 오류를 보완할 수 있다. At this time, the sub-camera extracts the depth value by extending the depth map of the upper region not captured by the stereo camera based on the depth map generated from the stereo matching. In more detail, the image of the stereo camera and the sub camera photographed on the upper side of the stereo camera will be present. The overlapping portions between the images may be identified, and the depth map of the upper region photographed by the sub-camera may be extended from the overlapping portions. At this time, the image of the stereo camera in which the region below the intended shooting region is captured by the tilt phenomenon can be extended to the upper region. This can be used to compensate for missing front obstacles caused by tilting and to compensate for errors in depth map measurements caused by ground imaging.
도 7은 본 발명의 일 실시예에 따라 가로 장애물을 판별하는 방법에 대한 일 예를 그림으로 도시한다. 가로 장애물의 경우, 수평선이 탐지가 되었어도 해당 수평선이 실제로 가로 장애물인지 여부에 대한 판단이 필요하다. 즉, 지평선과 같은 경우는 가로 장애물에 해당되지 않으나, 무인기의 전방에 있는 전깃줄과 같은 경우는 경우는 가로 장애물로 판별될 수 있다. 7 is a diagram illustrating an example of a method of determining a horizontal obstacle according to an embodiment of the present invention. In the case of a horizontal obstacle, even if a horizontal line is detected, it is necessary to determine whether the horizontal line is actually a horizontal obstacle. That is, the case such as the horizon does not correspond to the horizontal obstacle, but the case such as the electrical wire in front of the drone may be determined as the horizontal obstacle.
도 7a는 일반적인 스테레오 카메라의 경우를 도시한 도면이다. 이 경우, 지평선과 전기줄과 같은 가느다란 가로 장애물이 존재할 경우 기존의 스테레오 영상 매칭으로는 이를 구별할 수 없다. 이 때, 서브 카메라는 본 발명의 일반모드로 세팅된 것과 같이 스테레오 카메라의 사이에 존재할 수 있다. 보다 상세하게는 스테레오 카메라의 좌 영상과 우 영상을 비교하여 수평 양안시차를 측정한 경우, 전선과 수평선 모두 시차 차이가 발생하지 않는다. 즉, 시차 차이를 느낄 수 없는바 영상 내의 가로선이 실제로 무인기의 진행에 장애가 되는 장애물인지 여부를 확인할 수 없다. 이 때는 수평 양안시차만 확인할 수 있기 때문이다.7A is a diagram illustrating a typical stereo camera. In this case, when there are thin horizontal obstacles such as the horizon and the electric wire, conventional stereo image matching cannot distinguish them. At this time, the sub camera may exist between the stereo cameras as set in the normal mode of the present invention. More specifically, when the horizontal binocular disparity is measured by comparing the left image and the right image of the stereo camera, the disparity difference does not occur in both the wire and the horizontal line. That is, it is not possible to determine whether the horizontal parallax in the image is an obstacle that actually hinders the progress of the drone. This is because only horizontal binocular disparity can be checked.
본 발명에서는 이를 해결하기 위해 도 7b와 같이 가로 장애물 후보가 발견될 경우 모터와 같은 물리적 장치를 이용하여 서브 카메라를 기존의 스트레오 카메라 한대와 직선으로 배열한다. 보다 상세하게는 스테레오 카메라의 베이스 라인과 본 발명의 서브카메라의 구동축은 서로 수직을 형성할 수 있다. In order to solve this problem, when the horizontal obstacle candidate is found as illustrated in FIG. 7B, the sub camera is arranged in a straight line with one existing stereo camera using a physical device such as a motor. In more detail, the base line of the stereo camera and the drive shaft of the sub camera of the present invention may be perpendicular to each other.
그 후 서브 카메라 영상과 스테레오 카메라 영상의 수직 양안 시차를 이용하여 전기줄과 같은 가로 장애물을 판별하게 된다. 보다 상세하게는 스테레오 카메라와 서브 카메라간의 수직 스테레오 매칭을 수행한다. 이때 본 발명의 일 실시예로 서브 카메레와 수직 스테레오 매칭을 수행하는 스테레오 카메라는 서브 카메라와 일 직선을 형성하고 있는 스테레오 카메라일 수 있다. 수직 스테레오 매칭을 수행하는 경우 수직 양안 시차를 확인할 수 있는바, 수직 양안 시차를 통해 가로 장애물인지 여부를 판단하게 된다.Afterwards, horizontal obstacles such as electric wires are determined using vertical binocular disparity between the sub camera image and the stereo camera image. More specifically, vertical stereo matching is performed between the stereo camera and the sub camera. At this time, according to an embodiment of the present invention, the stereo camera performing vertical stereo matching with the sub camera may be a stereo camera forming one straight line with the sub camera. When vertical stereo matching is performed, vertical binocular disparity can be checked, and the vertical binocular disparity determines whether it is a horizontal obstacle.
도 7b를 확인하면 서브 카메라에서 획득한 영상과 우 영상을 스테레오 매칭을 하게 되면, 시차 차이가 발생했는지 여부를 확인하여 실제로 무인기의 진행에 장애가 되는 장애물인지 여부를 확인할 수 있다. 보다 상세하게는 영상에서 검출된 가로선이 가로 장애물이 아닌 지평선인 경우, 해당 가로선은 서브 카메라와 스테레오 카메라 간의 영상을 비교하였을 때 시차가 발생하지 않는다. 반면 영상에서 검출된 가로선이 무인기의 탐지 거리 내의 전깃줄과 같은 가로 장애물인 경우 경우, 해당 가로선은 서브 카메라와 스테레오 카메라 간의 영상을 비교하였을 때 상하 양안 시차가 발생된다. 따라서 이때의 영상 내의 가로선은 가로 장애물로 분류될 수 있다.Referring to FIG. 7B, when stereo matching between the image acquired from the sub camera and the right image is performed, it may be determined whether a parallax difference occurs to determine whether the obstacle is actually an obstacle to the progression of the drone. More specifically, when the horizontal line detected in the image is a horizon rather than a horizontal obstacle, the horizontal line does not generate a parallax when the image is compared between the sub camera and the stereo camera. On the other hand, when the horizontal line detected in the image is a horizontal obstacle such as an electrical wire within the detection distance of the drone, the horizontal line is bilateral parallax when the image is compared between the sub camera and the stereo camera. Therefore, horizontal lines in the image at this time may be classified as horizontal obstacles.
도 8은 본 발명의 일 실시예에 따른 장애물 탐지 방법의 흐름도를 보여준다. 8 is a flowchart illustrating an obstacle detection method according to an embodiment of the present invention.
도 8을 참조하면, 먼저 무인기에 장착된 복수의 카메라를 통해 입력 영상을 획득한다(S810). 본 발명의 일 실시예로 서브 카메라의 영상은 스테레오 카메라에서 복수의 영상이 입력될 경우, 동시에 동작하여 입력될 수 있다. 본 발명의 일 실시예로 서브 카메라의 영상은 상기 기술한 이벤트들이 발생하였을 경우에만 동작하여 입력 될 수도 있다. Referring to FIG. 8, first, an input image is obtained through a plurality of cameras mounted in a drone (S810). According to an embodiment of the present invention, when a plurality of images are input from the stereo camera, the images of the sub cameras may be simultaneously operated. According to an embodiment of the present invention, the image of the sub camera may be operated and input only when the above-described events occur.
복수의 스테레오 입력 영상이 획득되면, 깊이맵 생성부(130)는 좌우 영상의 동일한 포인트 또는 영역을 검색한다(S820). 이 때 좌우 영상의 동일한 포인트나 영역이 검색되지 않는 경우 시차오류 이벤트가 고려될 수 있다. 스테레오 매칭 알고리즘은 점 또는 영역 등의 일반적인 스테레오 매칭 방법이 사용될 수 있으며 스테레오 매칭을 수행하기 전에는 캘리브레이션, 영상 전처리 등의 추가적인 과정이 필요할 수 있다.When a plurality of stereo input images are obtained, the
좌우 영상의 스테레오 매칭이 완료되면, 깊이맵 생성부(130)는 각각의 매칭점 또는 매칭 영역을 바탕으로 깊이맵을 생성한다(S830).When stereo matching of the left and right images is completed, the
영상 전체에 대한 깊이맵을 생성한 이후에는, 생성된 깊이맵에서 동일 영역들에 대한 분류를 수행하는 작업이 필요하다(S840). 깊이맵에서 영역을 구분하는 방법은 일반적인 영역 분류 또는 인접한 영역들의 통합 등의 방법 등이 이용될 수 있다. After generating the depth map of the entire image, it is necessary to perform the classification for the same areas in the generated depth map (S840). As a method of classifying regions in the depth map, a general region classification or a method of integrating adjacent regions may be used.
깊이맵에 대한 객체가 분류된 이후에는, 깊이맵을 분석하여 깊이맵에 오류가 있는지 여부와 거리에 따라 장애물 후보를 분류하는 작업들이 필요하다(S850). After the objects for the depth map are classified, operations for classifying the obstacle candidates according to whether the depth map has an error and the distance by analyzing the depth map are necessary (S850).
깊이맵 분석을 통해 장애 발생 이벤트의 발생 여부를 파악(S860)할 수 있다. 이 때, 이벤트의 일 예시로 시차 오류, 무인기 틸트 현상, 가로장애물 후보 등록 등이 해당될 수 있다. Through the depth map analysis, it may be determined whether a failure event has occurred (S860). In this case, examples of the event may include a parallax error, a drone tilt phenomenon, and registration of a road obstacle candidate.
이벤트가 발생하지 않은 경우 이벤트가 발생할 때까지 깊이맵 분석을 진행한다. 그러나, 이벤트가 발생한 경우 장애물 인식부(160)에서는 상기 동작들에 판별된 장애물들을 등록하고 장애물들의 위치를 계산하여 탐지 결과(S870)를 알린다.If no event occurs, depth map analysis is performed until the event occurs. However, when an event occurs, the
그 후 등록된 이벤트에 따라 서브 카메라를 제어하여 오류를 보정(S880)한다. 입력 받은 영상이 종료되지 않은 경우 영상을 입력 받고 깊이맵 분석을 수행하는 절차를 반복(S890)한다.Thereafter, the sub-camera is controlled according to the registered event to correct the error (S880). If the input image is not finished, the procedure of receiving the image and performing the depth map analysis is repeated (S890).
본 발명의 일 실시예로, 서브 카메라 제어 및 인식부(150)에서 이벤트가 발생(S860)하였다는 것을 인식한 경우, 발생한 이벤트의 유형에 따라 서브 카메라 제어 및 인식부(150)는 서브 카메라의 위치 및 동작 방식 등을 달리 제어할 수 있다. 본 발명이 발생한 이벤트의 유형에 따라 동작하는 흐름은 하기의 도면과 같이 분류될 수 있다. 도 9는 시차오류가 발생한 경우의 장애물 탐지 방법, 도 10은 틸트 현상이 발생한 경우의 장애물 탐지 방법, 도 11은 가로 장애물 발견시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다. 이벤트 유형에 따라 서브 카메라 제어 및 인식부(150)의 동작을 위해 분석해야 할 내용들은 다음과 같다.According to an embodiment of the present invention, when the sub camera control and
도 9는 본 발명의 일 실시예로 시차오류 발생시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다.9 is a flowchart illustrating a method for detecting an obstacle when a parallax error occurs according to an embodiment of the present invention.
시차 오류 발생의 확인 및 보정을 위해 먼저 스테레오 카메라에서 좌 우 영상을 입력(S910) 받는다. 그리고 획득한 좌 우 영상에서 매칭점 또는 매칭 영역이 검색되는지 여부를 파악(S920)한다. 이때 좌우 영상에서 매칭점 또는 영역이 검색되지 않을 경우에는 이는 시차 오류일 확률이 높다. 본 발명의 일 실시예로 매칭점 또는 매칭 영역의 계산 대상은 영상내의 코너점 또는 에지점 등이 될 수 있다. 획득한 좌우 영상에서 매칭점 또는 매칭 영역이 검색되지 않는 경우 시차오류 이벤트로 등록(S930)된다. 만약 획득한 좌우 영상에서 매칭점 또는 매칭 영역이 검색된 다면 스테레오 매칭을 통해 깊이 맵을 생성하고 깊이 맵을 분석할 수 있다.In order to confirm and correct the parallax error, first, a left and right image are input from the stereo camera (S910). In operation S920, whether a matching point or a matching area is searched for is obtained from the acquired left and right images. If no matching point or region is found in the left and right images, this is likely a parallax error. In one embodiment of the present invention, the calculation target of the matching point or the matching area may be a corner point or an edge point in the image. If a matching point or a matching area is not found in the acquired left and right images, it is registered as a parallax error event (S930). If a matching point or a matching area is found in the acquired left and right images, the depth map may be generated through stereo matching and the depth map may be analyzed.
시차오류 이벤트로 등록된 경우, 시차오류를 보정하기 위하여 서브 카메라를 사용할 수 있다. 깊이 맵을 생성한 후(S940) 깊이 맵에서 시차 오류 영역 후보를 판단(S950)한다. When registered as a parallax error event, the sub camera may be used to correct the parallax error. After generating the depth map (S940), a parallax error region candidate is determined from the depth map (S950).
그 후 시차 오류 영역 후보 영역에 대해서 서브 카메라를 이용하여 시차 오류 보정(S960)을 한다.Then, the parallax error correction (S960) is performed on the parallax error area candidate area by using the sub camera.
보다 상세하게는, 양안 시차 오류 이벤트가 등록된 것을 확인한 경우, 서브 카메라 제어 및 인식부(150)는 서브 카메라를 스테레오 카메라 사이에 배치할 수 있다. 이 때 본 발명의 일 실시예로 서브 카메라는 한 쌍의 스테레오 카메라 간 중간에 위치할 수 있으나, 상술한 실시예로 한정되지 않는다. 또한 서브 카메라는 한 쌍의 스테레오 카메라의 베이스 라인 위에 배치될 수 있다. 이때 본 발명의 일 실시예로 서브 카메라와 구동 모터가 연결되어 있는 구동 축은 한 쌍의 스테레오 카메라가 이루고 있는 일직선과 평행을 이룰 수 있다.More specifically, when it is confirmed that the binocular parallax error event is registered, the sub camera control and
이때 서브 카메라 제어 및 인식부(150)은 서브 카메라에서 획득된 영상을 좌우 스테레오 카메라 중 하나와 매칭한다. 서브 카메라의 영상과의 스테레오 매칭을 통해 스테레오 카메라간의 베이스 라인 거리로 인해 발생하는 시차 오류를 보정하여 근거리 장애물을 판별하게 된다. 이때 서브 카메라와 스테레오 매칭이 이루어지는 스테레오 카메라의 좌우 영상의 선택은 어느 것이든 무관하다. At this time, the sub camera control and
그 후 입력 받은 영상이 종료되었는지를 판단하여 깊이맵 분석을 통한 이벤트 발생 여부 판단을 지속(S960)한다.After that, it is determined whether the received image is terminated, and whether the event occurs through the depth map analysis is continued (S960).
도 10은 본 발명의 일 실시에로 틸트 현상 발생시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다. 서브 카메라 제어를 위해 필요한 또 다른 깊이맵 분석의 대상으로는 틸트 현상 판단이 있다. 10 is a flowchart illustrating a method for detecting an obstacle when a tilt phenomenon occurs in an embodiment of the present invention. Another depth map analysis required for sub camera control is the determination of the tilt phenomenon.
틸트 현상의 발생 확인 및 보정을 위해 먼저 장치에서 영상을 입력 받고, 스테레오 매칭을 수행하여 깊이맵을 생성한다. 그리고 생성된 깊이맵을 분석(S1010)한다.In order to check and correct the occurrence of the tilt phenomenon, first, an image is input from a device, and stereo matching is performed to generate a depth map. The generated depth map is analyzed (S1010).
틸트 현상이 발생하였는지 여부는 깊이맵을 분석 하였을 때 영상 내에서 제 1 영역이 임계치 이상인지 판단하는 과정(S1020)을 통해 결정한다. 이 때 제 1 영역은 지상 영역을 의미할 수 있으며, 또한 목적된 촬영영역이 아닌 영역을 의미할 수 있다. 보다 상세하게는 고속으로 이동하는 무인기는 기울어져 이동하게 되는바, 목적된 촬영 영역이 아닌 영역을 촬영하게 되고 이를 제 1 영역으로 정의할 수 있다. 즉, 틸트 현상이 발생하였는지 여부는 깊이맵을 분석 하였을 때 영상 내에서 지상 영역이 임계치 이상을 차지하고 있는지 여부를 통해 판단한다. Whether the tilt has occurred is determined by analyzing whether the first region is greater than or equal to the threshold in the image when the depth map is analyzed (S1020). In this case, the first area may mean a ground area, and may also mean an area other than the intended photographing area. In more detail, the drone moving at a high speed is inclined to move, and thus, the drone may photograph an area other than the intended photographing area, and may define it as a first area. That is, whether or not the tilt has occurred is determined based on whether the ground region occupies the threshold value or more in the image when the depth map is analyzed.
이 때, 영상 내에서 제 1 영역이 임계치 이상인 경우로 판단되었다면, 틸트 현상이 발생한 것으로 판단(S1030)할 수 있다. 보다 상세하게는 도 6b와 같이 목적된 촬영영역이 임계치 보다 작은 경우에는 본 무인기가 고속 이동을 원인으로 기울어져 하방을 촬영하고 있는 것으로 판단될 수 있다. At this time, if it is determined that the first region is greater than or equal to the threshold value in the image, it may be determined that the tilt phenomenon has occurred (S1030). In more detail, as shown in FIG. 6B, when the target photographing area is smaller than the threshold, it may be determined that the drone is photographed downward due to the high speed movement.
이때 본 발명의 장치는 현 상황을 틸트 현상 이벤트로 등록(S1040)한다. 이때 틸트 현상을 판단하기 위한 임계치는 사용자 또는 운영자에 의해 정의 되거나 무인기의 IMU에서 획득된 정보로 정의될 수도 있을 것이다. At this time, the device of the present invention registers the current situation as a tilt phenomenon event (S1040). In this case, the threshold for determining the tilt phenomenon may be defined by a user or an operator or by information obtained from an IMU of an unmanned aerial vehicle.
영상의 틸트 현상 이벤트 확인 시, 서브 카메라 제어 및 인식부(150)는 무인기의 IMU 에서 전달받은 정보를 바탕으로 현재 무인기가 얼마나 기울어져 비행 중인지 판단한다. 이 때 무인기의 기울어진 각도를 파악하고, 상기 파악된 각도에 따라 제 1 각도를 결정한다. 제 1 각도는 틸트 현상을 보완하기 위해 서브 카메라가 촬영 해야 하는 화면이 스테레오 카메라의 베이스라인과 형성하는 각도를 의미한다. 보다 상세하게는 서브 카메라는 틸트 현상을 보완하기 위해 스테레오 카메라의 입력 화면보다 상단을 찍어야 하는바, 해당 스테레오 카메라의 입력 화면과 비교하였을 때 서브 카메라가 틸트 현상을 보정하기 위해 찍어야 하는 각도를 제 1 각도로 정의할 수 있다. 또한 이 때 서브 카메라가 스테레오 카메라의 입력 영상보다 제 1 각도만큼 차이 나는 영상을 촬영하는 것을 의미할 수 있다. When checking the tilt event of the image, the sub-camera control and
이 때 서브 카메라 제어 및 인식부(150)은 모터를 이용하여 서브 카메라를 제어하며, 틸트 현상의 기울기를 보완할 수 있는 각도만큼 서브 카메라를 조정하여 영상을 획득한다(S1050).At this time, the sub-camera control and
서브 카메라를 제어하여 획득된 영상은 본 발명의 작동 초기에 획득한 스테레오 영상보다는 상단 각도를 촬영하게 되는바, 틸트 현상이 보정된 영상을 획득(S1060)할 수 있다. 보다 상세하게는 서브 카메라 제어 및 인식부(150)은 서브 카메라로부터 상단 각도를 촬영한 영상을 획득하고, 해당 영상과 좌우 스테레오 영상과 중복된 영역에 대해 스테레오 매칭을 수행한다. 반면, 중복된 영역 밖의 깊이 값은 중복된 영역에서부터 얻은 깊이 값을 확장하여 추정 깊이 값을 얻게 된다.The image obtained by controlling the sub camera captures an upper angle than the stereo image obtained at the beginning of the operation of the present invention, and thus an image in which the tilt phenomenon is corrected may be obtained (S1060). In more detail, the sub-camera control and
그 후 입력 받은 영상이 종료되었는지를 판단하여 깊이맵 분석을 통한 이벤트 발생 여부 판단을 지속(S1070)한다.After that, it is determined whether the input image is terminated, and whether the event occurs through the depth map analysis is continued (S1070).
도 11은 본 발명의 일 실시예로 가로 장애물 발견 시의 장애물 탐지 방법의 흐름도를 나타낸 도면이다. 가로 장애물이란 도심이나 지상의 전깃줄, 빨랫줄과 같은 수평 형태의 가는 장애물로써 이는 일반적인 스테레오 방식으로는 검출이 어렵다. 따라서 본 발명에서는 서브 카메라 제어를 통하여 가로 장애물을 검출하는 흐름을 제시한다. FIG. 11 is a flowchart illustrating an obstacle detecting method when detecting a horizontal obstacle according to an embodiment of the present invention. Horizontal obstructions are horizontal obstructions such as urban or ground wires and clotheslines, which are difficult to detect in a typical stereo system. Therefore, the present invention proposes a flow for detecting the horizontal obstacle through the sub camera control.
가로 장애물의 검출을 위해 먼저 장치에서 영상을 입력 받고, 스테레오 매칭을 수행하여 깊이맵을 생성한다. 그리고 생성된 깊이맵을 분석(S1110)한다.In order to detect the horizontal obstacle, the device first receives an image and performs stereo matching to generate a depth map. The generated depth map is analyzed (S1110).
깊이맵 분석 시 영상 내에 수평라인이 존재하는지 여부(S1120)를 판단한다. 영상 내에 수평라인이 존재하는 경우 가로 장애물 후보로 등록(S1130)한다. 보다 상세하게는 영상 내의 수평라인이 1개가 존재하는 경우 지평선으로 판단할 수 있다. 따라서 이때는 가로 장애물이 존재하지 않는다. 그러나 영상 내의 수평라인이 2개 이상인 경우, 그 중 1개 이상은 가로장애물이 될 수 있는바, 이 경우에는 가로 장애물이 발생한 것으로 판단하여 가로장애물 이벤트를 발생시킬 수 있다. During the depth map analysis, it is determined whether a horizontal line exists in the image (S1120). If there is a horizontal line in the image, it is registered as a horizontal obstacle candidate (S1130). More specifically, when there is one horizontal line in the image, it may be determined as a horizon line. Therefore, there is no horizontal obstacle at this time. However, if there are two or more horizontal lines in the image, one or more of them may be a horizontal obstacle. In this case, the horizontal obstacle may be determined to generate a horizontal obstacle event.
따라서 이 때 영상 내에서 인식된 수평라인이 지평선과 같이 실제 가로 장애물이 아닌 경우가 있으므로, 실제 가로 장애물인지 여부를 서브 카메라 제어 및 인식부(150)에서 판단하게 된다. Therefore, at this time, since the horizontal line recognized in the image is not a real horizontal obstacle, such as a horizon, the sub-camera control and
가로 장애물 이벤트가 발생되었음을 확인한 경우, 서브 카메라 제어 및 인식부(150)에서는 서브 카메라를 모터 등을 이용해 스테레오 카메라 중 하나와 수직으로 배치(S1140)한다. 보다 상세하게는 스테레오 카메라의 베이스 라인과 본 발명의 서브카메라의 구동축은 서로 수직을 형성할 수 있다.When it is confirmed that the horizontal obstacle event occurs, the sub camera control and
그 후 도 7b와 같이 스테레오 카메라와 서브 카메라간의 수직 스테레오 매칭을 수행한다. 이때 본 발명의 일 실시예로 서브 카메레와 수직 스테레오 매칭을 수행하는 스테레오 카메라는 서브 카메라와 일 직선을 형성하고 있는 스테레오 카메라일 수 있다. 수직 스테레오 매칭을 수행하는 경우 수직 양안 시차를 확인할 수 있는바, 수직 양안 시차를 통해 가로 장애물인지 여부를 판단하게 된다(S1150). Thereafter, as shown in FIG. 7B, vertical stereo matching between the stereo camera and the sub camera is performed. At this time, according to an embodiment of the present invention, the stereo camera performing vertical stereo matching with the sub camera may be a stereo camera forming one straight line with the sub camera. When vertical stereo matching is performed, the vertical binocular disparity can be checked, and it is determined whether the horizontal obstacle is a vertical obstacle through the vertical binocular disparity (S1150).
보다 상세하게는 영상에서 검출된 가로선이 가로 장애물이 아닌 지평선인 경우, 해당 가로선은 서브 카메라와 스테레오 카메라 간의 영상을 비교하였을 때 시차가 발생하지 않는다. 반면 영상에서 검출된 가로선이 무인기의 탐지 거리 내의 전깃줄과 같은 가로 장애물인 경우 경우, 해당 가로선은 서브 카메라와 스테레오 카메라 간의 영상을 비교하였을 때 상하 양안 시차가 발생된다. 따라서 이때의 영상 내의 가로선은 가로 장애물로 분류될 수 있다. More specifically, when the horizontal line detected in the image is a horizon rather than a horizontal obstacle, the horizontal line does not generate a parallax when the image is compared between the sub camera and the stereo camera. On the other hand, when the horizontal line detected in the image is a horizontal obstacle such as an electrical wire within the detection distance of the drone, the horizontal line is bilateral parallax when the image is compared between the sub camera and the stereo camera. Therefore, horizontal lines in the image at this time may be classified as horizontal obstacles.
그 후 입력 받은 영상이 종료되었는지를 판단하여 깊이맵 분석을 통한 이벤트 발생 여부판단을 지속(S1160)한다.Thereafter, it is determined whether the received image is terminated and the determination of whether an event occurs through the depth map analysis is continued (S1160).
본 발명의 이점 및 특징, 그것들을 달성하는 방법은 첨부되어 있는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 제시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments set forth below, but may be implemented in various forms, and only the present embodiments are intended to complete the disclosure of the present invention, and those skilled in the art to which the present invention pertains. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims.
이하, 본 발명의 실시예들에 의하여 무인기 장애물 탐지 시스템 및 그 방법을 설명하기 위한 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명한다. 이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. Hereinafter, the present invention will be described with reference to the drawings of a block diagram or a processing flowchart for explaining a drone obstacle detection system and a method thereof according to embodiments of the present invention. It will be appreciated that each block of the flowchart illustrations and combinations of flowchart illustrations may be performed by computer program instructions. Since these computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, those instructions executed through the processor of the computer or other programmable data processing equipment may be described in the flowchart block (s). It will create means to perform the functions.
또한 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. Each block may also represent a module, segment or portion of code that includes one or more executable instructions for executing a specified logical function (s). It should also be noted that in some alternative implementations, the functions noted in the blocks may occur out of order.
100: 무인기 탐지 시스템
120: 영상 획득부
130: 깊임맵 생성부
140: 깊이맵 영상 분석부
150: 서브 카메라 제어 및 인식부
160: 장애물 인식부
200: 깊이맵 정보 분석부
210: 장애물 후보 분석부
220: 근거리 오차 추출부
230: 수평라인 검출부
240: 가로 장애물 후보 추출부
250: 틸트 현상 검출부
300: 서브 카메라 제어 구동부
310: 틸트 정보 분석부
320: 근거리 깊이값 측정부
330: 틸트 영상 보정부
340; 수직 스테레오 영상 매칭부
350: 가로 장애물 추출부100: drone detection system
120: image acquisition unit
130: depth map generator
140: depth map image analysis unit
150: sub camera control and recognition unit
160: obstacle recognition unit
200: depth map information analysis unit
210: obstacle candidate analysis unit
220: short-range error extraction unit
230: horizontal line detection unit
240: horizontal obstacle candidate extracting unit
250: tilt detection unit
300: sub camera control driver
310: tilt information analysis unit
320: near depth measurement unit
330: tilt image correction unit
340; Vertical Stereo Image Matching Unit
350: horizontal obstacle extraction unit
Claims (17)
한 쌍의 스테레오 카메라들로부터 영상을 입력 받는 단계;
상기 입력 받은 영상으로부터 깊이맵을 생성하는 단계; 및
상기 깊이맵을 분석하여 장애 이벤트 발생 여부를 판단하는 단계;
를 포함하되,
상기 한 쌍의 스테레오 카메라들 사이에 서브 카메라가 존재하고,
상기 서브 카메라가 촬영하는 영상이 상기 장애 이벤트에 기초하여 변경되고,
상기 서브 카메라에서 촬영된 영상 및 상기 한 쌍의 스테레오 카메라들의 영상에 기초하여 장애물을 탐지하는
것을 특징으로 하는 무인기의 장애물 탐지 방법.In the obstacle detection method of the drone
Receiving an image from a pair of stereo cameras;
Generating a depth map from the input image; And
Analyzing the depth map to determine whether a failure event occurs;
Including but not limited to:
There is a sub camera between the pair of stereo cameras,
An image captured by the sub camera is changed based on the fault event,
Detecting an obstacle based on an image captured by the sub camera and an image of the pair of stereo cameras
Obstacle detection method of the drone, characterized in that.
상기 한 쌍의 스테레오 카메라들로부터 입력 받은 영상들을 비교한 경우,
상기 영상들간 매칭되는 점 또는 영역이 존재하는지 판단하되,
상기 영상들간 매칭되는 점 또는 영역이 존재하지 않는 경우
상기 장애 이벤트로 등록되는 것을 특징으로 하는 무인기의 장애물 탐지 방법.The method of claim 1
When comparing the images received from the pair of stereo cameras,
It is determined whether there is a matching point or area between the images,
When there is no matching point or area between the images
Obstacle detection method of the drone, characterized in that registered as the failure event.
상기 장애 이벤트가 등록된 경우
상기 서브 카메라의 구동축과 스테레오 카메라간의 베이스 라인이 평행을 이루도록 상기 서브 카메라가 배치되는 것을 특징으로 하는 무인기의 장애물 탐지 방법.The method of claim 2
When the failure event is registered
The obstacle detection method of the drone, characterized in that the sub-camera is arranged so that the base line between the drive shaft of the sub-camera and the stereo camera in parallel.
상기 서브 카메라에서 획득한 영상과
상기 스테레오 카메라가 획득한 좌 우 영상 중 하나와 스테레오 매칭하는 것을 특징으로 하는 무인기의 장애물 탐지 방법.The method of claim 3
The image acquired by the sub-camera
The obstacle detection method of the drone, characterized in that the stereo matching with one of the left and right images obtained by the stereo camera.
상기 생성된 깊이맵을 분석하여,
영상 내의 제 1 영역이 임계치 이상인지 판단하되,
상기 제 1 영역이 영상 내에서 임계치 이상 존재하는 것으로 판단된 경우,
상기 장애 이벤트로 등록되는 것을 특징으로 하는 무인기의 장애물 탐지 방법.The method of claim 1
By analyzing the generated depth map,
It is determined whether the first region in the image is greater than or equal to the threshold,
If it is determined that the first region is greater than or equal to a threshold in the image,
Obstacle detection method of the drone, characterized in that registered as the failure event.
상기 장애 이벤트가 등록된 경우
무인기의 기울어진 각도를 파악하고,
상기 파악된 각도에 따라 제 1 각도를 결정하되,
상기 서브 카메라가 스테레오 카메라의 입력영상보다 상기 제 1 각도만큼 차이 나는 영상을 촬영하는 것을 특징으로 하는 무인기의 장애물 탐지 방법.The method of claim 5
When the failure event is registered
Grasp the tilt angle of the drone,
Determine a first angle according to the identified angle,
The sub-camera obstacle detection method of claim 1, characterized in that for taking an image that is different from the input image of the stereo camera by the first angle.
상기 서브카메라로부터 획득한 영상과 스테레오 카메라의 영상 간의 중복되는 범위를 파악하고,
상기 중복되는 범위의 깊이 값을 측정한 뒤,
상기 중복되는 범위의 깊이 값을 확장하는 것을 특징으로 하는 무인기의 장애물 탐지 방법.The method of claim 6
To determine the overlapping range between the image obtained from the sub-camera and the image of the stereo camera,
After measuring the depth value of the overlapping range,
The obstacle detection method of the drone, characterized in that for extending the depth value of the overlapping range.
상기 생성된 깊이맵을 분석하는 경우
영상 내에 수평 라인이 존재하는지 여부를 판단하되,
영상 내에 수평 라인이 존재하는 것으로 판단된 경우,
영상 내의 수평 라인이 두 개 이상인 경우 상기 장애 이벤트로 등록되는 것을 특징으로 하는 무인기의 장애물 탐지 방법.The method of claim 1
When analyzing the generated depth map
Determine if there is a horizontal line in the image,
If it is determined that a horizontal line exists in the image,
If there are two or more horizontal lines in the image obstacle detection method of the drone, characterized in that registered as the failure event.
상기 장애 이벤트로 등록된 경우
상기 서브카메라의 구동축과 스테레오 카메라간의 베이스 라인이 서로 수직을 이루도록 상기 서브카메라가 배치되는 것을 특징으로 하는 무인기의 장애물 탐지 방법.The method of claim 8
When registered as the fault event
The obstacle detection method of the drone, characterized in that the sub-camera is disposed so that the base line between the driving axis of the sub-camera and the stereo camera perpendicular to each other.
상기 수직으로 배치된 서브 카메라와 스테레오 카메라간 수직 스테레오 매칭을 수행하여
상기 영상 내의 수평 라인이 실제 장애물인지를 최종 판별하는 것을 특징으로 하는 무인기의 장애물 탐지 방법.The method of claim 9
Vertical stereo matching is performed between the vertically disposed sub-camera and the stereo camera
And finally determining whether a horizontal line in the image is a real obstacle.
한 쌍의 스테레오 카메라들로부터 영상을 입력 받는 영상 획득부;
상기 입력 받은 영상으로부터 깊이맵을 생성하는 깊이맵 생성부; 및
상기 깊이맵을 분석하여 장애 이벤트 발생 여부를 판단하는 깊이맵 영상 분석부;
서브 카메라 제어부;
를 포함하되,
상기 한 쌍의 스테레오 카메라들 사이에 서브 카메라가 존재하고,
상기 서브 카메라 제어부는
상기 서브 카메라가 촬영하는 영상을 상기 장애 이벤트에 기초하여 변경하고,
상기 서브 카메라에서 촬영된 영상 및 상기 한 쌍의 스테레오 카메라들의 영상에 기초하여 장애물을 탐지하는
것을 특징으로 하는 무인기의 장애물 탐지 장치.In the obstacle detection device of the drone
An image acquisition unit which receives an image from a pair of stereo cameras;
A depth map generator for generating a depth map from the input image; And
A depth map image analyzer determining whether a failure event occurs by analyzing the depth map;
A sub camera controller;
Including but not limited to:
There is a sub camera between the pair of stereo cameras,
The sub camera controller
Change the image photographed by the sub camera based on the fault event;
Detecting an obstacle based on an image captured by the sub camera and an image of the pair of stereo cameras
Obstacle detection device of the drone.
상기 한 쌍의 스테레오 카메라들로부터 입력 받은 영상들을 비교한 경우,
상기 영상들간 매칭되는 점 또는 영역이 존재하는지 판단하되,
상기 영상들간 매칭되는 점 또는 영역이 존재하지 않는 경우 상기 장애 이벤트로 등록되는 것을 특징으로 하는 무인기의 장애물 탐지 장치.The method of claim 11
When comparing the images received from the pair of stereo cameras,
It is determined whether there is a matching point or area between the images,
The obstacle detection apparatus of the drone, characterized in that registered as the failure event when there is no matching point or region between the images.
상기 장애 이벤트가 등록된 경우
상기 서브 카메라 제어부는
상기 서브카메라의 구동축과 스테레오 카메라간의 베이스라인이 평행을 이루도록 상기 서브 카메라를 배치시키는 것을 것을 특징으로 하는 무인기의 장애물 탐지 장치.The method of claim 12
When the failure event is registered
The sub camera controller
The obstacle detection apparatus of the drone, characterized in that the sub-camera is arranged so that the baseline between the drive shaft of the sub-camera and the stereo camera is parallel.
상기 생성된 깊이맵을 분석하여,
영상 내의 제 1 영역이 임계치 이상인지 판단하되,
상기 제 1 영역이 영상 내에서 임계치 이상 존재하는 것으로 판단된 경우,
상기 장애 이벤트로 등록하는 것을 특징으로 하는 무인기의 장애물 탐지 장치.The method of claim 11
By analyzing the generated depth map,
It is determined whether the first region in the image is greater than or equal to the threshold,
If it is determined that the first region is greater than or equal to a threshold in the image,
Obstacle detection device of the drone, characterized in that registered as the failure event.
상기 장애 이벤트가 등록된 경우
무인기의 기울어진 각도를 파악하고,
상기 파악된 각도에 따라 제 1 각도를 결정하되,
상기 서브 카메라가 스테레오 카메라의 입력 영상보다 상기 제 1 각도만큼 차이 나는 영상을 촬영하는 것을 특징으로 하는 무인기의 장애물 탐지 장치.The method of claim 14,
When the failure event is registered
Grasp the tilt angle of the drone,
Determine a first angle according to the identified angle,
The obstacle detection apparatus of the unmanned aerial vehicle, characterized in that the sub-camera to take an image that is different from the input image of the stereo camera by the first angle.
상기 생성된 깊이맵을 분석하는 경우
영상 내에 수평 라인이 존재하는지 여부를 판단하되,
영상 내에 수평 라인이 존재하는 것으로 판단된 경우,
영상 내의 수평 라인이 두 개 이상인 경우 상기 장애 이벤트로 등록되는 것을 특징으로 하는 무인기의 장애물 탐지 장치.The method of claim 11
When analyzing the generated depth map
Determine if there is a horizontal line in the image,
If it is determined that a horizontal line exists in the image,
If there are two or more horizontal lines in the image obstacle detection apparatus of the drone, characterized in that registered as the failure event.
상기 장애 이벤트로 등록된 경우
상기 서브 카메라 제어부는
상기 서브카메라의 구동축과 스테레오 카메라간의 베이스 라인이 서로 수직을 이루도록 상기 서브카메라를 배치하는 것을 특징으로 하는 무인기의 장애물 탐지 장치.The method of claim 16
When registered as the fault event
The sub camera controller
The sub-camera obstacle detecting device of claim 1, wherein the sub-camera is arranged such that the base line between the driving shaft of the sub-camera and the stereo camera is perpendicular to each other.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180082494A KR102526857B1 (en) | 2018-07-16 | 2018-07-16 | A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera |
CN201910594108.0A CN110726397B (en) | 2018-07-16 | 2019-07-03 | Unmanned aerial vehicle obstacle detection device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180082494A KR102526857B1 (en) | 2018-07-16 | 2018-07-16 | A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200008409A true KR20200008409A (en) | 2020-01-28 |
KR102526857B1 KR102526857B1 (en) | 2023-04-28 |
Family
ID=69217099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180082494A KR102526857B1 (en) | 2018-07-16 | 2018-07-16 | A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102526857B1 (en) |
CN (1) | CN110726397B (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112484692B (en) * | 2020-11-05 | 2023-01-03 | 江西洪都航空工业集团有限责任公司 | Visual detection method and device for relative height of aircraft and cloud layer |
KR20240134859A (en) * | 2021-11-01 | 2024-09-10 | 브룩허스트 거라지 인코포레이티드 | Precise height estimation using sensor fusion |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001328600A (en) * | 2000-05-19 | 2001-11-27 | Fuji Heavy Ind Ltd | Landing point searching device, flying object using therewith and landing point evaluating device |
JP2003306200A (en) * | 2002-04-15 | 2003-10-28 | Natl Space Development Agency Of Japan | Image navigation for rendezvous docking and navigation device |
KR20140061089A (en) * | 2012-11-13 | 2014-05-21 | 재단법인대구경북과학기술원 | Method and device control stereoscopic camera |
KR20180075111A (en) * | 2016-12-26 | 2018-07-04 | 이선구 | Collision avoidance apparatus for vehicles |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650708B (en) * | 2017-01-19 | 2023-08-11 | 南京航空航天大学 | Automatic driving obstacle vision detection method and system |
-
2018
- 2018-07-16 KR KR1020180082494A patent/KR102526857B1/en active IP Right Grant
-
2019
- 2019-07-03 CN CN201910594108.0A patent/CN110726397B/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001328600A (en) * | 2000-05-19 | 2001-11-27 | Fuji Heavy Ind Ltd | Landing point searching device, flying object using therewith and landing point evaluating device |
JP2003306200A (en) * | 2002-04-15 | 2003-10-28 | Natl Space Development Agency Of Japan | Image navigation for rendezvous docking and navigation device |
KR20140061089A (en) * | 2012-11-13 | 2014-05-21 | 재단법인대구경북과학기술원 | Method and device control stereoscopic camera |
KR20180075111A (en) * | 2016-12-26 | 2018-07-04 | 이선구 | Collision avoidance apparatus for vehicles |
Also Published As
Publication number | Publication date |
---|---|
CN110726397A (en) | 2020-01-24 |
KR102526857B1 (en) | 2023-04-28 |
CN110726397B (en) | 2021-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10860039B2 (en) | Obstacle avoidance method and apparatus and unmanned aerial vehicle | |
KR101708659B1 (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
EP2824416B1 (en) | Distance calculation device and distance calculation method | |
US20180040133A1 (en) | Systems and methods for determining feature point motion | |
US20180114067A1 (en) | Apparatus and method for extracting objects in view point of moving vehicle | |
US20220156973A1 (en) | Information processing apparatus, information processing method, and program | |
WO2020015748A1 (en) | Systems and methods for lidar detection | |
KR102410268B1 (en) | Object tracking method and object tracking apparatus for performing the method | |
JP6506032B2 (en) | Survey data processing apparatus, survey data processing method and program | |
CN111213153A (en) | Target object motion state detection method, device and storage medium | |
KR102526857B1 (en) | A method and apparatus for detecting unmanned aerial vehicle using stereo camera and additional camera | |
KR20200056068A (en) | System for tracking an object in unmanned aerial vehicle based on mvs | |
JPWO2016113875A1 (en) | Information provision system for billing location evaluation | |
US11108966B2 (en) | Information processing apparatus and subject information acquisition method | |
JP7278846B2 (en) | OBJECT POSITION DETECTION DEVICE, TRIP CONTROL SYSTEM, AND TRIP CONTROL METHOD | |
JP4123138B2 (en) | Vehicle detection method and vehicle detection device | |
KR102592988B1 (en) | Method and device for detecting object in aerial images | |
US11276197B2 (en) | Information processing apparatus and subject information acquisition method | |
KR102135672B1 (en) | Autonomous driving devise and method | |
JP2001116527A (en) | Method and device for detecting solid body | |
US20130076868A1 (en) | Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same | |
KR102310958B1 (en) | Wide viewing angle stereo camera apparatus and depth image processing method using the same | |
KR20190103523A (en) | Autonomous driving devise and method | |
JP7437930B2 (en) | Mobile objects and imaging systems | |
KR101470939B1 (en) | A system and the method for detecting face using CCTV |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |