KR20180096236A - Apparatus and mathod for detecting obstacle of a vehicle - Google Patents

Apparatus and mathod for detecting obstacle of a vehicle Download PDF

Info

Publication number
KR20180096236A
KR20180096236A KR1020170022690A KR20170022690A KR20180096236A KR 20180096236 A KR20180096236 A KR 20180096236A KR 1020170022690 A KR1020170022690 A KR 1020170022690A KR 20170022690 A KR20170022690 A KR 20170022690A KR 20180096236 A KR20180096236 A KR 20180096236A
Authority
KR
South Korea
Prior art keywords
scan line
obstacle
line
image
map
Prior art date
Application number
KR1020170022690A
Other languages
Korean (ko)
Other versions
KR102295579B1 (en
Inventor
윤성원
설상훈
윤성욱
최태현
이재훈
임재영
Original Assignee
현대자동차주식회사
고려대학교 산학협력단
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 고려대학교 산학협력단, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020170022690A priority Critical patent/KR102295579B1/en
Publication of KR20180096236A publication Critical patent/KR20180096236A/en
Application granted granted Critical
Publication of KR102295579B1 publication Critical patent/KR102295579B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2550/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

The present invention relates to an apparatus and a method for detecting an obstacle of a vehicle to detect various obstacles in a driving image, wherein the apparatus comprises: an image acquisition unit acquiring an image; a characteristic map generating unit generating a characteristic map of the acquired image; a scan line setting unit setting at least one scan line corresponding to the generated characteristic map; a space time pattern map generating unit generating a space time pattern map corresponding to the set scan line; an obstacle detecting unit detecting an obstacle by analyzing the generated space time pattern map; and a control unit controlling driving of a vehicle in accordance with the detected obstacle.

Description

차량의 장애물 검출 장치 및 방법 {APPARATUS AND MATHOD FOR DETECTING OBSTACLE OF A VEHICLE}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an obstacle detecting apparatus,

본 발명은 차량에 관한 것으로, 보다 상세하게는 주행 영상에서 다양한 장애물들을 검출하는 차량의 장애물 검출 장치 및 방법에 관한 것이다.The present invention relates to a vehicle, and more particularly, to an apparatus and method for detecting obstacles in a vehicle that detect various obstacles in a running image.

일반적인 주행 영상에서의 장애물 검출 기술은, 장애물의 특징을 이용하는 것, 장애물의 모양을 인식하는 것과 장애물의 모션을 분석하는 방법으로 나뉜다. Obstacle detection techniques in general driving images are divided into using features of obstacles, recognizing shapes of obstacles and analyzing motion of obstacles.

장애물의 특징을 이용한 방식은, 차량의 대칭성, 그림자 혹은 SIFT를 사용하는 방식이 있다.The way of using the feature of the obstacle is a method of using the symmetry of vehicle, shadow or SIFT.

이러한 방식의 문제는, 장애물의 특징이 온전히 나타나지 않은 프레임에서, 성능이 크게 감소한다는 점이고, 장애물 검출에 효과적인 특징들이 온전히 나타날 확률이 크지 않다는 점이다.The problem with this approach is that the performance is significantly reduced in frames where the characteristics of the obstacle are not fully expressed, and there is not a high probability that the features effective for obstacle detection are fully present.

또한, 장애물의 모양을 인식하는 방식은, 분류기(classifier)를 사용하여 해당 분류기의 목표에 포함되는 장애물만을 검출하는 것이다.In addition, the method of recognizing the shape of the obstacle is to detect only obstacles included in the target of the classifier using a classifier.

이러한 방법의 문제는, 분류기의 연산이 복잡하여 실시간 연산이 어렵다는 점과, 분류기에 지정된 형태 이외의 장애물에 대해서는 인식을 할 수 없다는 점이다.The problem with this method is that it is difficult to perform real-time calculation due to the complexity of the operation of the classifier, and it is impossible to recognize obstacles other than those specified in the classifier.

또한, 모션을 분석하는 방식은, 주행 영상에서 모션 정보를 획득하기가 어려우며 이때 주로 옵티컬 플로우(optical flow)와 같은 대응 매칭(correspondence matching) 방법 등을 이용하는데, 옵티컬 플로우는, 장애물의 특징을 이용한 검출 정보를 필요로 하는 경우가 많아 첫 번째 언급한 문제점이 동시에 나타날 수 있으며, 모션이 큰 경우에는 오차가 커 검출 성능이 감소할 수 있다는 점이다.In addition, in the method of analyzing motion, it is difficult to acquire motion information from the running image, and a correspondence matching method such as optical flow is mainly used. In the optical flow, The first problem mentioned above may occur at the same time, and when the motion is large, the error may be large and the detection performance may be reduced.

따라서, 향후 주행 영상에서의 장애물을 간단한 방식으로 정확하고 빠르게 검출할 수 있는 장애물 검출 방식이 요구되고 있다.Therefore, there is a demand for an obstacle detection method capable of accurately and quickly detecting an obstacle in a running image in a simple manner in the future.

본 발명은 스켄라인에 상응하는 시공간 패턴 맵을 생성하여, 빠르게 이동하는 장애물을 검출할 수 있는 차량의 장애물 검출 장치 및 방법을 제공하는데 있다.An object of the present invention is to provide an apparatus and method for detecting an obstacle in a vehicle capable of detecting a rapidly moving obstacle by generating a space time pattern map corresponding to a scan line.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention, unless further departing from the spirit and scope of the invention as defined by the appended claims. It will be possible.

상기와 같은 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 차량의 장애물 검출 장치는, 영상을 획득하는 영상 획득부와, 획득한 영상의 특성 맵을 생성하는 특성 맵 생성부와, 생성된 특성 맵에 상응하는 적어도 하나의 스켄라인을 설정하는 스켄라인 설정부와, 설정된 스켄라인에 상응하는 시공간 패턴 맵을 생성하는 시공간 패턴 맵 생성부와, 생성된 시공간 패턴 맵을 분석하여 장애물을 검출하는 장애물 검출부와, 검출된 장애물에 따라, 차량의 운행을 제어하는 제어부를 포함할 수 있다.According to an aspect of the present invention, there is provided an apparatus for detecting an obstacle in a vehicle, including an image acquisition unit for acquiring an image, a characteristic map generator for generating a characteristic map of the acquired image, A space line pattern map generation unit for generating a space line pattern map corresponding to the set scan line, a space line pattern map generation unit for analyzing the generated space line pattern map to detect an obstacle, And a control unit for controlling the driving of the vehicle in accordance with the detected obstacle.

또한, 본 발명의 일 실시예에 따른 차량의 장애물 검출 방법은, 영상을 획득하는 단계와, 획득한 영상의 특성 맵을 생성하는 단계와, 생성된 특성 맵에 상응하는 적어도 하나의 스켄라인을 설정하는 단계와, 설정된 스켄라인에 상응하는 시공간 패턴 맵을 생성하는 단계와, 생성된 시공간 패턴 맵을 분석하여 장애물을 검출하는 단계와, 검출된 장애물에 따라, 차량의 운행을 제어하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for detecting an obstacle in a vehicle, the method comprising: acquiring an image; generating a characteristic map of the acquired image; setting at least one scan line corresponding to the generated characteristic map; Generating a space-time pattern map corresponding to the set scan line, analyzing the generated space-time pattern map to detect an obstacle, and controlling operation of the vehicle according to the detected obstacle .

상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 차량의 장애물 검출 장치 및 방법은, 전방 카메라로 얻은 연속 영상을 이용하여 장애물의 변화를 분석하고 특정 변화를 보이는 장애물을 검출하는 기술로서, 시공간 패턴 맵을 이용하여 자차보다 빠르게 움직이는 장애물을 검출할 수 있는 효과를 제공한다.An apparatus and method for detecting an obstacle in a vehicle according to at least one embodiment of the present invention configured as described above is a technology for analyzing a change of an obstacle using a continuous image obtained by a front camera and detecting an obstacle showing a specific change, An obstacle moving faster than the car can be detected by using the space-time pattern map.

또한, 본 발명은, 자차보다 빠르게 움직이는 장애물을 검출하기 때문에, 주행 원본 영상에서 분석하는 기존 방법들에 비해 계산속도가 빠른 효과를 제공한다.In addition, since the present invention detects an obstacle moving faster than a car, the present invention provides a faster calculation speed than existing methods of analyzing the moving image.

또한, 본 발명은, 주행 영상의 시간적 변화와 공간적 변화를 동시에 이용 가능하므로, 장애물을 검출하는 처리 시간이 빠른 효과를 제공한다.Further, since the temporal change and the spatial change of the traveling image can be used simultaneously, the present invention provides a fast processing time for detecting an obstacle.

또한, 본 발명은, 원 영상을 기반으로 하는 장애물을 검출하는 방식이 아니라, 시공간 패턴 맵을 기반으로 장애물을 검출하므로, 렌즈 왜곡 등과 같은 카메라 성능 및 영상 취득 환경에 영향을 받지 않는 효과를 제공한다.In addition, the present invention provides an effect that is not affected by camera performance such as lens distortion and the image acquisition environment because an obstacle is detected based on a space-time pattern map instead of a method of detecting an obstacle based on an original image .

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.

도 1은 본 발명에 따른 차량의 장애물 검출 장치를 설명하기 위한 블록 구성도이다.
도 2는 도 1의 스켄라인 설정부를 설명하기 위한 블록 구성도이다.
도 3은 도 1의 시공간 패턴 맵 생성부를 설명하기 위한 블록 구성도이다.
도 4 내지 도 7은 스켄라인을 설정하는 과정을 설명하기 위한 도면이다.
도 8은 특성 맵을 생성하는 과정을 설명하기 위한 도면이다.
도 9는 원 영상에 설정된 스켄라인을 보여주는 도면이다.
도 10은 시공간 패턴 맵을 생성하는 과정을 설명하기 위한 도면이다.
도 11은 누적된 시공간 패턴 맵과 그의 서브 유닛을 보여주는 도면이다.
도 12는 시공간 패턴 맵의 추세선 기울기를 보여주는 도면이다.
도 13은 추세선의 기울기에 따른 장애물 이동 속도를 보여주는 도면이다.
도 14는 미소 기울기 계산 과정을 설명하기 위한 도면이다.
도 15 내지 도 17은 장애물 검출 결과에 따른 시공간 패턴 맵을 보여주는 도면이다.
도 18은 본 발명에 따른 차량의 장애물 검출 방법을 설명하기 위한 흐름도이다.
1 is a block diagram illustrating an apparatus for detecting an obstacle in a vehicle according to the present invention.
FIG. 2 is a block diagram illustrating a scan line setting unit of FIG. 1. FIG.
FIG. 3 is a block diagram illustrating a space-time pattern map generator of FIG. 1. FIG.
FIGS. 4 to 7 are diagrams for explaining a process of setting a scan line.
8 is a diagram for explaining a process of generating a characteristic map.
9 is a view showing a scan line set in the original image.
FIG. 10 is a diagram for explaining a process of generating a space-time pattern map.
11 is a diagram showing an accumulated space-time pattern map and its subunits.
12 is a view showing a trend line slope of the space-time pattern map.
13 is a view showing the moving speed of the obstacle according to the slope of the trend line.
FIG. 14 is a diagram for explaining a micro-slope calculation process. FIG.
15 to 17 are views showing a space-time pattern map according to the obstacle detection result.
18 is a flowchart for explaining an obstacle detection method of a vehicle according to the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms " part, "" module," and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서 전체에 걸쳐서 동일한 참조번호로 표시된 부분들은 동일한 구성요소들을 의미한다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. In addition, parts denoted by the same reference numerals throughout the specification denote the same components.

이하, 도 1 내지 도 18을 참조하여 본 발명의 실시예들에 적용될 수 있는 차량의 장애물 검출 장치 및 방법에 대해 상세히 설명한다.Hereinafter, an apparatus and method for detecting an obstacle of a vehicle, which can be applied to embodiments of the present invention, will be described in detail with reference to Figs. 1 to 18. Fig.

도 1은 본 발명에 따른 차량의 장애물 검출 장치를 설명하기 위한 블록 구성도이고, 도 2는 도 1의 스켄라인 설정부를 설명하기 위한 블록 구성도이며, 도 3은 도 1의 시공간 패턴 맵 생성부를 설명하기 위한 블록 구성도이다.FIG. 1 is a block diagram illustrating an apparatus for detecting an obstacle in a vehicle according to the present invention. FIG. 2 is a block diagram illustrating a scan line setting unit of FIG. 1, and FIG. 3 is a block diagram of a space- Fig.

도 1 내지 도 3에 도시된 바와 같이, 본 발명에 따른 차량의 장애물 검출 장치(1000)는, 영상 획득부(100), 특성 맵 생성부(200), 스켄라인 설정부(300), 시공간 패턴 맵 생성부(400), 장애물 검출부(500) 및 제어부(600)를 포함할 수 있다.1 to 3, an apparatus 1000 for detecting an obstacle in a vehicle according to the present invention includes an image obtaining unit 100, a characteristic map generating unit 200, a scan line setting unit 300, A map generation unit 400, an obstacle detection unit 500, and a control unit 600.

여기서, 영상 획득부(100)는, 영상을 획득하는 카메라일 수 있다.Here, the image acquisition unit 100 may be a camera for acquiring an image.

일 예로, 카메라는 차량의 전방에 장착되어 차량의 전방 영상을 실시간으로 촬영할 수 있다.For example, the camera may be mounted in front of the vehicle to photograph the forward image of the vehicle in real time.

그리고, 특성 맵 생성부(200)는, 획득한 영상의 특성 맵을 생성할 수 있다.Then, the characteristic map generation unit 200 can generate a characteristic map of the acquired image.

여기서, 특성 맵 생성부(200)는, 획득한 영상의 에지를 토대로, 특성 맵을 생성할 수 있다.Here, the characteristic map generation unit 200 can generate the characteristic map based on the edge of the acquired image.

특성 맵을 생성하는 이유는, 획득한 원 영상을 토대로 시공간 패턴 맵을 생성할 경우, 데이터 연산량이 너무 많지만, 특성 맵을 토대로 시공간 패턴맵을 생성할 경우, 데이터 양이 크기 줄어 연산량을 최소화할 수 있으므로, 처리 시간을 감소시켜 빠르게 장애물을 검출할 수 있기 때문이다.The reason for generating the characteristic map is that when the space-time pattern map is generated based on the acquired original image, the data amount is too large. However, when the space-time pattern map is generated based on the characteristic map, Therefore, it is possible to rapidly detect the obstacle by reducing the processing time.

또한, 특성 맵 생성부(200)는, 획득한 영상의 에지를 토대로, 특성 맵을 생성하면, 특성 맵의 노이즈를 제거할 수 있다.In addition, the characteristic map generating unit 200 can remove the noise of the characteristic map by generating the characteristic map based on the edge of the acquired image.

그 이유는, 특성 맵의 노이즈를 제거하면, 필요한 성분들만이 더 선명하게 보여지기 때문이다.The reason is that removing the noise of the characteristic map makes only the required components appear sharper.

경우에 따라, 특성 맵 생성부(200)는, 생성한 특성 맵을 이진화한 후에 스무딩(smoothing)을 적용하는 후처리 과정을 더 수행할 수도 있다.In some cases, the characteristic map generator 200 may further perform post-processing to apply smoothing after binarizing the generated characteristic map.

다음, 스켄라인 설정부(300)는, 생성된 특성 맵에 상응하는 적어도 하나의 스켄라인을 설정할 수 있다.Next, the scan line setting unit 300 may set at least one scan line corresponding to the generated characteristic map.

여기서, 스켄라인 설정부(300)는, 도 2와 같이, 정면 방향 벡터 계산부(310), 제1 스켄라인 생성부(320), 제2 스켄라인 생성부(330), 그리고 스켄라인 보정부(340)를 더 포함할 수 있다.2, the scan line setting unit 300 includes a front direction vector calculating unit 310, a first scan line generating unit 320, a second scan line generating unit 330, (340).

이때, 정면 방향 벡터 계산부(310)는, 특성 맵으로부터 카메라의 정면 방향 벡터를 계산할 수 있다.At this time, the front direction vector calculation unit 310 can calculate the front direction vector of the camera from the characteristic map.

일 예로, 정면 방향 벡터 계산부(310)는, 카메라의 주점에 해당하는 지면 좌표와 카메라의 지면 좌표를 산출하고, 산출된 두 좌표들간의 차이를 토대로, 정면 방향 벡터를 산출할 수 있다.For example, the frontal direction vector calculation unit 310 may calculate the frontal direction vector based on the difference between the calculated two coordinates and the ground coordinates corresponding to the principal point of the camera and the ground coordinates of the camera.

그리고, 제1 스켄라인 생성부(320)는, 계산된 정면 방향 벡터를 토대로, 지면 좌표계 내의 제1 스켄라인을 생성할 수 있다.Then, the first scan line generation unit 320 can generate the first scan line in the ground coordinate system based on the calculated front direction vector.

여기서, 제1 스켄라인 생성부(320)는, 산출된 정면 방향 벡터와 직교하는 직선을 구하고, 구해진 직선을 기준으로 선택된 영역을 다수의 선분으로 분할하며, 분할된 선분의 중점을 기준점으로 정하고, 정해진 기준점을 지나면서 정면 방향 벡터와 평행한 제1 스켄라인을 생성할 수 있다.Here, the first scan line generator 320 calculates a straight line that is orthogonal to the calculated front direction vector, divides the selected area based on the calculated straight line into a plurality of line segments, sets the center point of the divided line segments as a reference point, It is possible to generate a first scan line parallel to the front direction vector after passing through a predetermined reference point.

일 예로, 구해진 직선을 기준으로 선택된 영역은, 장애물을 검출하기 위한 영역일 수 있다.In one example, the region selected based on the obtained straight line may be an area for detecting an obstacle.

그리고, 제1 스켄라인은, 정면 방향 벡터와 해당 기준점을 포함할 수 있다.The first scan line may include a front direction vector and a corresponding reference point.

일 예로, 지면 좌표계 내의 제1 스켄라인은, 다수 개이고, 다수의 제1 스켄라인들은, 서로 평행할 수 있다.In one example, the first scan lines in the ground coordinate system may be plural, and the plurality of first scan lines may be parallel to each other.

다음, 제2 스켄라인 생성부(330)는, 생성된 제1 스켄라인을 토대로, 영상 좌표계 내의 제2 스켄라인을 생성할 수 있다.Next, the second scan line generation unit 330 can generate the second scan line in the image coordinate system based on the generated first scan line.

일 예로, 제2 스켄라인 생성부(330)는, 생성된 제1 스켄라인을 토대로, 지평선을 구하고, 제1 스켄라인을 영상 좌표로 변환한 직선을 토대로, 소실점을 구한 다음, 변환한 직선 상의 기준점과 상기 소실점을 지나는 제2 스켄라인을 생성할 수 있다.For example, the second scan line generation unit 330 obtains the horizon line based on the generated first scan line, obtains the vanishing point based on the straight line obtained by converting the first scan line to the image coordinates, A reference point and a second scan line passing through the vanishing point can be generated.

여기서, 제2 스켄라인 생성부(330)는, 지평선을 구할 때, 영상 좌표계에서 제1 스켄라인들이 하나의 소실점에 모이면, 소실점을 지나는 직선을 지평선으로 설정할 수 있다.Here, the second scan line generation unit 330 may set a straight line passing through the vanishing point as a horizon line when the first scan lines are gathered at one vanishing point in the image coordinate system when finding the horizon line.

그리고, 제2 스켄라인 생성부(330)는, 소실점을 구할 때, 지면 좌표계 내의 제1 스켄라인을 영상 좌표계의 직선으로 변환하고, 변환된 직선과 지평선과의 교점을 소실점으로 설정할 수 있다.When the vanishing point is found, the second scan line generating unit 330 may convert the first scan line in the ground coordinate system into a straight line in the image coordinate system, and set the intersection of the converted straight line and the horizon line as a vanishing point.

이어, 스켄라인 보정부(340)는, 생성된 제2 스켄라인의 오차를 보정할 수 있다.Next, the scan line correction unit 340 can correct the error of the generated second scan line.

여기서, 스켄라인 보정부는, 지평선 근방에 위치하는 제2 스켄라인 일부를 제거하여 제2 스켄라인의 오차를 보정할 수 있다.Here, the scan line correction unit may correct an error of the second scan line by removing a part of the second scan line located in the vicinity of the horizon line.

한편, 시공간 패턴 맵 생성부(400)는, 설정된 스켄라인에 상응하는 시공간 패턴 맵을 생성할 수 있다.Meanwhile, the space-time pattern map generator 400 may generate a space-time pattern map corresponding to the set scan line.

여기서, 시공간 패턴 맵 생성부(400)는, 도 3과 같이, 제1 생성부(410), 저장부(420), 그리고 제2 생성부(430)를 포함할 수 있다.3, the space-time pattern map generator 400 may include a first generator 410, a storage 420, and a second generator 430.

이때, 제1 생성부(410)는, 각 스켄라인에 해당하는 행 이미지를 한 프레임마다 생성할 수 있다.At this time, the first generating unit 410 may generate a row image corresponding to each scan line for each frame.

그리고, 저장부(420)는, 생성된 각 스켄라인의 행 이미지를 한 프레임 이상 누적하여 저장할 수 있다.The storage unit 420 may accumulate and accumulate one or more frames of the row image of each generated scan line.

이어, 제2 생성부(430)는, 저장부(420)에 저장된 행 이미지들을 토대로, 각 스켄라인의 행 이미지가 누적된 시공간 패턴 맵을 생성할 수 있다.The second generating unit 430 may generate a space-time pattern map in which the row images of the respective scan lines are accumulated, based on the row images stored in the storage unit 420. [

일 예로, 시공간 패턴 맵은, 다수의 서브 유닛들을 포함하고, 다수의 서브 유닛은, 적어도 3프레임 이상이 누적된 행 이미지를 포함할 수 있다.In one example, the space-time pattern map includes a plurality of sub-units, and the plurality of sub-units may include an accumulated row image of at least three frames or more.

다음, 장애물 검출부(500)는, 생성된 시공간 패턴 맵을 분석하여 장애물을 검출할 수 있다.Next, the obstacle detecting unit 500 can detect an obstacle by analyzing the generated space time pattern map.

여기서, 장애물 검출부(500)는, 생성된 시공간 패턴 맵을 분석하여 시공간 패턴 맵에 포함되는 추세선의 기울기를 구하고, 기울기를 토대로, 장애물을 검출할 수 있다.Here, the obstacle detector 500 may analyze the generated space-time pattern map to obtain the slope of the trend line included in the space-time pattern map, and may detect the obstacle based on the slope.

또한, 장애물 검출부(500)는, 기울기가 양수이면, 자차보다 빠른 장애물로 인식하고, 기울기가 음수이면, 자차보다 느린 장애물로 인식할 수 있다.If the slope is positive, the obstacle detecting unit 500 recognizes the obstacle as a faster obstacle than the car, and if the inclination is negative, the obstacle detecting unit 500 can recognize the obstacle as a slower obstacle than the car.

그리고, 장애물 검출부(500)는, 시공간 패턴 맵에 포함되는 추세선이 다수 개일 때, 가장 밝은 추세선을 대표 추세선으로 선택하고, 선택된 대표 추세선의 기울기를 구할 수 있다.When there are a plurality of trend lines included in the space time pattern map, the obstacle detecting unit 500 can select the brightest trend line as the representative trend line and obtain the slope of the selected representative trend line.

경우에 따라, 장애물 검출부(500)는, 대표 추세선이 다수 개일 때, 가장 일정한 룰을 토대로 하나의 대표 추세선을 선택하고, 선택된 대표 추세선의 기울기를 구할 수도 있다.In some cases, when there are a plurality of representative trend lines, the obstacle detection unit 500 may select one representative trend line based on the most constant rule and obtain the slope of the selected representative trend line.

다음, 제어부(600)는, 검출된 장애물에 따라, 차량의 운행을 제어할 수 있다.Next, the control unit 600 can control the vehicle operation according to the detected obstacle.

이와 같이, 본 발명은, 전방 카메라로 얻은 연속 영상을 이용하여 장애물의 변화를 분석하고 특정 변화를 보이는 장애물을 검출하는 기술로서, 시공간 패턴 맵을 이용하여 자차보다 빠르게 움직이는 장애물을 검출할 수 있다.As described above, the present invention can detect an obstacle moving faster than a car by using a space-time pattern map, by analyzing a change of an obstacle by using a continuous image obtained by a front camera and detecting an obstacle showing a specific change.

또한, 본 발명은, 자차보다 빠르게 움직이는 장애물을 검출하기 때문에, 주행 원본 영상에서 분석하는 기존 방법들에 비해 계산속도가 빠를 수 있다.In addition, since the present invention detects an obstacle moving faster than a car, the calculation speed can be faster than existing methods of analyzing the moving original image.

또한, 본 발명은, 주행 영상의 시간적 변화와 공간적 변화를 동시에 이용 가능하므로, 장애물을 검출하는 처리 시간이 빠를 수 있다.Further, since the present invention can simultaneously use the temporal change and the spatial change of the traveling image, the processing time for detecting the obstacle can be fast.

또한, 본 발명은, 원 영상을 기반으로 하는 장애물을 검출하는 방식이 아니라, 시공간 패턴 맵을 기반으로 장애물을 검출하므로, 렌즈 왜곡 등과 같은 카메라 성능 및 영상 취득 환경에 영향을 받지 않을 수 있다.In addition, the present invention detects an obstacle based on a space-time pattern map instead of detecting an obstacle based on an original image, so that it may not be affected by camera performance such as lens distortion and an image acquisition environment.

도 4 내지 도 7은 스켄라인을 설정하는 과정을 설명하기 위한 도면이다.FIGS. 4 to 7 are diagrams for explaining a process of setting a scan line.

도 4 내지 도 7에 도시된 바와 같이, 본 발명은, 운동 방향을 검출하기 위한 시공간 패턴 맵(STP Map)을 생성하기 위해서, 차량 정면 방향에 대한 정보가 필요하다.As shown in Figs. 4 to 7, in order to generate a space time pattern map (STP Map) for detecting the direction of movement, information on the vehicle front direction is required.

본 발명은, 차량의 카메라가 차량 정면을 향해 배치되므로, 카메라의 정면 방향이 차량의 정면 방향과 일치한다고 가정한다.The present invention assumes that the frontal direction of the camera coincides with the frontal direction of the vehicle since the camera of the vehicle is disposed toward the front of the vehicle.

따라서, 본 발명은, 도 7과 같이, 카메라 주점에 해당하는 지면 좌표와 카메라의 지면 좌표를 사영 변환(projective transformation)을 이용하여 계산하고 그 차이를 통해 카메라 정면 방향 벡터(510)를 구할 수 있다.7, the ground coordinates corresponding to the camera principal point and the ground coordinates of the camera are calculated using a projective transformation, and the camera front direction vector 510 can be obtained through the difference .

즉, 본 발명의 정면 방향 벡터 계산부는, 카메라의 주점에 해당하는 지면 좌표와 카메라의 지면 좌표를 산출하고, 산출된 두 좌표들간의 차이를 토대로, 정면 방향 벡터(510)를 산출할 수 있다.That is, the frontal direction vector calculation unit of the present invention may calculate the frontal direction vector 510 based on the difference between the calculated two coordinates and the ground coordinate corresponding to the principal point of the camera and the ground coordinate of the camera.

다음, 본 발명은, 도 7과 같이, 카메라 정면 방향 벡터(510)와 직교하는 직선(520)을 구한 다음, 해당 직선(520) 위에서 컷인(cut-in) 장애물을 검출하고자 하는 영역(550)을 선택하고, 선택된 영역(550)을 균일하게 분할한다.7, a straight line 520 orthogonal to the camera front direction vector 510 is obtained, and an area 550 where a cut-in obstacle is detected on the straight line 520, And the selected region 550 is uniformly divided.

그리고, 본 발명은, 도 7과 같이, 분할된 선분(530)의 중점을 기준점(540)으로 하여, 기준점(540)을 지나고 카메라 정면 방향 벡터(510)와 평행한 직선을 지면 좌표계 내의 가상 스켄라인(virtual scanline)(530)으로 선택한다.7, assuming that the midpoint of the segmented line segment 530 is a reference point 540, a straight line passing through the reference point 540 and parallel to the camera front direction vector 510 is referred to as a virtual scan (530). ≪ / RTI >

따라서, 도 7과 같이, 가상 스켄라인(virtual scanline)(530)은, 정면 방향 벡터(510)와 해당 기준점(540)으로 표현되고 저장된다.Accordingly, as shown in FIG. 7, a virtual scan line 530 is represented and stored as a front direction vector 510 and a corresponding reference point 540.

그리고, 도 4와 같이, 지면 좌표계의 가상 스켄라인들은, 모두 평행하므로 영상 좌표계에서 하나의 소실점(P1)에 모이고, 이러한 소실점(P1)은, 지평선(C) 위에 존재한다.As shown in Fig. 4, the virtual scan lines in the ground coordinate system are all parallel and converge at one vanishing point P1 in the image coordinate system, and this vanishing point P1 is on the horizon C.

이어, 본 발명은, 사영 변환(Projective transformation)에서 지평선(C)을 구한 후, 지면 좌표계 내의 가상 스켄라인(A) 중 하나를 영상 좌표로 변환하여 나온 직선(A)과 지평선(C)과의 교점을 통해 소실점(P1)을 구한다.In the present invention, the horizontal line C is obtained in the projective transformation, and then the straight line A and the horizon line C, which are obtained by converting one of the virtual scan lines A in the ground coordinate system into image coordinates, Find the vanishing point (P1) through the intersection.

그리고, 영상 왜곡이 제거된 경우, 가상 스켄라인(A)은, 영상 좌표계에서 직선으로 변환되므로, 기준점(P2)에 해당하는 영상 위의 점과 소실점(P1)을 이어서 각 스켄라인(B)들을 생성한다.When the image distortion is removed, the virtual scan line A is converted into a straight line in the image coordinate system. Thus, the point on the image corresponding to the reference point P2 and the vanishing point P1 are successively connected to the scan lines B .

이때, 스켄라인은, 도 4와 같이, 소실점(P1)에서 시작하여 기준점(P2)을 지나므로 지평선(C) 아래에서 형성된다.At this time, the scan line is formed below the horizon line C, starting from the vanishing point P1 and passing the reference point P2, as shown in Fig.

그리고, 본 발명은, 스켄라인(B)의 지평선(C) 근방에서, 검출 대상의 움직임이 작아 오차가 크게 발생하므로, 지평선(C) 근방의 일정 길이를 제거하는 과정을 거친다.In the present invention, a certain length in the vicinity of the horizon line C is removed because the movement of the detection target is small in the vicinity of the horizon line C of the scan line B and an error is large.

즉, 본 발명의 제1 스켄라인 생성부는, 도 7과 같이, 산출된 정면 방향 벡터(510)와 직교하는 직선(520)을 구하고, 구해진 직선(520)을 기준으로 선택된 영역(550)을 다수의 선분으로 분할하며, 분할된 선분의 중점을 기준점(540)으로 정하고, 정해진 기준점(540)을 지나면서 정면 방향 벡터(510)와 평행한 가상 스켄라인(540)을 생성할 수 있다.7, the first scan line generation unit of the present invention obtains a straight line 520 orthogonal to the calculated front direction vector 510, and selects a plurality of selected regions 550 on the basis of the obtained straight line 520 A center point of the divided line segments is defined as a reference point 540 and a virtual scan line 540 parallel to the front direction vector 510 may be generated passing through a predetermined reference point 540. [

여기서, 구해진 직선을 기준으로 선택된 영역(550)은, 장애물을 검출하기 위한 영역일 수 있다.Here, the selected region 550 based on the obtained straight line may be an area for detecting an obstacle.

그리고, 본 발명의 가상 스켄라인(530)은, 정면 방향 벡터(510)와 해당 기준점(540)을 포함할 수 있다.The virtual scan line 530 of the present invention may include a front direction vector 510 and a corresponding reference point 540.

또한, 도 7과 같이, 지면 좌표계 내의 가상 스켄라인은, 다수 개이고, 다수의 가상 스켄라인들은, 서로 평행할 수 있다.Further, as shown in Fig. 7, there are a plurality of virtual scan lines in the ground coordinate system, and a plurality of virtual scan lines may be parallel to each other.

다음, 본 발명의 제2 스켄라인 생성부는, 도 4와 같이, 생성된 가상 스켄라인(A)을 토대로, 지평선(C)을 구하고, 가상 스켄라인(A)을 영상 좌표로 변환한 직선을 토대로, 소실점(P1)을 구한 다음, 변환한 직선 상의 기준점(P2)과 소실점(P1)을 지나는 스켄라인(B)을 생성할 수 있다.Next, the second scan line generation unit of the present invention generates a second scan line based on a straight line obtained by obtaining the horizon line C based on the generated virtual scan line A and converting the virtual scan line A into image coordinates, , The vanishing point P1 can be obtained and the scan line B passing through the converted reference point P2 and the vanishing point P1 can be generated.

여기서, 본 발명의 제2 스켄라인 생성부는, 지평선(C)을 구할 때, 영상 좌표계에서 가상 스켄라인(A)들이 하나의 소실점(P1)에 모이면, 소실점(P1)을 지나는 직선을 지평선(C)으로 설정할 수 있다.Here, the second scan line generation unit of the present invention generates a second scan line when the virtual scan lines A converge at one vanishing point P1 in the image coordinate system when finding the horizon line C, C).

또한, 본 발명의 제2 스켄라인 생성부는, 소실점(P1)을 구할 때, 지면 좌표계 내의 가상 스켄라인(A)을 영상 좌표계의 직선으로 변환하고, 변환된 직선과 지평선(C)과의 교점을 소실점(P1)으로 설정할 수 있다.The second scan line generation unit of the present invention converts the virtual scan line A in the ground coordinate system into a straight line in the image coordinate system and obtains the intersection of the converted straight line and the horizon line C It can be set to the vanishing point P1.

이어, 본 발명의 스켄라인 보정부는, 지평선(C) 근방에 위치하는 스켄라인(B) 일부를 제거하여 스켄라인(B)의 오차를 보정할 수 있다.Next, the scan line correction unit of the present invention can correct an error of the scan line B by removing a part of the scan line B located near the horizon line (C).

또한, 본 발명은, 도 5와 같이, 전방 주행 영상에서, 컷인(cut-in) 장애물을 검출하기 위해서 운동 방향을 검출하는 방법이 필요하다.Further, in the present invention, as shown in Fig. 5, there is a need for a method of detecting a motion direction in order to detect a cut-in obstacle in a forward running image.

컷인(Cut-in) 장애물의 경우, 차량의 후방 혹은 측방에서 차량 정면으로 진입해야 하므로 반드시 추월하는 과정을 포함하고, 이는 컷인 장애물이 차량 정면 방향 속도 성분이 양수여야 함을 의미한다.In the case of a cut-in obstacle, the vehicle must pass from the rear or side of the vehicle to the front of the vehicle, and thus includes a process of overtaking. This means that the cut-in obstacle must be positive in the vehicle frontal direction.

또한, 물체의 차량 정면 방향 속도 성분의 부호를 검출하기 위해서, 차량 정면 방향으로 가상 스켄라인을 형성하면, 차량 정면 방향 속도 성분이 양수인 운동이, 가상 스켄라인 상에서는 1차원적으로 앞으로 진행하는 모습으로 나타난다.(b)In addition, when a virtual scan line is formed in the vehicle front direction to detect the sign of the vehicle front-surface direction speed component of the object, the motion in which the vehicle front surface direction speed component is positive moves one-dimensionally forward on the virtual scan line (B)

반대로, 지면에 정지해 있는 물체의 경우, 가상 스켄라인 상에서 뒤로 밀려나는 모습을 보인다.(a)Conversely, for objects that are stationary on the ground, they are shown to be pushed back on the virtual scan line (a)

또한, 차량이 회전하는 경우에도, 하기 수학식 1이 성립하는 가상 스켄라인에서 이러한 현상이 보존된다.Further, even when the vehicle is rotating, this phenomenon is preserved in the virtual scan line in which the following equation (1) holds.

수학식 1Equation 1

d < V/wd <V / w

이 때, d는 가상 스켄라인과 차량의 카메라와의 거리를 의미하고, V는 차량의 속력, w는 차량의 각속도를 의미한다.In this case, d represents the distance between the virtual scan line and the camera of the vehicle, V represents the speed of the vehicle, and w represents the angular speed of the vehicle.

저속 유턴하는 경우에도, 수학식 1의 우변의 값은, 약 10m 정도이므로 충분한 거리의 가상 스켄라인을 모두 포함한다.Even in the case of a low-speed U-turn, the value of the right side of the equation (1) is about 10 m, and therefore includes all the virtual scan lines of a sufficient distance.

지면 좌표계 위에 존재하는 가상 스켄라인을 영상 내의 적응 스켄라인(adaptive scanline)으로 변환하기 위해, 사영 변환(projective transformation)을 사용해야 한다.In order to convert the virtual scan lines existing on the ground coordinate system into an adaptive scanline in the image, a projective transformation must be used.

여기서, 어쿨젼(Occlusion)이 존재하므로, 변환된 적응 스켄라인(adaptive scanline)에서는, 가상 스켄라인 위의 점을 동일하게 관찰할 수 없지만, 도 6과 같이, 적응 스켄라인에서 관찰된 점(d)과 가상 스켄라인 위의 점(c)이 동일한 물체 위의 점이라면, 운동 방향이 동일하므로 운동 방향에 대한 정보를 동일하게 얻을 수 있다.Here, since the occlusion exists, in the converted adaptive scan line, the points on the virtual scan line can not be observed equally, but as shown in Fig. 6, the point (d ) And the point c on the virtual scan line are points on the same object, information on the motion direction can be obtained equally because the motion directions are the same.

따라서, 본 발명은, 적응 스켄라인에서, 앞으로 진행하는 물체를 검출하여 추월하는 장애물을 검출한다.Therefore, the present invention detects obstacles that pass by detecting an object moving forward in the adaptive scan line.

그 후, 본 발명은, 특정 영역의 스켄라인에서, 장애물이 검출이 되면, 컷인 장애물로 판단하고, 그렇지 않으면 단순 추월하는 장애물로 판단한다.Then, in the present invention, when an obstacle is detected in a scan line of a specific area, it is determined that the obstacle is a cut-in obstacle, and otherwise, the obstacle is judged to be an obstacle that simply passes.

도 8은 특성 맵을 생성하는 과정을 설명하기 위한 도면이고, 도 9는 원 영상에 설정된 스켄라인을 보여주는 도면이며, 도 10은 시공간 패턴 맵을 생성하는 과정을 설명하기 위한 도면이다.FIG. 8 is a view for explaining a process of generating a characteristic map, FIG. 9 is a view showing a scan line set in an original image, and FIG. 10 is a diagram for explaining a process of generating a space time pattern map.

도 8 및 도 9에 도시된 바와 같이, 본 발명은, Sobel, SUSAN 등의 에지 검출기(Edge detector)를 통하여, 시공간 패턴 맵(STP Map)에 구성할 데이터를 단순화 한다.As shown in FIGS. 8 and 9, the present invention simplifies data to be constructed in a space-time pattern map (STP Map) through an edge detector such as Sobel and SUSAN.

도 8과 같이, 본 발명은, 원 영상의 화소값 대신 에지를 기반으로 특징 맵(Feature Map, Edge Map)을 생성하고, 생성된 특징 맵을 후처리할 수 있다.As shown in FIG. 8, the present invention can generate a feature map (Edge Map) based on an edge instead of a pixel value of an original image, and post-process the generated feature map.

여기서, 후처리의 이유는, 특징 맵의 데이터 노이즈를 제거하고, 필요한 성분들이 잘 드러나게 해주기 때문이다.Here, the reason for the post-processing is to remove the data noise of the feature map and make the necessary components well-exposed.

또한, 본 발명은, 후처리된 특징 맵을 이진화 후 스무딩(smoothing)을 적용할 수도 있다.Further, the present invention may apply smoothing after binarization of the post-processed feature map.

즉, 본 발명의 특성 맵 생성부는, 획득한 영상의 에지를 토대로, 특성 맵을 생성할 수 있다.That is, the characteristic map generator of the present invention can generate the characteristic map based on the edge of the acquired image.

또한, 본 발명의 특성 맵 생성부는, 획득한 영상의 에지를 토대로, 특성 맵을 생성하면, 특성 맵의 노이즈를 제거할 수도 있다.In addition, the characteristic map generator of the present invention may remove the noise of the characteristic map when generating the characteristic map based on the edge of the acquired image.

한편, 도 9와 같이, 원 영상에는, 다수의 스켄라인들이 설정될 수 있는데, 원 영상의 각 위치별 스켄라인의 길이가 다양할 수 있다.On the other hand, as shown in FIG. 9, a plurality of scan lines may be set in the original image, and the length of the scan lines for each position of the original image may vary.

따라서, 본 발명은, 도 10과 같이, 일정한 크기의 시공간 패턴 맵을 생성하기 위해서, 보간(interpolation)을 수행하여 길이가 일정한 스켄라인(1)의 행 이미지(row image)를 구성하고, 다음 프레임에서 같은 위치의 스켄라인(1)을 마찬가지로 길이가 일정한 행 이미지로 구성하여 이전 행 이미지(row image) 위에 쌓아가는 작업을 반복한다.10, in order to generate a space time pattern map having a predetermined size, interpolation is performed to form a row image of the scan line 1 having a constant length, The scan line 1 at the same position is similarly formed into a row image having a constant length, and the operation of stacking on the previous row image is repeated.

이렇게 구성된 스켄라인이 적층된 영상을 시공간 패턴 맵이라 한다.An image in which the scan lines thus constructed are stacked is called a space-time pattern map.

마찬가지로, 선택된 다른 스켄라인(2, 3, 4)에 대하여도 같은 작업을 반복한다.Similarly, the same operation is repeated for the other scan lines (2, 3, 4) selected.

본 발명에서는, 일 예로, 선택된 스켄라인(1, 2, 3, 4)이 4개이므로, 약 4개의 시공간 패턴 맵이 존재할 수 있다.In the present invention, for example, there are four selected scan lines (1, 2, 3, 4), so that there can exist about four space time pattern maps.

즉, 본 발명의 시공간 패턴 맵 생성부는, 각 스켄라인에 해당하는 행 이미지를 한 프레임마다 생성하고, 생성된 각 스켄라인의 행 이미지를 한 프레임 이상 누적하여 저장하며, 저장된 행 이미지들을 토대로, 각 스켄라인의 행 이미지가 누적된 시공간 패턴 맵을 생성할 수 있다.That is, the space-time pattern map generator of the present invention generates a row image corresponding to each scan line for each frame, accumulates and accumulates one or more of the generated row images of the scan lines, A space-time pattern map in which a row image of a scan line is accumulated can be generated.

여기서, 시공간 패턴 맵은, 다수의 서브 유닛들을 포함하고, 다수의 서브 유닛은, 적어도 3프레임 이상이 누적된 행 이미지를 포함할 수 있지만, 이에 한정되지는 않는다.Here, the space time pattern map includes a plurality of subunits, and the plurality of subunits may include, but not limited to, an accumulated row image of at least three frames.

도 11은 누적된 시공간 패턴 맵과 그의 서브 유닛을 보여주는 도면이고, 도 12는 시공간 패턴 맵의 추세선 기울기를 보여주는 도면이며, 도 13은 추세선의 기울기에 따른 장애물 이동 속도를 보여주는 도면이고, 도 14는 미소 기울기 계산 과정을 설명하기 위한 도면이다.FIG. 11 is a view showing the accumulated space time pattern map and its subunits, FIG. 12 is a diagram showing the trend line slope of the space time pattern map, FIG. 13 is a diagram showing the moving speed of the obstacle according to the slope of the trend line, FIG. 8 is a view for explaining a process of calculating a micro-slope. FIG.

도 11에 도시된 바와 같이, 행 이미지의 누적 크기가 3보다 클 때, 즉 최소 3프레임 이상의 스켄라인이 누적된 시공간 패턴 맵이 생성되면, 최근의 행 이미지 3개만으로 구성된 시공간 패? 맵을 장애물 검출의 최소 단위로 하는 시공간 패턴 맵(610)의 하위 서브 유닛(Sub Unit)(620)을 생성한다.11, when the cumulative size of the row image is larger than 3, that is, when the space-time pattern map in which the scan lines of at least three frames are accumulated is generated, the space- And generates a lower subunit 620 of the space-time pattern map 610 in which the map is the minimum unit of obstacle detection.

이는 시공간 패턴이 누적되어 기억 용량이 필요 이상 비대하게 되는 것을 막으며, 현재 스켄라인을 포함한 이전 2프레임의 시간만을 사용하여 실시간으로 장애물을 인식하기 위한 것이다.This prevents the accumulation of space-time patterns from becoming larger than necessary due to accumulation of space-time patterns, and recognizes obstacles in real time using only the time of the previous two frames including the current scan line.

그리고, 도 12와 같이, 시공간 패턴 맵(610)의 서브 유닛(620)이 구성되면, 이 안에서 가장 밝게 잘 나타나는 추세선(630)의 기울기를 구한다.12, when the subunit 620 of the spatiotemporal pattern map 610 is constructed, the slope of the trend line 630, which appears most brightly, is obtained.

일반적인 데이터 피팅(fitting) 방법을 사용해도 되지만, 본 발명과 같이, 짧은 시간 간격의 시공간 패턴을 분석하기 위해서는, Recursive & Feedback 방법으로 구현하는 것이 타당하며, 추세선(630)이 다수 있을 때는, 가장 일정한 룰을 바탕으로 대표적인 추세선(630)과 그 기울기 하나를 선정한다.A common data fitting method may be used. However, in order to analyze a space-time pattern in a short time interval as in the present invention, it is proper to implement the method by a Recursive & Feedback method. When there are many trend lines 630, Based on the rule, a representative trendline (630) and one slope are selected.

도 12와 같이, 화면 상에서 배경은 뒤로 밀리고, 컷인 장애물이 상대적으로 앞으로 진행하는 현상이 스켄라인 상에 기울기로써 나타나게 된다.As shown in Fig. 12, the background is pushed backward on the screen, and the phenomenon that the obstacle, which is a cut, moves relatively forward appears as a slope on the scan line.

도 13과 같이, 추세선(Estimated line)(630)의 기울기가 양수(730)이면 자차보다 빠른 장애물로 판단하고, 음수(710)이면 느린 장애물로 판단하며, 그 사이 기울기가 없는 구간(710)은, 자차와 유사 빠르기로 판단할 수 있다.As shown in FIG. 13, if the slope of the estimated line 630 is a positive number 730, it is determined that the obstacle is faster than the car. If the slope of the estimated line 630 is a negative number 710, it is determined that the obstacle is a slow obstacle. , It can be judged that the car is similar to the speed.

본 발명의 특징 중 하나는, 짧은 시간의 시공간 패턴 데이터를 바탕으로 하기 때문에 기울기의 정확한 계산은 포함되지 않는다.One of the features of the present invention is that the accurate calculation of the slope is not included because it is based on the time-space pattern data of short time.

이는 본 발명이 기울기의 정확한 값에 의미가 있는 것이 아니라, 기울기의 부호만을 이용하여 장애물의 검출에 사용하기 때문이다.This is because the present invention uses not only the exact value of the slope but also the slope sign to detect the obstacle.

따라서 오히려 중요한 부분은, 시공간 패턴 상에서 기울기를 구할 타당한 선분을 찾는 것이라 할 수 있다.Therefore, a rather important part is to find a valid line segment to obtain the slope in the spatiotemporal pattern.

도 14와 같이, Recursive & Feedback 구조의 미소 기울기 계산 방법이란, 이동 장애물로 오검출된 경우, 전후 처리 관계를 이용하면 해당 오검출 점은 이동 장애물 위의 점과 다르게 운동할 것(실제 장애물이 아니므로)이므로 재검출되지 않을 가능성이 커지며, 그럼에도 불구하고 이동 장애물로 검출된 점은 신뢰도를 가지게 되어 다음 보간에서 이동 장애물일 확률이 높다는 점을 이용한 것이다.As shown in Fig. 14, the method of calculating the micro-slope of the Recursive & Feedback structure means that when a moving obstacle is erroneously detected, the erroneous detection point is moved differently from the point on the moving obstacle The probability of not being detected again is increased. Nevertheless, the point detected as a moving obstacle has reliability, and the probability of moving obstacle is high in the next interpolation.

도 15 내지 도 17은 장애물 검출 결과에 따른 시공간 패턴 맵을 보여주는 도면이다.15 to 17 are views showing a space-time pattern map according to the obstacle detection result.

도 15 내지 도 17에 도시된 바와 같이, 본 발명은, 전방 카메라로 얻은 연속 영상을 이용하여 장애물의 변화를 분석하고 특정 변화를 보이는 장애물을 검출하는 기술로서, 시공간 패턴 맵을 이용하여 자차보다 빠르게 움직이는 장애물을 검출할 수 있다.As shown in FIGS. 15 to 17, the present invention is a technology for analyzing a change of an obstacle by using a continuous image obtained by a front camera and detecting an obstacle showing a specific change, Moving obstacles can be detected.

또한, 본 발명은, 자차보다 빠르게 움직이는 장애물을 검출하기 때문에, 주행 원본 영상에서 분석하는 기존 방법들에 비해 계산속도가 빠르다.In addition, since the present invention detects an obstacle moving faster than a car, the calculation speed is faster than the conventional methods of analyzing the moving original image.

또한, 본 발명은, 주행 영상의 시간적 변화와 공간적 변화를 동시에 이용 가능하므로, 장애물을 검출하는 처리 시간이 빠르다.Further, since the present invention can simultaneously use the temporal change and the spatial change of the traveling image, the processing time for detecting the obstacle is fast.

또한, 본 발명은, 원 영상을 기반으로 하는 장애물을 검출하는 방식이 아니라, 시공간 패턴 맵을 기반으로 장애물을 검출하므로, 렌즈 왜곡 등과 같은 카메라 성능 및 영상 취득 환경에 영향을 받지 않는다.In addition, the present invention does not depend on the camera performance such as lens distortion and the image acquisition environment because the obstacle is detected based on the space-time pattern map instead of the obstacle detection based on the original image.

그리고, 본 발명은, 주행 영상에서 차량의 주행 정보를 바탕으로 적응적으로 카메라 정면 방향으로 스켄라인이 설정되도록 하는 방법을 제안하고, 실시간 처리를 위하여 1프레임 이내의 매우 짧은 시간에 해당하는 시공간 패턴을 생성하며, 실시간 처리의 단점을 보완하기 위하여 이전 결과를 활용한 feedback 방식으로 현재 생성된 시공간 패턴을 분석하여 장애물을 검출하는 방법을 제안한다.According to another aspect of the present invention, there is provided a method of adaptively setting a scan line in the direction of the front of a camera on the basis of driving information of a vehicle in a running image, In order to compensate for the disadvantages of real - time processing, we propose a method of detecting obstacles by analyzing the generated space - time pattern using the previous feedback method.

본 발명은, 시공간 패턴 상에서 무늬의 기울기를 계산하여 움직이는 장애물을 검출하기 때문에 원영상의 모든 위치에서 영상 정보를 분석하는 기존 방법들에 비해 계산속도가 빠르며 렌즈 왜곡 등 카메라에 비의존적으로 성능이 안정적이며, 광각/협각 관계없이 응용할 수 있는 장점이 있다.The present invention detects a moving obstacle by calculating a slope of a pattern on a space-time pattern, so that the calculation speed is faster than conventional methods of analyzing image information at all positions of an original image, and the performance is stable independent of a camera such as lens distortion And can be applied regardless of wide angle / narrow angle.

도 18은 본 발명에 따른 차량의 장애물 검출 방법을 설명하기 위한 흐름도이다.18 is a flowchart for explaining an obstacle detection method of a vehicle according to the present invention.

도 18에 도시된 바와 같이, 본 발명은, 영상을 획득한다.(S10)As shown in Fig. 18, the present invention acquires an image (S10)

그리고, 본 발명은, 획득한 영상의 특성 맵을 생성한다.(S20)Then, the present invention generates a characteristic map of the acquired image (S20)

이어, 본 발명은, 생성된 특성 맵에 상응하는 적어도 하나의 스켄라인을 설정한다.(S30)Then, the present invention sets at least one scan line corresponding to the generated property map (S30)

다음, 본 발명은, 설정된 스켄라인에 상응하는 시공간 패턴 맵을 생성한다.(S40)Next, the present invention generates a space-time pattern map corresponding to the set scan line (S40)

그리고, 본 발명은, 생성된 시공간 패턴 맵을 분석하여 장애물을 검출한다.(S50)In the present invention, an obstacle is detected by analyzing the generated space-time pattern map (S50)

이어, 본 발명은, 검출된 장애물에 따라, 차량의 운행을 제어한다.(S60)Then, the present invention controls the driving of the vehicle according to the detected obstacle (S60)

다음, 본 발명은, 장애물 검출 종료 요청이 수신되는지를 확인하고,(S70) 검출 종료 요청이 있으면 장애물 검출을 종료한다.Next, the present invention confirms whether an obstacle detection end request is received (S70), and ends the obstacle detection if a detection end request is received.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. The present invention described above can be embodied as computer-readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet).

따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

100: 영상 획득부
200: 특성 맵 생성부
300: 스켄라인 설정부
400: 시공간 패턴 맵 생성부
500: 장애물 검출부
600: 제어부
100:
200: characteristic map generation unit
300: scan line setting unit
400: Spatiotemporal pattern map generator
500:
600:

Claims (20)

영상을 획득하는 영상 획득부;
상기 획득한 영상의 특성 맵을 생성하는 특성 맵 생성부;
상기 생성된 특성 맵에 상응하는 적어도 하나의 스켄라인을 설정하는 스켄라인 설정부;
상기 설정된 스켄라인에 상응하는 시공간 패턴 맵을 생성하는 시공간 패턴 맵 생성부;
상기 생성된 시공간 패턴 맵을 분석하여 장애물을 검출하는 장애물 검출부; 그리고,
상기 검출된 장애물에 따라, 차량의 운행을 제어하는 제어부를 포함하는 것을 특징으로 하는 차량의 장애물 검출 장치.
An image acquiring unit acquiring an image;
A characteristic map generation unit for generating a characteristic map of the acquired image;
A scan line setting unit setting at least one scan line corresponding to the generated characteristic map;
A space time pattern map generator for generating a space time pattern map corresponding to the set scan line;
An obstacle detection unit for detecting an obstacle by analyzing the generated space-time pattern map; And,
And a control unit for controlling operation of the vehicle in accordance with the detected obstacle.
제1 항에 있어서,
상기 특성 맵 생성부는, 상기 획득한 영상의 에지를 토대로, 특성 맵을 생성하는 것을 특징으로 하는 차량의 장애물 검출 장치.
The method according to claim 1,
Wherein the characteristic map generator generates a characteristic map based on the edge of the acquired image.
제2 항에 있어서,
상기 특성 맵 생성부는, 상기 획득한 영상의 에지를 토대로, 특성 맵을 생성하면, 상기 특성 맵의 노이즈를 제거하는 것을 특징으로 하는 차량의 장애물 검출 장치.
3. The method of claim 2,
Wherein the characteristic map generator removes noise of the characteristic map when generating the characteristic map based on the edge of the acquired image.
제1 항에 있어서,
상기 스켄라인 설정부는,
상기 특성 맵으로부터 카메라의 정면 방향 벡터를 계산하는 정면 방향 벡터 계산부;
상기 계산된 정면 방향 벡터를 토대로, 지면 좌표계 내의 제1 스켄라인을 생성하는 제1 스켄라인 생성부;
상기 생성된 제1 스켄라인을 토대로, 영상 좌표계 내의 제2 스켄라인을 생성하는 제2 스켄라인 생성부;
상기 생성된 제2 스켄라인의 오차를 보정하는 스켄라인 보정부를 포함하는 것을 특징으로 하는 차량의 장애물 검출 장치.
The method according to claim 1,
The scan line setting unit,
A front direction vector calculation unit for calculating a front direction vector of the camera from the characteristic map;
A first scan line generation unit for generating a first scan line in the ground coordinate system based on the calculated front direction vector;
A second scan line generation unit for generating a second scan line in the image coordinate system based on the generated first scan line;
And a scan line correction unit for correcting an error of the generated second scan line.
제4 항에 있어서,
상기 정면 방향 벡터 계산부는, 상기 카메라의 주점에 해당하는 지면 좌표와 상기 카메라의 지면 좌표를 산출하고, 상기 산출된 두 좌표들간의 차이를 토대로, 정면 방향 벡터를 산출하는 것을 특징으로 하는 차량의 장애물 검출 장치.
5. The method of claim 4,
Wherein the front direction vector calculation unit calculates the ground coordinates corresponding to the principal point of the camera and the ground coordinates of the camera and calculates the front direction vector based on the difference between the two calculated coordinates, Detection device.
제4 항에 있어서,
상기 제1 스켄라인 생성부는, 상기 산출된 정면 방향 벡터와 직교하는 직선을 구하고, 상기 구해진 직선을 기준으로 선택된 영역을 다수의 선분으로 분할하며, 상기 분할된 선분의 중점을 기준점으로 정하고, 상기 정해진 기준점을 지나면서 상기 정면 방향 벡터와 평행한 제1 스켄라인을 생성하는 것을 특징으로 하는 차량의 장애물 검출 장치.
5. The method of claim 4,
Wherein the first scan line generation unit obtains a straight line orthogonal to the calculated front direction vector and divides the selected area based on the obtained straight line into a plurality of line segments, sets the center point of the divided line segments as a reference point, And generates a first scan line parallel to the front direction vector passing through the reference point.
제6 항에 있어서,
상기 구해진 직선을 기준으로 선택된 영역은, 장애물을 검출하기 위한 영역인 것을 특징으로 하는 차량의 장애물 검출 장치.
The method according to claim 6,
And the area selected based on the obtained straight line is an area for detecting an obstacle.
제6 항에 있어서,
상기 제1 스켄라인은, 상기 정면 방향 벡터와 해당 기준점을 포함하는 것을 특징으로 하는 차량의 장애물 검출 장치.
The method according to claim 6,
Wherein the first scan line includes the front direction vector and a corresponding reference point.
제4 항에 있어서,
상기 지면 좌표계 내의 제1 스켄라인은, 다수 개이고,
상기 다수의 제1 스켄라인들은, 서로 평행한 것을 특징으로 하는 차량의 장애물 검출 장치.
5. The method of claim 4,
A plurality of first scan lines in the ground coordinate system,
And the plurality of first scan lines are parallel to each other.
제4 항에 있어서,
상기 제2 스켄라인 생성부는, 상기 생성된 제1 스켄라인을 토대로, 지평선을 구하고, 상기 제1 스켄라인을 영상 좌표로 변환한 직선을 토대로, 소실점을 구한 다음, 상기 변환한 직선 상의 기준점과 상기 소실점을 지나는 제2 스켄라인을 생성하는 것을 특징으로 하는 차량의 장애물 검출 장치.
5. The method of claim 4,
The second scan line generator obtains a horizon on the basis of the generated first scan line and obtains a vanishing point based on a straight line obtained by converting the first scan line into image coordinates, And generates a second scan line passing through the vanishing point.
제10 항에 있어서,
상기 제2 스켄라인 생성부는, 상기 지평선을 구할 때, 상기 영상 좌표계에서 상기 제1 스켄라인들이 하나의 소실점에 모이면, 상기 소실점을 지나는 직선을 지평선으로 설정하는 것을 특징으로 하는 차량의 장애물 검출 장치.
11. The method of claim 10,
Wherein the second scan line generator sets a straight line passing through the vanishing point as a horizon line when the first scan lines converge to one vanishing point in the image coordinate system when the horizon line is calculated, .
제10 항에 있어서,
상기 제2 스켄라인 생성부는, 상기 소실점을 구할 때, 상기 지면 좌표계 내의 제1 스켄라인을 영상 좌표계의 직선으로 변환하고, 상기 변환된 직선과 지평선과의 교점을 소실점으로 설정하는 것을 특징으로 하는 차량의 장애물 검출 장치.
11. The method of claim 10,
Wherein the second scan line generation unit converts the first scan line in the ground coordinate system into a straight line in the image coordinate system and sets the intersection of the converted straight line and the horizon line as a vanishing point when the vanishing point is found. .
제4 항에 있어서,
상기 스켄라인 보정부는, 상기 지평선 근방에 위치하는 제2 스켄라인 일부를 제거하여 상기 제2 스켄라인의 오차를 보정하는 것을 특징으로 하는 차량의 장애물 검출 장치.
5. The method of claim 4,
Wherein the scan line correction unit corrects an error of the second scan line by removing a part of a second scan line located near the horizon line.
제1 항에 있어서,
상기 시공간 패턴 맵 생성부는,
상기 각 스켄라인에 해당하는 행 이미지를 한 프레임마다 생성하는 제1 생성부;
상기 생성된 각 스켄라인의 행 이미지를 한 프레임 이상 누적하여 저장하는 저장부;
상기 저장부에 저장된 행 이미지들을 토대로, 각 스켄라인의 행 이미지가 누적된 시공간 패턴 맵을 생성하는 제2 생성부를 포함하는 것을 특징으로 하는 차량의 장애물 검출 장치.
The method according to claim 1,
Wherein the space-time pattern map generator comprises:
A first generating unit for generating a row image corresponding to each scan line for each frame;
A storage unit for accumulating one or more frames of the generated row images of the scan lines;
And a second generation unit for generating a space time pattern map in which a row image of each scan line is accumulated based on the row images stored in the storage unit.
제14 항에 있어서,
상기 시공간 패턴 맵은, 다수의 서브 유닛들을 포함하고,
상기 다수의 서브 유닛은, 적어도 3프레임 이상이 누적된 행 이미지를 포함하는 것을 특징으로 하는 차량의 장애물 검출 장치.
15. The method of claim 14,
Wherein the space-time pattern map includes a plurality of sub-units,
Wherein the plurality of subunits include an accumulated row image of at least three frames.
제1 항에 있어서,
상기 장애물 검출부는, 상기 생성된 시공간 패턴 맵을 분석하여 상기 시공간 패턴 맵에 포함되는 추세선의 기울기를 구하고, 상기 기울기를 토대로, 장애물을 검출하는 것을 특징으로 하는 차량의 장애물 검출 장치.
The method according to claim 1,
Wherein the obstacle detection unit analyzes the generated space time pattern map to obtain an inclination of a trend line included in the space time pattern map, and detects an obstacle based on the inclination.
제16 항에 있어서,
상기 장애물 검출부는, 상기 기울기가 양수이면, 자차보다 빠른 장애물로 인식하고, 상기 기울기가 음수이면, 자차보다 느린 장애물로 인식하는 것을 특징으로 하는 차량의 장애물 검출 장치.
17. The method of claim 16,
Wherein the obstacle detecting unit recognizes the obstacle as a obstacle faster than the car if the inclination is positive and recognizes the obstacle as a slower obstacle than the car if the inclination is negative.
제16 항에 있어서,
상기 장애물 검출부는, 상기 시공간 패턴 맵에 포함되는 추세선이 다수 개일 때, 가장 밝은 추세선을 대표 추세선으로 선택하고, 상기 선택된 대표 추세선의 기울기를 구하는 것을 특징으로 하는 차량의 장애물 검출 장치.
17. The method of claim 16,
Wherein the obstacle detection unit selects a brightest trend line as a representative trend line and obtains a slope of the selected representative trend line when a plurality of trend lines included in the space time pattern map are included.
제18 항에 있어서,
상기 장애물 검출부는, 상기 대표 추세선이 다수 개일 때, 가장 일정한 룰을 토대로 하나의 대표 추세선을 선택하고, 상기 선택된 대표 추세선의 기울기를 구하는 것을 특징으로 하는 차량의 장애물 검출 장치.
19. The method of claim 18,
Wherein the obstacle detection unit selects one representative trend line based on the most constant rule when a plurality of the representative trend lines are present and obtains a slope of the selected representative trend line.
영상을 획득하는 단계;
상기 획득한 영상의 특성 맵을 생성하는 단계;
상기 생성된 특성 맵에 상응하는 적어도 하나의 스켄라인을 설정하는 단계;
상기 설정된 스켄라인에 상응하는 시공간 패턴 맵을 생성하는 단계;
상기 생성된 시공간 패턴 맵을 분석하여 장애물을 검출하는 단계; 그리고,
상기 검출된 장애물에 따라, 차량의 운행을 제어하는 단계를 포함하는 것을 특징으로 하는 차량의 장애물 검출 방법.
Acquiring an image;
Generating a characteristic map of the acquired image;
Setting at least one scan line corresponding to the generated characteristic map;
Generating a space time pattern map corresponding to the set scan line;
Analyzing the generated space-time pattern map to detect an obstacle; And,
And controlling operation of the vehicle in accordance with the detected obstacle.
KR1020170022690A 2017-02-21 2017-02-21 Apparatus and mathod for detecting obstacle of a vehicle KR102295579B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170022690A KR102295579B1 (en) 2017-02-21 2017-02-21 Apparatus and mathod for detecting obstacle of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170022690A KR102295579B1 (en) 2017-02-21 2017-02-21 Apparatus and mathod for detecting obstacle of a vehicle

Publications (2)

Publication Number Publication Date
KR20180096236A true KR20180096236A (en) 2018-08-29
KR102295579B1 KR102295579B1 (en) 2021-08-30

Family

ID=63434572

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170022690A KR102295579B1 (en) 2017-02-21 2017-02-21 Apparatus and mathod for detecting obstacle of a vehicle

Country Status (1)

Country Link
KR (1) KR102295579B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146185A (en) * 2006-12-06 2008-06-26 Univ Waseda Moving object detection device and program for moving object detection device
KR20090083184A (en) * 2008-01-29 2009-08-03 주식회사 만도 Method for dectecting front and rear vehicle by using image
JP2010064531A (en) * 2008-09-08 2010-03-25 Toyota Central R&D Labs Inc White line detection device
JP2010079899A (en) * 2008-09-25 2010-04-08 Samsung Electronics Co Ltd Conversion method and apparatus with depth map generation
KR20120066220A (en) * 2010-12-14 2012-06-22 주식회사 이미지넥스트 System and method for detecting object of vehicle surroundings

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146185A (en) * 2006-12-06 2008-06-26 Univ Waseda Moving object detection device and program for moving object detection device
KR20090083184A (en) * 2008-01-29 2009-08-03 주식회사 만도 Method for dectecting front and rear vehicle by using image
JP2010064531A (en) * 2008-09-08 2010-03-25 Toyota Central R&D Labs Inc White line detection device
JP2010079899A (en) * 2008-09-25 2010-04-08 Samsung Electronics Co Ltd Conversion method and apparatus with depth map generation
KR20120066220A (en) * 2010-12-14 2012-06-22 주식회사 이미지넥스트 System and method for detecting object of vehicle surroundings

Also Published As

Publication number Publication date
KR102295579B1 (en) 2021-08-30

Similar Documents

Publication Publication Date Title
JP3868876B2 (en) Obstacle detection apparatus and method
JP5870273B2 (en) Object detection apparatus, object detection method, and program
US8917929B2 (en) Image processing apparatus, method, program, and recording medium
JP5468426B2 (en) Stereo camera device
KR101621370B1 (en) Method and Apparatus for detecting lane of road
KR101551026B1 (en) Method of tracking vehicle
WO2017138245A1 (en) Image processing device, object recognition device, device control system, and image processing method and program
US9098750B2 (en) Gradient estimation apparatus, gradient estimation method, and gradient estimation program
JP2014142241A (en) Three-dimensional position estimation device, vehicle controller, and three-dimensional position estimation method
JP2016152027A (en) Image processing device, image processing method and program
JP2013148356A (en) Vehicle position calculation device
JP6733302B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
KR20190095597A (en) a Method for object detection using two cameras with different focal lengths and apparatus thereof
KR100991671B1 (en) Image Matching Method and Apparatus and Object Detection Apparatus Using Same
JP3988758B2 (en) Moving body detection device
JP6577595B2 (en) Vehicle external recognition device
JP6583923B2 (en) Camera calibration apparatus, method and program
KR20180096236A (en) Apparatus and mathod for detecting obstacle of a vehicle
JP2007199932A (en) Image processor and its method
JP5903901B2 (en) Vehicle position calculation device
JP6734136B2 (en) Image processing device
JP2018146495A (en) Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system
JP7134780B2 (en) stereo camera device
JP2013148354A (en) Vehicle position calculation device
US20180268228A1 (en) Obstacle detection device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant