KR102295579B1 - Apparatus and mathod for detecting obstacle of a vehicle - Google Patents

Apparatus and mathod for detecting obstacle of a vehicle Download PDF

Info

Publication number
KR102295579B1
KR102295579B1 KR1020170022690A KR20170022690A KR102295579B1 KR 102295579 B1 KR102295579 B1 KR 102295579B1 KR 1020170022690 A KR1020170022690 A KR 1020170022690A KR 20170022690 A KR20170022690 A KR 20170022690A KR 102295579 B1 KR102295579 B1 KR 102295579B1
Authority
KR
South Korea
Prior art keywords
obstacle
scan line
map
scanline
unit
Prior art date
Application number
KR1020170022690A
Other languages
Korean (ko)
Other versions
KR20180096236A (en
Inventor
윤성원
설상훈
윤성욱
최태현
이재훈
임재영
Original Assignee
현대자동차주식회사
기아 주식회사
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사, 고려대학교 산학협력단 filed Critical 현대자동차주식회사
Priority to KR1020170022690A priority Critical patent/KR102295579B1/en
Publication of KR20180096236A publication Critical patent/KR20180096236A/en
Application granted granted Critical
Publication of KR102295579B1 publication Critical patent/KR102295579B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

주행 영상에서 다양한 장애물들을 검출하는 차량의 장애물 검출 장치 및 방법에 관한 것으로, 영상을 획득하는 영상 획득부와, 획득한 영상의 특성 맵을 생성하는 특성 맵 생성부와, 생성된 특성 맵에 상응하는 적어도 하나의 스켄라인을 설정하는 스켄라인 설정부와, 설정된 스켄라인에 상응하는 시공간 패턴 맵을 생성하는 시공간 패턴 맵 생성부와, 생성된 시공간 패턴 맵을 분석하여 장애물을 검출하는 장애물 검출부와, 검출된 장애물에 따라, 차량의 운행을 제어하는 제어부를 포함할 수 있다.A vehicle obstacle detection apparatus and method for detecting various obstacles in a driving image, comprising: an image acquisition unit for acquiring an image; a characteristic map generation unit for generating a characteristic map of the acquired image; A scan line setting unit for setting at least one scan line, a spatiotemporal pattern map generating unit generating a spatiotemporal pattern map corresponding to the set scan line, an obstacle detecting unit detecting an obstacle by analyzing the generated spatiotemporal pattern map; It may include a control unit for controlling the operation of the vehicle according to the obstacle.

Description

차량의 장애물 검출 장치 및 방법 {APPARATUS AND MATHOD FOR DETECTING OBSTACLE OF A VEHICLE}Apparatus and method for detecting obstacles in a vehicle {APPARATUS AND MATHOD FOR DETECTING OBSTACLE OF A VEHICLE}

본 발명은 차량에 관한 것으로, 보다 상세하게는 주행 영상에서 다양한 장애물들을 검출하는 차량의 장애물 검출 장치 및 방법에 관한 것이다.The present invention relates to a vehicle, and more particularly, to a vehicle obstacle detecting apparatus and method for detecting various obstacles in a driving image.

일반적인 주행 영상에서의 장애물 검출 기술은, 장애물의 특징을 이용하는 것, 장애물의 모양을 인식하는 것과 장애물의 모션을 분석하는 방법으로 나뉜다. Obstacle detection technology in a general driving image is divided into using the characteristics of the obstacle, recognizing the shape of the obstacle, and analyzing the motion of the obstacle.

장애물의 특징을 이용한 방식은, 차량의 대칭성, 그림자 혹은 SIFT를 사용하는 방식이 있다.Methods using the characteristics of obstacles include methods using vehicle symmetry, shadows, or SIFT.

이러한 방식의 문제는, 장애물의 특징이 온전히 나타나지 않은 프레임에서, 성능이 크게 감소한다는 점이고, 장애물 검출에 효과적인 특징들이 온전히 나타날 확률이 크지 않다는 점이다.The problem with this method is that, in a frame in which the features of the obstacle are not fully displayed, the performance is greatly reduced, and the probability that the features effective for detecting the obstacles are not fully appeared is not large.

또한, 장애물의 모양을 인식하는 방식은, 분류기(classifier)를 사용하여 해당 분류기의 목표에 포함되는 장애물만을 검출하는 것이다.In addition, the method of recognizing the shape of the obstacle is to detect only the obstacle included in the target of the classifier using a classifier.

이러한 방법의 문제는, 분류기의 연산이 복잡하여 실시간 연산이 어렵다는 점과, 분류기에 지정된 형태 이외의 장애물에 대해서는 인식을 할 수 없다는 점이다.The problems of this method are that the calculation of the classifier is complicated, so that real-time calculation is difficult, and obstacles other than the type specified in the classifier cannot be recognized.

또한, 모션을 분석하는 방식은, 주행 영상에서 모션 정보를 획득하기가 어려우며 이때 주로 옵티컬 플로우(optical flow)와 같은 대응 매칭(correspondence matching) 방법 등을 이용하는데, 옵티컬 플로우는, 장애물의 특징을 이용한 검출 정보를 필요로 하는 경우가 많아 첫 번째 언급한 문제점이 동시에 나타날 수 있으며, 모션이 큰 경우에는 오차가 커 검출 성능이 감소할 수 있다는 점이다.In addition, in the method of analyzing the motion, it is difficult to obtain motion information from the driving image, and at this time, a correspondence matching method such as optical flow is mainly used. Since detection information is often required, the first problem may appear at the same time, and if the motion is large, the error may be large and the detection performance may be reduced.

따라서, 향후 주행 영상에서의 장애물을 간단한 방식으로 정확하고 빠르게 검출할 수 있는 장애물 검출 방식이 요구되고 있다.Accordingly, there is a demand for an obstacle detection method capable of accurately and quickly detecting an obstacle in a future driving image in a simple manner.

본 발명은 스켄라인에 상응하는 시공간 패턴 맵을 생성하여, 빠르게 이동하는 장애물을 검출할 수 있는 차량의 장애물 검출 장치 및 방법을 제공하는데 있다.An object of the present invention is to provide an apparatus and method for detecting an obstacle in a vehicle capable of detecting a rapidly moving obstacle by generating a space-time pattern map corresponding to a scan line.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able

상기와 같은 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 차량의 장애물 검출 장치는, 영상을 획득하는 영상 획득부와, 획득한 영상의 특성 맵을 생성하는 특성 맵 생성부와, 생성된 특성 맵에 상응하는 적어도 하나의 스켄라인을 설정하는 스켄라인 설정부와, 설정된 스켄라인에 상응하는 시공간 패턴 맵을 생성하는 시공간 패턴 맵 생성부와, 생성된 시공간 패턴 맵을 분석하여 장애물을 검출하는 장애물 검출부와, 검출된 장애물에 따라, 차량의 운행을 제어하는 제어부를 포함할 수 있다.In order to solve the above technical problem, an apparatus for detecting an obstacle for a vehicle according to an embodiment of the present invention includes an image acquisition unit for acquiring an image, a characteristic map generator for generating a characteristic map of the acquired image, and generation A scanline setting unit that sets at least one scanline corresponding to the set characteristic map, a spatiotemporal pattern map generating unit that generates a spatiotemporal pattern map corresponding to the set scanline, and an obstacle detection by analyzing the generated spatiotemporal pattern map It may include an obstacle detecting unit, and a control unit for controlling the operation of the vehicle according to the detected obstacle.

또한, 본 발명의 일 실시예에 따른 차량의 장애물 검출 방법은, 영상을 획득하는 단계와, 획득한 영상의 특성 맵을 생성하는 단계와, 생성된 특성 맵에 상응하는 적어도 하나의 스켄라인을 설정하는 단계와, 설정된 스켄라인에 상응하는 시공간 패턴 맵을 생성하는 단계와, 생성된 시공간 패턴 맵을 분석하여 장애물을 검출하는 단계와, 검출된 장애물에 따라, 차량의 운행을 제어하는 단계를 포함할 수 있다.In addition, the method for detecting an obstacle in a vehicle according to an embodiment of the present invention includes acquiring an image, generating a characteristic map of the acquired image, and setting at least one scanline corresponding to the generated characteristic map. and generating a spatiotemporal pattern map corresponding to the set scan line, analyzing the generated spatiotemporal pattern map to detect an obstacle, and controlling the operation of the vehicle according to the detected obstacle. can

상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 차량의 장애물 검출 장치 및 방법은, 전방 카메라로 얻은 연속 영상을 이용하여 장애물의 변화를 분석하고 특정 변화를 보이는 장애물을 검출하는 기술로서, 시공간 패턴 맵을 이용하여 자차보다 빠르게 움직이는 장애물을 검출할 수 있는 효과를 제공한다.An apparatus and method for detecting an obstacle in a vehicle according to at least one embodiment of the present invention configured as described above is a technology for analyzing changes in an obstacle using a continuous image obtained by a front camera and detecting an obstacle showing a specific change, It provides the effect of detecting an obstacle moving faster than the own vehicle by using the space-time pattern map.

또한, 본 발명은, 자차보다 빠르게 움직이는 장애물을 검출하기 때문에, 주행 원본 영상에서 분석하는 기존 방법들에 비해 계산속도가 빠른 효과를 제공한다.In addition, since the present invention detects an obstacle moving faster than the own vehicle, it provides an effect that the calculation speed is faster than the existing methods of analyzing the original driving image.

또한, 본 발명은, 주행 영상의 시간적 변화와 공간적 변화를 동시에 이용 가능하므로, 장애물을 검출하는 처리 시간이 빠른 효과를 제공한다.In addition, the present invention provides the effect that the processing time for detecting the obstacle is fast because it is possible to use the temporal change and the spatial change of the driving image at the same time.

또한, 본 발명은, 원 영상을 기반으로 하는 장애물을 검출하는 방식이 아니라, 시공간 패턴 맵을 기반으로 장애물을 검출하므로, 렌즈 왜곡 등과 같은 카메라 성능 및 영상 취득 환경에 영향을 받지 않는 효과를 제공한다.In addition, the present invention provides an effect that is not affected by camera performance and image acquisition environment, such as lens distortion, because an obstacle is detected based on a spatio-temporal pattern map rather than a method of detecting an obstacle based on an original image. .

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.

도 1은 본 발명에 따른 차량의 장애물 검출 장치를 설명하기 위한 블록 구성도이다.
도 2는 도 1의 스켄라인 설정부를 설명하기 위한 블록 구성도이다.
도 3은 도 1의 시공간 패턴 맵 생성부를 설명하기 위한 블록 구성도이다.
도 4 내지 도 7은 스켄라인을 설정하는 과정을 설명하기 위한 도면이다.
도 8은 특성 맵을 생성하는 과정을 설명하기 위한 도면이다.
도 9는 원 영상에 설정된 스켄라인을 보여주는 도면이다.
도 10은 시공간 패턴 맵을 생성하는 과정을 설명하기 위한 도면이다.
도 11은 누적된 시공간 패턴 맵과 그의 서브 유닛을 보여주는 도면이다.
도 12는 시공간 패턴 맵의 추세선 기울기를 보여주는 도면이다.
도 13은 추세선의 기울기에 따른 장애물 이동 속도를 보여주는 도면이다.
도 14는 미소 기울기 계산 과정을 설명하기 위한 도면이다.
도 15 내지 도 17은 장애물 검출 결과에 따른 시공간 패턴 맵을 보여주는 도면이다.
도 18은 본 발명에 따른 차량의 장애물 검출 방법을 설명하기 위한 흐름도이다.
1 is a block diagram illustrating an apparatus for detecting an obstacle for a vehicle according to the present invention.
FIG. 2 is a block diagram illustrating the scan line setting unit of FIG. 1 .
FIG. 3 is a block diagram illustrating the spatiotemporal pattern map generator of FIG. 1 .
4 to 7 are diagrams for explaining a process of setting a scan line.
8 is a diagram for explaining a process of generating a characteristic map.
9 is a view showing a scan line set in an original image.
10 is a diagram for explaining a process of generating a spatiotemporal pattern map.
11 is a diagram showing an accumulated spatiotemporal pattern map and its sub-units.
12 is a diagram illustrating a trend line slope of a spatio-temporal pattern map.
13 is a diagram illustrating an obstacle moving speed according to a slope of a trend line.
14 is a diagram for explaining a micro-gradient calculation process.
15 to 17 are views showing a spatiotemporal pattern map according to an obstacle detection result.
18 is a flowchart illustrating a method for detecting an obstacle in a vehicle according to the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in various different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, terms such as “…unit”, “…group”, and “module” described in the specification mean a unit that processes at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software. have.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서 전체에 걸쳐서 동일한 참조번호로 표시된 부분들은 동일한 구성요소들을 의미한다.Throughout the specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, parts indicated with the same reference numerals throughout the specification mean the same components.

이하, 도 1 내지 도 18을 참조하여 본 발명의 실시예들에 적용될 수 있는 차량의 장애물 검출 장치 및 방법에 대해 상세히 설명한다.Hereinafter, an apparatus and method for detecting an obstacle in a vehicle that can be applied to embodiments of the present invention will be described in detail with reference to FIGS. 1 to 18 .

도 1은 본 발명에 따른 차량의 장애물 검출 장치를 설명하기 위한 블록 구성도이고, 도 2는 도 1의 스켄라인 설정부를 설명하기 위한 블록 구성도이며, 도 3은 도 1의 시공간 패턴 맵 생성부를 설명하기 위한 블록 구성도이다.1 is a block diagram illustrating an obstacle detecting apparatus for a vehicle according to the present invention, FIG. 2 is a block diagram illustrating a scan line setting unit of FIG. 1, and FIG. 3 is a spatiotemporal pattern map generation unit of FIG. It is a block diagram for explanation.

도 1 내지 도 3에 도시된 바와 같이, 본 발명에 따른 차량의 장애물 검출 장치(1000)는, 영상 획득부(100), 특성 맵 생성부(200), 스켄라인 설정부(300), 시공간 패턴 맵 생성부(400), 장애물 검출부(500) 및 제어부(600)를 포함할 수 있다.1 to 3 , the apparatus 1000 for detecting an obstacle for a vehicle according to the present invention includes an image acquisition unit 100 , a characteristic map generation unit 200 , a scan line setting unit 300 , and a space-time pattern. It may include a map generator 400 , an obstacle detector 500 , and a controller 600 .

여기서, 영상 획득부(100)는, 영상을 획득하는 카메라일 수 있다.Here, the image acquisition unit 100 may be a camera that acquires an image.

일 예로, 카메라는 차량의 전방에 장착되어 차량의 전방 영상을 실시간으로 촬영할 수 있다.For example, the camera may be mounted on the front of the vehicle to capture an image of the front of the vehicle in real time.

그리고, 특성 맵 생성부(200)는, 획득한 영상의 특성 맵을 생성할 수 있다.In addition, the characteristic map generator 200 may generate a characteristic map of the acquired image.

여기서, 특성 맵 생성부(200)는, 획득한 영상의 에지를 토대로, 특성 맵을 생성할 수 있다.Here, the characteristic map generator 200 may generate the characteristic map based on the edge of the acquired image.

특성 맵을 생성하는 이유는, 획득한 원 영상을 토대로 시공간 패턴 맵을 생성할 경우, 데이터 연산량이 너무 많지만, 특성 맵을 토대로 시공간 패턴맵을 생성할 경우, 데이터 양이 크기 줄어 연산량을 최소화할 수 있으므로, 처리 시간을 감소시켜 빠르게 장애물을 검출할 수 있기 때문이다.The reason for creating a feature map is that when a spatio-temporal pattern map is generated based on an acquired original image, the amount of data computation is too large. Therefore, it is possible to quickly detect an obstacle by reducing the processing time.

또한, 특성 맵 생성부(200)는, 획득한 영상의 에지를 토대로, 특성 맵을 생성하면, 특성 맵의 노이즈를 제거할 수 있다.Also, the feature map generator 200 may remove noise from the feature map when the feature map is generated based on the edge of the acquired image.

그 이유는, 특성 맵의 노이즈를 제거하면, 필요한 성분들만이 더 선명하게 보여지기 때문이다.The reason is that, if the noise of the feature map is removed, only the necessary components are more clearly seen.

경우에 따라, 특성 맵 생성부(200)는, 생성한 특성 맵을 이진화한 후에 스무딩(smoothing)을 적용하는 후처리 과정을 더 수행할 수도 있다.In some cases, the feature map generator 200 may further perform a post-processing process of applying smoothing after binarizing the generated feature map.

다음, 스켄라인 설정부(300)는, 생성된 특성 맵에 상응하는 적어도 하나의 스켄라인을 설정할 수 있다.Next, the scanline setting unit 300 may set at least one scanline corresponding to the generated characteristic map.

여기서, 스켄라인 설정부(300)는, 도 2와 같이, 정면 방향 벡터 계산부(310), 제1 스켄라인 생성부(320), 제2 스켄라인 생성부(330), 그리고 스켄라인 보정부(340)를 더 포함할 수 있다.Here, as shown in FIG. 2 , the scanline setting unit 300 includes a front direction vector calculator 310 , a first scanline generator 320 , a second scanline generator 330 , and a scanline corrector. (340) may be further included.

이때, 정면 방향 벡터 계산부(310)는, 특성 맵으로부터 카메라의 정면 방향 벡터를 계산할 수 있다.In this case, the front direction vector calculator 310 may calculate a front direction vector of the camera from the characteristic map.

일 예로, 정면 방향 벡터 계산부(310)는, 카메라의 주점에 해당하는 지면 좌표와 카메라의 지면 좌표를 산출하고, 산출된 두 좌표들간의 차이를 토대로, 정면 방향 벡터를 산출할 수 있다.For example, the front direction vector calculator 310 may calculate a ground coordinate corresponding to the main point of the camera and a ground coordinate of the camera, and calculate a front direction vector based on a difference between the two calculated coordinates.

그리고, 제1 스켄라인 생성부(320)는, 계산된 정면 방향 벡터를 토대로, 지면 좌표계 내의 제1 스켄라인을 생성할 수 있다.In addition, the first scanline generator 320 may generate a first scanline in the ground coordinate system based on the calculated front direction vector.

여기서, 제1 스켄라인 생성부(320)는, 산출된 정면 방향 벡터와 직교하는 직선을 구하고, 구해진 직선을 기준으로 선택된 영역을 다수의 선분으로 분할하며, 분할된 선분의 중점을 기준점으로 정하고, 정해진 기준점을 지나면서 정면 방향 벡터와 평행한 제1 스켄라인을 생성할 수 있다.Here, the first scan line generation unit 320 obtains a straight line orthogonal to the calculated front direction vector, divides the selected region into a plurality of line segments based on the obtained straight line, and determines the midpoint of the divided line segment as a reference point, A first scanline parallel to the front direction vector may be generated while passing through a predetermined reference point.

일 예로, 구해진 직선을 기준으로 선택된 영역은, 장애물을 검출하기 위한 영역일 수 있다.For example, the area selected based on the obtained straight line may be an area for detecting an obstacle.

그리고, 제1 스켄라인은, 정면 방향 벡터와 해당 기준점을 포함할 수 있다.In addition, the first scan line may include a front direction vector and a corresponding reference point.

일 예로, 지면 좌표계 내의 제1 스켄라인은, 다수 개이고, 다수의 제1 스켄라인들은, 서로 평행할 수 있다.For example, there may be a plurality of first scan lines in the ground coordinate system, and the plurality of first scan lines may be parallel to each other.

다음, 제2 스켄라인 생성부(330)는, 생성된 제1 스켄라인을 토대로, 영상 좌표계 내의 제2 스켄라인을 생성할 수 있다.Next, the second scanline generator 330 may generate a second scanline in the image coordinate system based on the generated first scanline.

일 예로, 제2 스켄라인 생성부(330)는, 생성된 제1 스켄라인을 토대로, 지평선을 구하고, 제1 스켄라인을 영상 좌표로 변환한 직선을 토대로, 소실점을 구한 다음, 변환한 직선 상의 기준점과 상기 소실점을 지나는 제2 스켄라인을 생성할 수 있다.For example, the second scanline generating unit 330 obtains a horizon based on the generated first scanline, obtains a vanishing point based on a straight line converted from the first scanline into image coordinates, and then obtains a vanishing point on the converted straight line. A second scan line passing through the reference point and the vanishing point may be generated.

여기서, 제2 스켄라인 생성부(330)는, 지평선을 구할 때, 영상 좌표계에서 제1 스켄라인들이 하나의 소실점에 모이면, 소실점을 지나는 직선을 지평선으로 설정할 수 있다.Here, the second scan line generator 330 may set a straight line passing through the vanishing point as the horizon when the first scan lines in the image coordinate system gather at one vanishing point when obtaining the horizon.

그리고, 제2 스켄라인 생성부(330)는, 소실점을 구할 때, 지면 좌표계 내의 제1 스켄라인을 영상 좌표계의 직선으로 변환하고, 변환된 직선과 지평선과의 교점을 소실점으로 설정할 수 있다.In addition, the second scanline generator 330 may convert the first scanline in the ground coordinate system into a straight line in the image coordinate system when calculating the vanishing point, and set an intersection point between the converted straight line and the horizon as the vanishing point.

이어, 스켄라인 보정부(340)는, 생성된 제2 스켄라인의 오차를 보정할 수 있다.Next, the scan line corrector 340 may correct an error of the generated second scan line.

여기서, 스켄라인 보정부는, 지평선 근방에 위치하는 제2 스켄라인 일부를 제거하여 제2 스켄라인의 오차를 보정할 수 있다.Here, the scan line corrector may correct an error of the second scan line by removing a portion of the second scan line located near the horizon.

한편, 시공간 패턴 맵 생성부(400)는, 설정된 스켄라인에 상응하는 시공간 패턴 맵을 생성할 수 있다.Meanwhile, the spatiotemporal pattern map generation unit 400 may generate a spatiotemporal pattern map corresponding to the set scan line.

여기서, 시공간 패턴 맵 생성부(400)는, 도 3과 같이, 제1 생성부(410), 저장부(420), 그리고 제2 생성부(430)를 포함할 수 있다.Here, the spatiotemporal pattern map generation unit 400 may include a first generation unit 410 , a storage unit 420 , and a second generation unit 430 , as shown in FIG. 3 .

이때, 제1 생성부(410)는, 각 스켄라인에 해당하는 행 이미지를 한 프레임마다 생성할 수 있다.In this case, the first generator 410 may generate a row image corresponding to each scan line for each frame.

그리고, 저장부(420)는, 생성된 각 스켄라인의 행 이미지를 한 프레임 이상 누적하여 저장할 수 있다.In addition, the storage unit 420 may accumulate and store one or more frames of the generated row images of each scan line.

이어, 제2 생성부(430)는, 저장부(420)에 저장된 행 이미지들을 토대로, 각 스켄라인의 행 이미지가 누적된 시공간 패턴 맵을 생성할 수 있다.Next, the second generator 430 may generate a spatiotemporal pattern map in which row images of each scan line are accumulated, based on the row images stored in the storage 420 .

일 예로, 시공간 패턴 맵은, 다수의 서브 유닛들을 포함하고, 다수의 서브 유닛은, 적어도 3프레임 이상이 누적된 행 이미지를 포함할 수 있다.For example, the spatiotemporal pattern map may include a plurality of sub-units, and the plurality of sub-units may include a row image in which at least three frames are accumulated.

다음, 장애물 검출부(500)는, 생성된 시공간 패턴 맵을 분석하여 장애물을 검출할 수 있다.Next, the obstacle detection unit 500 may detect the obstacle by analyzing the generated space-time pattern map.

여기서, 장애물 검출부(500)는, 생성된 시공간 패턴 맵을 분석하여 시공간 패턴 맵에 포함되는 추세선의 기울기를 구하고, 기울기를 토대로, 장애물을 검출할 수 있다.Here, the obstacle detection unit 500 may analyze the generated space-time pattern map to obtain a gradient of a trend line included in the space-time pattern map, and may detect an obstacle based on the gradient.

또한, 장애물 검출부(500)는, 기울기가 양수이면, 자차보다 빠른 장애물로 인식하고, 기울기가 음수이면, 자차보다 느린 장애물로 인식할 수 있다.Also, when the slope is positive, the obstacle detection unit 500 may recognize an obstacle faster than the own vehicle, and if the slope is negative, it may recognize an obstacle slower than the own vehicle.

그리고, 장애물 검출부(500)는, 시공간 패턴 맵에 포함되는 추세선이 다수 개일 때, 가장 밝은 추세선을 대표 추세선으로 선택하고, 선택된 대표 추세선의 기울기를 구할 수 있다.And, when there are a plurality of trend lines included in the spatio-temporal pattern map, the obstacle detection unit 500 may select the brightest trend line as the representative trend line and obtain the slope of the selected representative trend line.

경우에 따라, 장애물 검출부(500)는, 대표 추세선이 다수 개일 때, 가장 일정한 룰을 토대로 하나의 대표 추세선을 선택하고, 선택된 대표 추세선의 기울기를 구할 수도 있다.In some cases, when there are a plurality of representative trend lines, the obstacle detection unit 500 may select one representative trend line based on the most constant rule and obtain the slope of the selected representative trend line.

다음, 제어부(600)는, 검출된 장애물에 따라, 차량의 운행을 제어할 수 있다.Next, the controller 600 may control the operation of the vehicle according to the detected obstacle.

이와 같이, 본 발명은, 전방 카메라로 얻은 연속 영상을 이용하여 장애물의 변화를 분석하고 특정 변화를 보이는 장애물을 검출하는 기술로서, 시공간 패턴 맵을 이용하여 자차보다 빠르게 움직이는 장애물을 검출할 수 있다.As described above, the present invention is a technology for analyzing changes in obstacles using continuous images obtained by a front camera and detecting obstacles showing a specific change, and it is possible to detect obstacles moving faster than the own vehicle using a spatiotemporal pattern map.

또한, 본 발명은, 자차보다 빠르게 움직이는 장애물을 검출하기 때문에, 주행 원본 영상에서 분석하는 기존 방법들에 비해 계산속도가 빠를 수 있다.In addition, since the present invention detects an obstacle moving faster than the own vehicle, the calculation speed may be faster than the existing methods of analyzing the original driving image.

또한, 본 발명은, 주행 영상의 시간적 변화와 공간적 변화를 동시에 이용 가능하므로, 장애물을 검출하는 처리 시간이 빠를 수 있다.In addition, since the present invention can use the temporal change and the spatial change of the driving image at the same time, the processing time for detecting the obstacle can be fast.

또한, 본 발명은, 원 영상을 기반으로 하는 장애물을 검출하는 방식이 아니라, 시공간 패턴 맵을 기반으로 장애물을 검출하므로, 렌즈 왜곡 등과 같은 카메라 성능 및 영상 취득 환경에 영향을 받지 않을 수 있다.In addition, since the present invention detects an obstacle based on a spatio-temporal pattern map rather than a method of detecting an obstacle based on an original image, it may not be affected by camera performance and image acquisition environment such as lens distortion.

도 4 내지 도 7은 스켄라인을 설정하는 과정을 설명하기 위한 도면이다.4 to 7 are diagrams for explaining a process of setting a scan line.

도 4 내지 도 7에 도시된 바와 같이, 본 발명은, 운동 방향을 검출하기 위한 시공간 패턴 맵(STP Map)을 생성하기 위해서, 차량 정면 방향에 대한 정보가 필요하다.4 to 7 , in the present invention, in order to generate a space-time pattern map (STP Map) for detecting a motion direction, information about the vehicle front direction is required.

본 발명은, 차량의 카메라가 차량 정면을 향해 배치되므로, 카메라의 정면 방향이 차량의 정면 방향과 일치한다고 가정한다.The present invention assumes that since the camera of the vehicle is disposed toward the front of the vehicle, the front direction of the camera coincides with the front direction of the vehicle.

따라서, 본 발명은, 도 7과 같이, 카메라 주점에 해당하는 지면 좌표와 카메라의 지면 좌표를 사영 변환(projective transformation)을 이용하여 계산하고 그 차이를 통해 카메라 정면 방향 벡터(510)를 구할 수 있다.Therefore, in the present invention, as shown in FIG. 7 , the ground coordinates corresponding to the main point of the camera and the ground coordinates of the camera are calculated using a projective transformation, and the camera front direction vector 510 can be obtained through the difference. .

즉, 본 발명의 정면 방향 벡터 계산부는, 카메라의 주점에 해당하는 지면 좌표와 카메라의 지면 좌표를 산출하고, 산출된 두 좌표들간의 차이를 토대로, 정면 방향 벡터(510)를 산출할 수 있다.That is, the front direction vector calculator of the present invention may calculate the ground coordinates corresponding to the main points of the camera and the ground coordinates of the camera, and calculate the front direction vector 510 based on the difference between the two calculated coordinates.

다음, 본 발명은, 도 7과 같이, 카메라 정면 방향 벡터(510)와 직교하는 직선(520)을 구한 다음, 해당 직선(520) 위에서 컷인(cut-in) 장애물을 검출하고자 하는 영역(550)을 선택하고, 선택된 영역(550)을 균일하게 분할한다.Next, in the present invention, as shown in FIG. 7 , a straight line 520 orthogonal to the camera front direction vector 510 is obtained, and then an area 550 to detect a cut-in obstacle on the straight line 520 . is selected, and the selected area 550 is uniformly divided.

그리고, 본 발명은, 도 7과 같이, 분할된 선분(530)의 중점을 기준점(540)으로 하여, 기준점(540)을 지나고 카메라 정면 방향 벡터(510)와 평행한 직선을 지면 좌표계 내의 가상 스켄라인(virtual scanline)(530)으로 선택한다.And, in the present invention, as shown in FIG. 7 , with the midpoint of the divided line segment 530 as the reference point 540 , a straight line passing through the reference point 540 and parallel to the camera front direction vector 510 is a virtual scan in the ground coordinate system. Select a line (virtual scanline) 530 .

따라서, 도 7과 같이, 가상 스켄라인(virtual scanline)(530)은, 정면 방향 벡터(510)와 해당 기준점(540)으로 표현되고 저장된다.Accordingly, as shown in FIG. 7 , a virtual scanline 530 is expressed and stored as a front direction vector 510 and a corresponding reference point 540 .

그리고, 도 4와 같이, 지면 좌표계의 가상 스켄라인들은, 모두 평행하므로 영상 좌표계에서 하나의 소실점(P1)에 모이고, 이러한 소실점(P1)은, 지평선(C) 위에 존재한다.And, as shown in FIG. 4 , since all of the virtual scan lines of the ground coordinate system are parallel, they are gathered at one vanishing point P1 in the image coordinate system, and this vanishing point P1 exists on the horizon C.

이어, 본 발명은, 사영 변환(Projective transformation)에서 지평선(C)을 구한 후, 지면 좌표계 내의 가상 스켄라인(A) 중 하나를 영상 좌표로 변환하여 나온 직선(A)과 지평선(C)과의 교점을 통해 소실점(P1)을 구한다.Next, in the present invention, after obtaining the horizon (C) in the projective transformation, one of the virtual scan lines (A) in the ground coordinate system is converted into image coordinates. Find the vanishing point (P1) through the intersection.

그리고, 영상 왜곡이 제거된 경우, 가상 스켄라인(A)은, 영상 좌표계에서 직선으로 변환되므로, 기준점(P2)에 해당하는 영상 위의 점과 소실점(P1)을 이어서 각 스켄라인(B)들을 생성한다.And, when the image distortion is removed, since the virtual scan line (A) is converted into a straight line in the image coordinate system, each scan line (B) is formed by connecting the point on the image corresponding to the reference point (P2) and the vanishing point (P1). create

이때, 스켄라인은, 도 4와 같이, 소실점(P1)에서 시작하여 기준점(P2)을 지나므로 지평선(C) 아래에서 형성된다.At this time, as shown in FIG. 4 , the scan line starts from the vanishing point P1 and passes the reference point P2 , so it is formed below the horizon C.

그리고, 본 발명은, 스켄라인(B)의 지평선(C) 근방에서, 검출 대상의 움직임이 작아 오차가 크게 발생하므로, 지평선(C) 근방의 일정 길이를 제거하는 과정을 거친다.Further, in the present invention, in the vicinity of the horizon C of the scan line B, since the motion of the detection target is small and an error occurs, a process of removing a certain length near the horizon C is performed.

즉, 본 발명의 제1 스켄라인 생성부는, 도 7과 같이, 산출된 정면 방향 벡터(510)와 직교하는 직선(520)을 구하고, 구해진 직선(520)을 기준으로 선택된 영역(550)을 다수의 선분으로 분할하며, 분할된 선분의 중점을 기준점(540)으로 정하고, 정해진 기준점(540)을 지나면서 정면 방향 벡터(510)와 평행한 가상 스켄라인(540)을 생성할 수 있다.That is, as shown in FIG. 7 , the first scanline generator of the present invention obtains a straight line 520 orthogonal to the calculated front direction vector 510 , and selects a plurality of regions 550 based on the obtained straight line 520 . A virtual scan line 540 parallel to the front direction vector 510 may be generated by dividing the segment into line segments of .

여기서, 구해진 직선을 기준으로 선택된 영역(550)은, 장애물을 검출하기 위한 영역일 수 있다.Here, the area 550 selected based on the obtained straight line may be an area for detecting an obstacle.

그리고, 본 발명의 가상 스켄라인(530)은, 정면 방향 벡터(510)와 해당 기준점(540)을 포함할 수 있다.In addition, the virtual scan line 530 of the present invention may include a front direction vector 510 and a corresponding reference point 540 .

또한, 도 7과 같이, 지면 좌표계 내의 가상 스켄라인은, 다수 개이고, 다수의 가상 스켄라인들은, 서로 평행할 수 있다.Also, as shown in FIG. 7 , a plurality of virtual scan lines in the ground coordinate system may be provided, and the plurality of virtual scan lines may be parallel to each other.

다음, 본 발명의 제2 스켄라인 생성부는, 도 4와 같이, 생성된 가상 스켄라인(A)을 토대로, 지평선(C)을 구하고, 가상 스켄라인(A)을 영상 좌표로 변환한 직선을 토대로, 소실점(P1)을 구한 다음, 변환한 직선 상의 기준점(P2)과 소실점(P1)을 지나는 스켄라인(B)을 생성할 수 있다.Next, as shown in FIG. 4 , the second scanline generator of the present invention obtains a horizon C based on the generated virtual scanline A, and based on a straight line converted from the virtual scanline A into image coordinates. , after obtaining the vanishing point P1, a scan line B passing through the reference point P2 and the vanishing point P1 on the converted straight line may be generated.

여기서, 본 발명의 제2 스켄라인 생성부는, 지평선(C)을 구할 때, 영상 좌표계에서 가상 스켄라인(A)들이 하나의 소실점(P1)에 모이면, 소실점(P1)을 지나는 직선을 지평선(C)으로 설정할 수 있다.Here, when the second scan line generator of the present invention obtains the horizon C, if virtual scan lines A in the image coordinate system are gathered at one vanishing point P1, a straight line passing through the vanishing point P1 is drawn on the horizon ( C) can be set.

또한, 본 발명의 제2 스켄라인 생성부는, 소실점(P1)을 구할 때, 지면 좌표계 내의 가상 스켄라인(A)을 영상 좌표계의 직선으로 변환하고, 변환된 직선과 지평선(C)과의 교점을 소실점(P1)으로 설정할 수 있다.In addition, the second scan line generator of the present invention converts the virtual scan line (A) in the ground coordinate system into a straight line in the image coordinate system when calculating the vanishing point (P1), and calculates the intersection of the converted straight line and the horizon (C) It can be set as the vanishing point (P1).

이어, 본 발명의 스켄라인 보정부는, 지평선(C) 근방에 위치하는 스켄라인(B) 일부를 제거하여 스켄라인(B)의 오차를 보정할 수 있다.Next, the scan line corrector of the present invention may correct the error of the scan line B by removing a part of the scan line B positioned near the horizon C.

또한, 본 발명은, 도 5와 같이, 전방 주행 영상에서, 컷인(cut-in) 장애물을 검출하기 위해서 운동 방향을 검출하는 방법이 필요하다.In addition, the present invention, as shown in FIG. 5 , in the forward driving image, a method of detecting a movement direction in order to detect a cut-in obstacle is required.

컷인(Cut-in) 장애물의 경우, 차량의 후방 혹은 측방에서 차량 정면으로 진입해야 하므로 반드시 추월하는 과정을 포함하고, 이는 컷인 장애물이 차량 정면 방향 속도 성분이 양수여야 함을 의미한다.In the case of a cut-in obstacle, since it must enter the vehicle from the rear or side of the vehicle, it must be overtaken, which means that the cut-in obstacle must have a positive velocity component in the front direction of the vehicle.

또한, 물체의 차량 정면 방향 속도 성분의 부호를 검출하기 위해서, 차량 정면 방향으로 가상 스켄라인을 형성하면, 차량 정면 방향 속도 성분이 양수인 운동이, 가상 스켄라인 상에서는 1차원적으로 앞으로 진행하는 모습으로 나타난다.(b)In addition, if a virtual scan line is formed in the vehicle front direction in order to detect the sign of the vehicle front direction velocity component of the object, the motion in which the vehicle front direction speed component is positive moves forward one-dimensionally on the virtual scan line. appear (b)

반대로, 지면에 정지해 있는 물체의 경우, 가상 스켄라인 상에서 뒤로 밀려나는 모습을 보인다.(a)Conversely, in the case of an object stationary on the ground, it appears to be pushed back on the virtual scanline. (a)

또한, 차량이 회전하는 경우에도, 하기 수학식 1이 성립하는 가상 스켄라인에서 이러한 현상이 보존된다.Also, even when the vehicle rotates, this phenomenon is preserved in the virtual scan line in which the following Equation (1) holds.

수학식 1Equation 1

d < V/wd < V/w

이 때, d는 가상 스켄라인과 차량의 카메라와의 거리를 의미하고, V는 차량의 속력, w는 차량의 각속도를 의미한다.In this case, d denotes the distance between the virtual scan line and the vehicle's camera, V denotes the speed of the vehicle, and w denotes the angular velocity of the vehicle.

저속 유턴하는 경우에도, 수학식 1의 우변의 값은, 약 10m 정도이므로 충분한 거리의 가상 스켄라인을 모두 포함한다.Even in the case of a low-speed U-turn, since the value of the right side of Equation 1 is about 10 m, it includes all virtual scan lines of sufficient distance.

지면 좌표계 위에 존재하는 가상 스켄라인을 영상 내의 적응 스켄라인(adaptive scanline)으로 변환하기 위해, 사영 변환(projective transformation)을 사용해야 한다.In order to transform a virtual scanline existing on the ground coordinate system into an adaptive scanline in an image, a projective transformation must be used.

여기서, 어쿨젼(Occlusion)이 존재하므로, 변환된 적응 스켄라인(adaptive scanline)에서는, 가상 스켄라인 위의 점을 동일하게 관찰할 수 없지만, 도 6과 같이, 적응 스켄라인에서 관찰된 점(d)과 가상 스켄라인 위의 점(c)이 동일한 물체 위의 점이라면, 운동 방향이 동일하므로 운동 방향에 대한 정보를 동일하게 얻을 수 있다.Here, since occlusion exists, points on the virtual scanline cannot be equally observed in the converted adaptive scanline, but as shown in FIG. 6, the point d observed in the adaptive scanline ) and the point (c) on the virtual scan line are points on the same object, since the direction of motion is the same, information about the motion direction can be obtained in the same way.

따라서, 본 발명은, 적응 스켄라인에서, 앞으로 진행하는 물체를 검출하여 추월하는 장애물을 검출한다.Accordingly, the present invention detects an obstacle overtaking by detecting an object moving forward in the adaptive scanline.

그 후, 본 발명은, 특정 영역의 스켄라인에서, 장애물이 검출이 되면, 컷인 장애물로 판단하고, 그렇지 않으면 단순 추월하는 장애물로 판단한다.Then, according to the present invention, if an obstacle is detected in the scanline of a specific area, it is determined as a cut-in obstacle, otherwise it is determined as an obstacle to be simply overtaken.

도 8은 특성 맵을 생성하는 과정을 설명하기 위한 도면이고, 도 9는 원 영상에 설정된 스켄라인을 보여주는 도면이며, 도 10은 시공간 패턴 맵을 생성하는 과정을 설명하기 위한 도면이다.FIG. 8 is a view for explaining a process of generating a characteristic map, FIG. 9 is a view showing a scan line set in an original image, and FIG. 10 is a view for explaining a process of generating a spatiotemporal pattern map.

도 8 및 도 9에 도시된 바와 같이, 본 발명은, Sobel, SUSAN 등의 에지 검출기(Edge detector)를 통하여, 시공간 패턴 맵(STP Map)에 구성할 데이터를 단순화 한다.8 and 9, the present invention simplifies data to be configured in a space-time pattern map (STP Map) through edge detectors such as Sobel and SUSAN.

도 8과 같이, 본 발명은, 원 영상의 화소값 대신 에지를 기반으로 특징 맵(Feature Map, Edge Map)을 생성하고, 생성된 특징 맵을 후처리할 수 있다.As shown in FIG. 8 , according to the present invention, a feature map (edge map) may be generated based on an edge instead of a pixel value of an original image, and the generated feature map may be post-processed.

여기서, 후처리의 이유는, 특징 맵의 데이터 노이즈를 제거하고, 필요한 성분들이 잘 드러나게 해주기 때문이다.Here, the reason for the post-processing is to remove the data noise of the feature map and to reveal the necessary components well.

또한, 본 발명은, 후처리된 특징 맵을 이진화 후 스무딩(smoothing)을 적용할 수도 있다.Also, according to the present invention, smoothing may be applied after binarizing the post-processed feature map.

즉, 본 발명의 특성 맵 생성부는, 획득한 영상의 에지를 토대로, 특성 맵을 생성할 수 있다.That is, the characteristic map generator of the present invention may generate the characteristic map based on the edge of the acquired image.

또한, 본 발명의 특성 맵 생성부는, 획득한 영상의 에지를 토대로, 특성 맵을 생성하면, 특성 맵의 노이즈를 제거할 수도 있다.In addition, the feature map generator of the present invention may remove noise from the feature map when the feature map is generated based on the edge of the acquired image.

한편, 도 9와 같이, 원 영상에는, 다수의 스켄라인들이 설정될 수 있는데, 원 영상의 각 위치별 스켄라인의 길이가 다양할 수 있다.Meanwhile, as shown in FIG. 9 , a plurality of scan lines may be set in the original image, and the length of the scan lines for each position of the original image may vary.

따라서, 본 발명은, 도 10과 같이, 일정한 크기의 시공간 패턴 맵을 생성하기 위해서, 보간(interpolation)을 수행하여 길이가 일정한 스켄라인(1)의 행 이미지(row image)를 구성하고, 다음 프레임에서 같은 위치의 스켄라인(1)을 마찬가지로 길이가 일정한 행 이미지로 구성하여 이전 행 이미지(row image) 위에 쌓아가는 작업을 반복한다.Therefore, in the present invention, as shown in FIG. 10 , in order to generate a spatiotemporal pattern map of a certain size, interpolation is performed to construct a row image of a scanline 1 having a constant length, and the next frame Similarly, the scan line (1) at the same position is configured as a row image with a constant length and stacked on top of the previous row image is repeated.

이렇게 구성된 스켄라인이 적층된 영상을 시공간 패턴 맵이라 한다.The image in which the scanlines constructed in this way are stacked is called a space-time pattern map.

마찬가지로, 선택된 다른 스켄라인(2, 3, 4)에 대하여도 같은 작업을 반복한다.Similarly, the same operation is repeated for the other selected scanlines (2, 3, 4).

본 발명에서는, 일 예로, 선택된 스켄라인(1, 2, 3, 4)이 4개이므로, 약 4개의 시공간 패턴 맵이 존재할 수 있다.In the present invention, as an example, since there are four selected scan lines 1, 2, 3, and 4, about four spatiotemporal pattern maps may exist.

즉, 본 발명의 시공간 패턴 맵 생성부는, 각 스켄라인에 해당하는 행 이미지를 한 프레임마다 생성하고, 생성된 각 스켄라인의 행 이미지를 한 프레임 이상 누적하여 저장하며, 저장된 행 이미지들을 토대로, 각 스켄라인의 행 이미지가 누적된 시공간 패턴 맵을 생성할 수 있다.That is, the spatiotemporal pattern map generation unit of the present invention generates a row image corresponding to each scanline for each frame, accumulates and stores one or more frames of the generated row images of each scanline, and based on the stored row images, each A space-time pattern map in which row images of scanlines are accumulated can be generated.

여기서, 시공간 패턴 맵은, 다수의 서브 유닛들을 포함하고, 다수의 서브 유닛은, 적어도 3프레임 이상이 누적된 행 이미지를 포함할 수 있지만, 이에 한정되지는 않는다.Here, the spatiotemporal pattern map includes a plurality of sub-units, and the plurality of sub-units may include a row image in which at least three frames are accumulated, but is not limited thereto.

도 11은 누적된 시공간 패턴 맵과 그의 서브 유닛을 보여주는 도면이고, 도 12는 시공간 패턴 맵의 추세선 기울기를 보여주는 도면이며, 도 13은 추세선의 기울기에 따른 장애물 이동 속도를 보여주는 도면이고, 도 14는 미소 기울기 계산 과정을 설명하기 위한 도면이다.11 is a view showing the accumulated spatiotemporal pattern map and its sub-units, FIG. 12 is a view showing the inclination of the trend line of the spatiotemporal pattern map, FIG. 13 is a view showing the obstacle movement speed according to the inclination of the trend line, and FIG. It is a diagram for explaining a process of calculating a small gradient.

도 11에 도시된 바와 같이, 행 이미지의 누적 크기가 3보다 클 때, 즉 최소 3프레임 이상의 스켄라인이 누적된 시공간 패턴 맵이 생성되면, 최근의 행 이미지 3개만으로 구성된 시공간 패?? 맵을 장애물 검출의 최소 단위로 하는 시공간 패턴 맵(610)의 하위 서브 유닛(Sub Unit)(620)을 생성한다.As shown in FIG. 11, when the cumulative size of row images is greater than 3, that is, when a spatiotemporal pattern map in which at least 3 frames of scanlines are accumulated, a spatiotemporal pattern map composed of only three recent row images? A sub-unit 620 of the spatio-temporal pattern map 610 using the map as the minimum unit of obstacle detection is generated.

이는 시공간 패턴이 누적되어 기억 용량이 필요 이상 비대하게 되는 것을 막으며, 현재 스켄라인을 포함한 이전 2프레임의 시간만을 사용하여 실시간으로 장애물을 인식하기 위한 것이다.This is to prevent the memory capacity from being enlarged more than necessary due to the accumulation of spatiotemporal patterns, and to recognize obstacles in real time using only the time of the previous two frames including the current scan line.

그리고, 도 12와 같이, 시공간 패턴 맵(610)의 서브 유닛(620)이 구성되면, 이 안에서 가장 밝게 잘 나타나는 추세선(630)의 기울기를 구한다.And, as shown in FIG. 12 , when the sub-unit 620 of the spatiotemporal pattern map 610 is configured, the slope of the trend line 630 that appears the brightest in this is obtained.

일반적인 데이터 피팅(fitting) 방법을 사용해도 되지만, 본 발명과 같이, 짧은 시간 간격의 시공간 패턴을 분석하기 위해서는, Recursive & Feedback 방법으로 구현하는 것이 타당하며, 추세선(630)이 다수 있을 때는, 가장 일정한 룰을 바탕으로 대표적인 추세선(630)과 그 기울기 하나를 선정한다.A general data fitting method may be used, but as in the present invention, to analyze a spatiotemporal pattern of a short time interval, it is appropriate to implement the Recursive & Feedback method, and when there are a plurality of trend lines 630, the most constant A representative trend line 630 and one slope thereof are selected based on the rule.

도 12와 같이, 화면 상에서 배경은 뒤로 밀리고, 컷인 장애물이 상대적으로 앞으로 진행하는 현상이 스켄라인 상에 기울기로써 나타나게 된다.As shown in FIG. 12 , a phenomenon in which the background is pushed back on the screen and the cut-in obstacle moves relatively forward appears as an inclination on the scan line.

도 13과 같이, 추세선(Estimated line)(630)의 기울기가 양수(730)이면 자차보다 빠른 장애물로 판단하고, 음수(710)이면 느린 장애물로 판단하며, 그 사이 기울기가 없는 구간(710)은, 자차와 유사 빠르기로 판단할 수 있다.13, if the slope of the trend line (Estimated line) 630 is positive 730, it is determined as an obstacle faster than the own vehicle, and if it is negative 710, it is determined as a slow obstacle. , it can be judged that the speed is similar to that of the own car.

본 발명의 특징 중 하나는, 짧은 시간의 시공간 패턴 데이터를 바탕으로 하기 때문에 기울기의 정확한 계산은 포함되지 않는다.One of the features of the present invention is that accurate calculation of the slope is not included because it is based on short-time spatiotemporal pattern data.

이는 본 발명이 기울기의 정확한 값에 의미가 있는 것이 아니라, 기울기의 부호만을 이용하여 장애물의 검출에 사용하기 때문이다.This is because the present invention does not have any meaning in the exact value of the inclination, but uses only the sign of the inclination to detect the obstacle.

따라서 오히려 중요한 부분은, 시공간 패턴 상에서 기울기를 구할 타당한 선분을 찾는 것이라 할 수 있다.Therefore, it can be said that the more important part is to find a reasonable line segment for which the slope is to be obtained on the spatio-temporal pattern.

도 14와 같이, Recursive & Feedback 구조의 미소 기울기 계산 방법이란, 이동 장애물로 오검출된 경우, 전후 처리 관계를 이용하면 해당 오검출 점은 이동 장애물 위의 점과 다르게 운동할 것(실제 장애물이 아니므로)이므로 재검출되지 않을 가능성이 커지며, 그럼에도 불구하고 이동 장애물로 검출된 점은 신뢰도를 가지게 되어 다음 보간에서 이동 장애물일 확률이 높다는 점을 이용한 것이다.As shown in FIG. 14 , in the case of erroneous detection as a moving obstacle, the erroneous detection point will move differently from the point on the moving obstacle (because it is not an actual obstacle), if the relationship between the before and after processing is used. ), so the possibility that it will not be re-detected increases, nevertheless, the point detected as a moving obstacle has reliability, so it takes advantage of the fact that there is a high probability that it is a moving obstacle in the next interpolation.

도 15 내지 도 17은 장애물 검출 결과에 따른 시공간 패턴 맵을 보여주는 도면이다.15 to 17 are views showing a spatiotemporal pattern map according to an obstacle detection result.

도 15 내지 도 17에 도시된 바와 같이, 본 발명은, 전방 카메라로 얻은 연속 영상을 이용하여 장애물의 변화를 분석하고 특정 변화를 보이는 장애물을 검출하는 기술로서, 시공간 패턴 맵을 이용하여 자차보다 빠르게 움직이는 장애물을 검출할 수 있다.As shown in FIGS. 15 to 17 , the present invention is a technology for analyzing changes in obstacles using continuous images obtained with a front camera and detecting obstacles showing a specific change, faster than the own vehicle using a spatiotemporal pattern map. Moving obstacles can be detected.

또한, 본 발명은, 자차보다 빠르게 움직이는 장애물을 검출하기 때문에, 주행 원본 영상에서 분석하는 기존 방법들에 비해 계산속도가 빠르다.In addition, since the present invention detects an obstacle moving faster than the own vehicle, the calculation speed is faster than the existing methods of analyzing the original driving image.

또한, 본 발명은, 주행 영상의 시간적 변화와 공간적 변화를 동시에 이용 가능하므로, 장애물을 검출하는 처리 시간이 빠르다.In addition, according to the present invention, since the temporal change and the spatial change of the driving image can be used simultaneously, the processing time for detecting the obstacle is fast.

또한, 본 발명은, 원 영상을 기반으로 하는 장애물을 검출하는 방식이 아니라, 시공간 패턴 맵을 기반으로 장애물을 검출하므로, 렌즈 왜곡 등과 같은 카메라 성능 및 영상 취득 환경에 영향을 받지 않는다.In addition, since the present invention detects an obstacle based on a spatio-temporal pattern map rather than a method of detecting an obstacle based on an original image, it is not affected by camera performance and image acquisition environment such as lens distortion.

그리고, 본 발명은, 주행 영상에서 차량의 주행 정보를 바탕으로 적응적으로 카메라 정면 방향으로 스켄라인이 설정되도록 하는 방법을 제안하고, 실시간 처리를 위하여 1프레임 이내의 매우 짧은 시간에 해당하는 시공간 패턴을 생성하며, 실시간 처리의 단점을 보완하기 위하여 이전 결과를 활용한 feedback 방식으로 현재 생성된 시공간 패턴을 분석하여 장애물을 검출하는 방법을 제안한다.In addition, the present invention proposes a method for adaptively setting a scan line in the front direction of a camera based on driving information of a vehicle in a driving image, and a space-time pattern corresponding to a very short time within one frame for real-time processing In order to compensate for the shortcomings of real-time processing, we propose a method for detecting obstacles by analyzing the currently generated spatiotemporal pattern in a feedback method using previous results.

본 발명은, 시공간 패턴 상에서 무늬의 기울기를 계산하여 움직이는 장애물을 검출하기 때문에 원영상의 모든 위치에서 영상 정보를 분석하는 기존 방법들에 비해 계산속도가 빠르며 렌즈 왜곡 등 카메라에 비의존적으로 성능이 안정적이며, 광각/협각 관계없이 응용할 수 있는 장점이 있다.The present invention detects moving obstacles by calculating the gradient of the pattern on the spatio-temporal pattern, so the calculation speed is faster than the existing methods of analyzing image information at all positions of the original image, and the performance is stable without depending on the camera such as lens distortion. It has the advantage of being applicable regardless of wide angle/narrow angle.

도 18은 본 발명에 따른 차량의 장애물 검출 방법을 설명하기 위한 흐름도이다.18 is a flowchart illustrating a method for detecting an obstacle in a vehicle according to the present invention.

도 18에 도시된 바와 같이, 본 발명은, 영상을 획득한다.(S10)18, the present invention acquires an image. (S10)

그리고, 본 발명은, 획득한 영상의 특성 맵을 생성한다.(S20)And, the present invention generates a characteristic map of the acquired image. (S20)

이어, 본 발명은, 생성된 특성 맵에 상응하는 적어도 하나의 스켄라인을 설정한다.(S30)Next, the present invention sets at least one scanline corresponding to the generated characteristic map. (S30)

다음, 본 발명은, 설정된 스켄라인에 상응하는 시공간 패턴 맵을 생성한다.(S40)Next, the present invention generates a spatiotemporal pattern map corresponding to the set scan line (S40).

그리고, 본 발명은, 생성된 시공간 패턴 맵을 분석하여 장애물을 검출한다.(S50)And, in the present invention, an obstacle is detected by analyzing the generated space-time pattern map. (S50)

이어, 본 발명은, 검출된 장애물에 따라, 차량의 운행을 제어한다.(S60)Next, the present invention controls the operation of the vehicle according to the detected obstacle. (S60)

다음, 본 발명은, 장애물 검출 종료 요청이 수신되는지를 확인하고,(S70) 검출 종료 요청이 있으면 장애물 검출을 종료한다.Next, according to the present invention, it is checked whether an obstacle detection end request is received ( S70 ), and when there is a detection termination request, the obstacle detection is terminated.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. The present invention described above can be implemented as computer-readable code on a medium in which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (eg, transmission over the Internet) that is implemented in the form of.

따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

100: 영상 획득부
200: 특성 맵 생성부
300: 스켄라인 설정부
400: 시공간 패턴 맵 생성부
500: 장애물 검출부
600: 제어부
100: image acquisition unit
200: characteristic map generation unit
300: scan line setting unit
400: space-time pattern map generation unit
500: obstacle detection unit
600: control unit

Claims (20)

영상을 획득하는 영상 획득부;
상기 획득한 영상의 특성 맵을 생성하는 특성 맵 생성부;
상기 생성된 특성 맵에 상응하는 적어도 하나의 스켄라인을 설정하는 스켄라인 설정부;
상기 설정된 스켄라인에 상응하는 시공간 패턴 맵을 생성하는 시공간 패턴 맵 생성부;
상기 생성된 시공간 패턴 맵을 분석하여 장애물을 검출하는 장애물 검출부; 그리고,
상기 검출된 장애물에 따라, 차량의 운행을 제어하는 제어부를 포함하는 것을 특징으로 하는 차량의 장애물 검출 장치.
an image acquisition unit for acquiring an image;
a feature map generator generating a feature map of the acquired image;
a scan line setting unit for setting at least one scan line corresponding to the generated characteristic map;
a spatiotemporal pattern map generating unit that generates a spatiotemporal pattern map corresponding to the set scan line;
an obstacle detection unit for detecting an obstacle by analyzing the generated space-time pattern map; and,
and a controller for controlling the operation of the vehicle according to the detected obstacle.
제1 항에 있어서,
상기 특성 맵 생성부는, 상기 획득한 영상의 에지를 토대로, 특성 맵을 생성하는 것을 특징으로 하는 차량의 장애물 검출 장치.
According to claim 1,
The characteristic map generator is configured to generate a characteristic map based on an edge of the acquired image.
제2 항에 있어서,
상기 특성 맵 생성부는, 상기 획득한 영상의 에지를 토대로, 특성 맵을 생성하면, 상기 특성 맵의 노이즈를 제거하는 것을 특징으로 하는 차량의 장애물 검출 장치.
3. The method of claim 2,
and the characteristic map generator removes noise from the characteristic map when the characteristic map is generated based on the edge of the acquired image.
제1 항에 있어서,
상기 스켄라인 설정부는,
상기 특성 맵으로부터 카메라의 정면 방향 벡터를 계산하는 정면 방향 벡터 계산부;
상기 계산된 정면 방향 벡터를 토대로, 지면 좌표계 내의 제1 스켄라인을 생성하는 제1 스켄라인 생성부;
상기 생성된 제1 스켄라인을 토대로, 영상 좌표계 내의 제2 스켄라인을 생성하는 제2 스켄라인 생성부;
상기 생성된 제2 스켄라인의 오차를 보정하는 스켄라인 보정부를 포함하는 것을 특징으로 하는 차량의 장애물 검출 장치.
According to claim 1,
The scan line setting unit,
a front direction vector calculation unit for calculating a front direction vector of the camera from the characteristic map;
a first scanline generator that generates a first scanline in a ground coordinate system based on the calculated front direction vector;
a second scanline generator for generating a second scanline in an image coordinate system based on the generated first scanline;
and a scan line correcting unit for correcting an error of the generated second scan line.
제4 항에 있어서,
상기 정면 방향 벡터 계산부는, 상기 카메라의 주점에 해당하는 지면 좌표와 상기 카메라의 지면 좌표를 산출하고, 상기 산출된 두 좌표들간의 차이를 토대로, 정면 방향 벡터를 산출하는 것을 특징으로 하는 차량의 장애물 검출 장치.
5. The method of claim 4,
The front direction vector calculation unit calculates a ground coordinate corresponding to the main point of the camera and a ground coordinate of the camera, and calculates a front direction vector based on a difference between the calculated two coordinates. detection device.
제4 항에 있어서,
상기 제1 스켄라인 생성부는, 상기 산출된 정면 방향 벡터와 직교하는 직선을 구하고, 상기 구해진 직선을 기준으로 선택된 영역을 다수의 선분으로 분할하며, 상기 분할된 선분의 중점을 기준점으로 정하고, 상기 정해진 기준점을 지나면서 상기 정면 방향 벡터와 평행한 제1 스켄라인을 생성하는 것을 특징으로 하는 차량의 장애물 검출 장치.
5. The method of claim 4,
The first scanline generating unit obtains a straight line orthogonal to the calculated front direction vector, divides a selected region based on the obtained straight line into a plurality of line segments, sets a midpoint of the divided line segment as a reference point, and An obstacle detecting apparatus for a vehicle, characterized in that it generates a first scan line parallel to the front direction vector while passing through a reference point.
제6 항에 있어서,
상기 구해진 직선을 기준으로 선택된 영역은, 장애물을 검출하기 위한 영역인 것을 특징으로 하는 차량의 장애물 검출 장치.
7. The method of claim 6,
The area selected based on the obtained straight line is an area for detecting an obstacle.
제6 항에 있어서,
상기 제1 스켄라인은, 상기 정면 방향 벡터와 해당 기준점을 포함하는 것을 특징으로 하는 차량의 장애물 검출 장치.
7. The method of claim 6,
The first scan line may include the front direction vector and a corresponding reference point.
제4 항에 있어서,
상기 지면 좌표계 내의 제1 스켄라인은, 다수 개이고,
상기 다수의 제1 스켄라인들은, 서로 평행한 것을 특징으로 하는 차량의 장애물 검출 장치.
5. The method of claim 4,
A plurality of first scan lines in the ground coordinate system,
The plurality of first scan lines are an obstacle detecting apparatus for a vehicle, characterized in that parallel to each other.
제4 항에 있어서,
상기 제2 스켄라인 생성부는, 상기 생성된 제1 스켄라인을 토대로, 지평선을 구하고, 상기 제1 스켄라인을 영상 좌표로 변환한 직선을 토대로, 소실점을 구한 다음, 상기 변환한 직선 상의 기준점과 상기 소실점을 지나는 제2 스켄라인을 생성하는 것을 특징으로 하는 차량의 장애물 검출 장치.
5. The method of claim 4,
The second scanline generating unit obtains a horizon based on the generated first scanline, obtains a vanishing point based on a straight line converted from the first scanline into image coordinates, and then obtains a reference point on the converted straight line and the An obstacle detecting apparatus for a vehicle, characterized in that generating a second scan line passing through the vanishing point.
제10 항에 있어서,
상기 제2 스켄라인 생성부는, 상기 지평선을 구할 때, 상기 영상 좌표계에서 상기 제1 스켄라인들이 하나의 소실점에 모이면, 상기 소실점을 지나는 직선을 지평선으로 설정하는 것을 특징으로 하는 차량의 장애물 검출 장치.
11. The method of claim 10,
The second scan line generator, when obtaining the horizon, sets a straight line passing through the vanishing point as a horizon when the first scan lines gather at one vanishing point in the image coordinate system. .
제10 항에 있어서,
상기 제2 스켄라인 생성부는, 상기 소실점을 구할 때, 상기 지면 좌표계 내의 제1 스켄라인을 영상 좌표계의 직선으로 변환하고, 상기 변환된 직선과 지평선과의 교점을 소실점으로 설정하는 것을 특징으로 하는 차량의 장애물 검출 장치.
11. The method of claim 10,
The second scan line generator, when obtaining the vanishing point, converts the first scan line in the ground coordinate system into a straight line in the image coordinate system, and sets an intersection point between the converted straight line and the horizon as a vanishing point. obstacle detection device.
제10 항에 있어서,
상기 스켄라인 보정부는, 상기 지평선 근방에 위치하는 제2 스켄라인 일부를 제거하여 상기 제2 스켄라인의 오차를 보정하는 것을 특징으로 하는 차량의 장애물 검출 장치.
11. The method of claim 10,
and the scan line correcting unit corrects an error of the second scan line by removing a portion of the second scan line located near the horizon.
제1 항에 있어서,
상기 시공간 패턴 맵 생성부는,
상기 각 스켄라인에 해당하는 행 이미지를 한 프레임마다 생성하는 제1 생성부;
상기 생성된 각 스켄라인의 행 이미지를 한 프레임 이상 누적하여 저장하는 저장부;
상기 저장부에 저장된 행 이미지들을 토대로, 각 스켄라인의 행 이미지가 누적된 시공간 패턴 맵을 생성하는 제2 생성부를 포함하는 것을 특징으로 하는 차량의 장애물 검출 장치.
According to claim 1,
The spatiotemporal pattern map generation unit,
a first generation unit generating row images corresponding to the respective scan lines for each frame;
a storage unit for accumulating and storing one or more frames of the generated row images of each scan line;
and a second generator for generating a spatiotemporal pattern map in which row images of each scan line are accumulated, based on the row images stored in the storage unit.
제14 항에 있어서,
상기 시공간 패턴 맵은, 다수의 서브 유닛들을 포함하고,
상기 다수의 서브 유닛은, 적어도 3프레임 이상이 누적된 행 이미지를 포함하는 것을 특징으로 하는 차량의 장애물 검출 장치.
15. The method of claim 14,
The spatiotemporal pattern map includes a plurality of sub-units,
The plurality of sub-units, the obstacle detecting apparatus for a vehicle, characterized in that it includes a row image in which at least three frames or more are accumulated.
제1 항에 있어서,
상기 장애물 검출부는, 상기 생성된 시공간 패턴 맵을 분석하여 상기 시공간 패턴 맵에 포함되는 추세선의 기울기를 구하고, 상기 기울기를 토대로, 장애물을 검출하는 것을 특징으로 하는 차량의 장애물 검출 장치.
According to claim 1,
The obstacle detecting unit is configured to analyze the generated space-time pattern map to obtain a gradient of a trend line included in the space-time pattern map, and to detect the obstacle based on the gradient.
제16 항에 있어서,
상기 장애물 검출부는, 상기 기울기가 양수이면, 자차보다 빠른 장애물로 인식하고, 상기 기울기가 음수이면, 자차보다 느린 장애물로 인식하는 것을 특징으로 하는 차량의 장애물 검출 장치.
17. The method of claim 16,
The obstacle detecting unit, when the inclination is positive, recognizes an obstacle faster than the own vehicle, and when the inclination is negative, recognizes it as an obstacle slower than the own vehicle.
제16 항에 있어서,
상기 장애물 검출부는, 상기 시공간 패턴 맵에 포함되는 추세선이 다수 개일 때, 가장 밝은 추세선을 대표 추세선으로 선택하고, 상기 선택된 대표 추세선의 기울기를 구하는 것을 특징으로 하는 차량의 장애물 검출 장치.
17. The method of claim 16,
The obstacle detecting unit, when there are a plurality of trend lines included in the spatiotemporal pattern map, selects a brightest trend line as a representative trend line, and obtains a slope of the selected representative trend line.
제18 항에 있어서,
상기 장애물 검출부는, 상기 대표 추세선이 다수 개일 때, 가장 일정한 룰을 토대로 하나의 대표 추세선을 선택하고, 상기 선택된 대표 추세선의 기울기를 구하는 것을 특징으로 하는 차량의 장애물 검출 장치.
19. The method of claim 18,
and the obstacle detecting unit selects one representative trend line based on a most constant rule when there are a plurality of representative trend lines, and obtains a slope of the selected representative trend line.
영상을 획득하는 단계;
상기 획득한 영상의 특성 맵을 생성하는 단계;
상기 생성된 특성 맵에 상응하는 적어도 하나의 스켄라인을 설정하는 단계;
상기 설정된 스켄라인에 상응하는 시공간 패턴 맵을 생성하는 단계;
상기 생성된 시공간 패턴 맵을 분석하여 장애물을 검출하는 단계; 그리고,
상기 검출된 장애물에 따라, 차량의 운행을 제어하는 단계를 포함하는 것을 특징으로 하는 차량의 장애물 검출 방법.
acquiring an image;
generating a characteristic map of the acquired image;
setting at least one scanline corresponding to the generated characteristic map;
generating a spatiotemporal pattern map corresponding to the set scanline;
detecting an obstacle by analyzing the generated space-time pattern map; and,
and controlling the operation of the vehicle according to the detected obstacle.
KR1020170022690A 2017-02-21 2017-02-21 Apparatus and mathod for detecting obstacle of a vehicle KR102295579B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170022690A KR102295579B1 (en) 2017-02-21 2017-02-21 Apparatus and mathod for detecting obstacle of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170022690A KR102295579B1 (en) 2017-02-21 2017-02-21 Apparatus and mathod for detecting obstacle of a vehicle

Publications (2)

Publication Number Publication Date
KR20180096236A KR20180096236A (en) 2018-08-29
KR102295579B1 true KR102295579B1 (en) 2021-08-30

Family

ID=63434572

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170022690A KR102295579B1 (en) 2017-02-21 2017-02-21 Apparatus and mathod for detecting obstacle of a vehicle

Country Status (1)

Country Link
KR (1) KR102295579B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146185A (en) 2006-12-06 2008-06-26 Univ Waseda Moving object detection device and program for moving object detection device
JP2010064531A (en) 2008-09-08 2010-03-25 Toyota Central R&D Labs Inc White line detection device
JP2010079899A (en) 2008-09-25 2010-04-08 Samsung Electronics Co Ltd Conversion method and apparatus with depth map generation

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101205565B1 (en) * 2008-01-29 2012-11-27 주식회사 만도 Method for Dectecting Front and Rear Vehicle by Using Image
KR101239718B1 (en) * 2010-12-14 2013-03-06 주식회사 이미지넥스트 System and method for detecting object of vehicle surroundings

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146185A (en) 2006-12-06 2008-06-26 Univ Waseda Moving object detection device and program for moving object detection device
JP2010064531A (en) 2008-09-08 2010-03-25 Toyota Central R&D Labs Inc White line detection device
JP2010079899A (en) 2008-09-25 2010-04-08 Samsung Electronics Co Ltd Conversion method and apparatus with depth map generation

Also Published As

Publication number Publication date
KR20180096236A (en) 2018-08-29

Similar Documents

Publication Publication Date Title
CN113486796B (en) Unmanned vehicle position detection method, unmanned vehicle position detection device, unmanned vehicle position detection equipment, storage medium and vehicle
US10769480B2 (en) Object detection method and system
JP3868876B2 (en) Obstacle detection apparatus and method
US10404917B2 (en) One-pass video stabilization
CN105760826B (en) Face tracking method and device and intelligent terminal
CN106709895B (en) Image generation method and apparatus
JP7151488B2 (en) Moving object detection device, moving object detection method and program
KR101621370B1 (en) Method and Apparatus for detecting lane of road
US8284239B2 (en) Asynchronous photography automobile-detecting apparatus
US9098750B2 (en) Gradient estimation apparatus, gradient estimation method, and gradient estimation program
US20170111585A1 (en) Method and system for stabilizing video frames
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
US20150178573A1 (en) Ground plane detection
JP2016152027A (en) Image processing device, image processing method and program
KR102013781B1 (en) a Method for object detection using two cameras with different focal lengths and apparatus thereof
WO2017101292A1 (en) Autofocusing method, device and system
JP2019218022A (en) Rail track detection device
JP6583923B2 (en) Camera calibration apparatus, method and program
KR102295579B1 (en) Apparatus and mathod for detecting obstacle of a vehicle
JP5848665B2 (en) Moving object motion vector detection apparatus, moving object motion vector detection method, and program
JP6577595B2 (en) Vehicle external recognition device
CN110009683B (en) Real-time on-plane object detection method based on MaskRCNN
JP2018197945A (en) Obstacle detection apparatus and obstacle detection method
EP2962249A1 (en) Road region detection
US20220277595A1 (en) Hand gesture detection method and apparatus, and computer storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant