KR101773822B1 - Vision based lane recognition apparatus - Google Patents

Vision based lane recognition apparatus Download PDF

Info

Publication number
KR101773822B1
KR101773822B1 KR1020140006850A KR20140006850A KR101773822B1 KR 101773822 B1 KR101773822 B1 KR 101773822B1 KR 1020140006850 A KR1020140006850 A KR 1020140006850A KR 20140006850 A KR20140006850 A KR 20140006850A KR 101773822 B1 KR101773822 B1 KR 101773822B1
Authority
KR
South Korea
Prior art keywords
lane
ipm
image
unit
road
Prior art date
Application number
KR1020140006850A
Other languages
Korean (ko)
Other versions
KR20150086789A (en
Inventor
신주석
변성재
이은령
권기구
이수인
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020140006850A priority Critical patent/KR101773822B1/en
Publication of KR20150086789A publication Critical patent/KR20150086789A/en
Application granted granted Critical
Publication of KR101773822B1 publication Critical patent/KR101773822B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

잡음에 강인하고 직선 및 곡선의 검출이 가능한 영상 기반의 차선 인식 장치를 제시한다. 제시된 장치는 비전 센서로부터의 도로 영상에서 주행 차선을 포함하는 관심 영역을 설정하는 관심영역 설정부, 관심영역 설정부로부터 제공받은 관심 영역이 설정된 영상에 대해 역원근 매핑(IPM)을 수행하는 IPM부, IPM부에서 출력되는 IPM 영상에 대해 필터링을 수행하고 필터링된 IPM 영상의 픽셀에서 기설정된 임계값 이하의 값을 갖는 픽셀을 특정 값으로 만드는 필터링 및 임계값 처리부, 필터링 및 임계값 처리부에서 처리된 영상에서 차선을 검출하는 차선 검출부, 차선 검출부에 의해 검출된 차선을 피팅하는 차선 추적부, 차선 추적부에 의해 피팅된 차선을 역 IPM 변환하는 역 IPM부, 및 역 IPM부에 의해 역IPM으로 변환된 차선에 대하여 도로모델을 적용하여 도로 방정식을 도출함으로써 최종의 차선을 생성하여 출력하는 차선 출력부를 포함한다.We propose an image-based lane recognition system that is robust to noise and capable of detecting straight lines and curves. The proposed apparatus includes an interest area setting unit for setting an area of interest including a driving lane in a road image from a vision sensor, an IPM unit for performing inverse perspective mapping (IPM) on an image of a region of interest provided from the ROI setting unit, A filtering and threshold processing unit for filtering the IPM image output from the IPM unit and converting a pixel having a value lower than a predetermined threshold value into a specific value in pixels of the filtered IPM image, A lane-tracking unit for fitting lanes detected by the lane detecting unit, an inverse IPM unit for performing inverse IPM conversion on the lane fitted by the lane-following unit, and an inverse-IPM unit for converting the in- And a lane-output unit for generating and outputting a final lane by deriving a road equation by applying a road model to the lane.

Description

영상 기반의 차선 인식 장치{Vision based lane recognition apparatus}[0001] VIDEO BASED LINE RECEPTION APPARATUS [0002]

본 발명은 차량 안전시스템 등에서 활용가능한 영상 기반의 차선 인식 장치에 관한 것으로, 보다 상세하게는 비전 센서를 이용하여 입력되는 영상으로부터 주행 차선을 인식할 수 있는 장치에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image-based lane recognition apparatus that can be used in a vehicle safety system and the like. More particularly, the present invention relates to an apparatus capable of recognizing a driving lane from an input image using a vision sensor.

종래의 차선 검출 방법으로는 에지 기반, 색상 기반, 도로 모델 기반 등의 방법이 있다. Conventional lane detection methods include edge-based, color-based, and road-model-based methods.

간단한 에지 추출과 허프 트랜스폼을 이용하여 직선 차선 검출방법의 경우, 곡선 검출에 한계가 있다. In the case of a straight lane detection method using a simple edge extraction and a Hough transform, there is a limit to curve detection.

또한, 도로 모델 기반의 확률적 차선 검출 알고리즘의 경우, 도로에 차선과 유사한 잡음이 포함되어 있으면 검출된 차선의 오차범위가 크며 확률에 의하여 정반대의 곡선이 검출될 수도 있다.Also, in case of the probabilistic lane detection algorithm based on the road model, if the road contains noise similar to the lane, the error range of the detected lane is large and the opposite curve may be detected by probability.

따라서, 직선 및 곡선 검출이 가능한 강인한 차선 인식 알고리즘이 요구된다.Therefore, a robust lane recognition algorithm capable of detecting straight lines and curves is required.

관련 선행기술로는, 차량의 진동이나 조명의 변화, 차선 변경 상황 등에도 적은 연산량으로 매우 간단하게 차선 추적 및 차선 종류, 차선 색, 차선 이탈 경고 등을 강인하게 수행할 수 있는 내용이, 대한민국공개특허 제2012-0009590호(차선 인식 시스템 및 방법)에 개시되었다.Related prior arts include a method of robustly performing lane tracking, lane type, lane color, lane departure warning, etc. in a very simple manner with a small amount of computation even in the case of vehicle vibration, lighting change, Patent Literature No. 2012-0009590 (Lane Recognition System and Method).

다른 관련 선행기술로는, 카메라로부터 입력받은 도로 영상을 전처리하고 관심 영역내의 직선 또는 곡선의 라인을 로그-폴라 변환한 후 RANSAC 알고리즘으로 커브 피팅하고 다시 역 로그-폴라 변환하는 것에 의해 도로의 차선 검출 효율을 향상시키고 검출 정확도를 높일 수 있는 내용이, 대한민국공개특허 제2013-0095967호(차선 인식 방법 및 장치)에 개시되었다.Other prior related arts include a method of preprocessing a road image input from a camera, performing a log-polar conversion on a straight line or curve line in the ROI, then performing a curve fitting with the RANSAC algorithm, The contents which can improve the efficiency and increase the detection accuracy are disclosed in Korean Patent Laid-Open Publication No. 2013-0095967 (lane recognition method and apparatus).

본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 잡음에 강인하고 직선 및 곡선의 검출이 가능한 영상 기반의 차선 인식 장치를 제공함에 그 목적이 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an image-based lane recognizing apparatus which is robust against noise and can detect straight lines and curved lines.

상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 영상 기반의 차선 인식 장치는, 비전 센서로부터의 도로 영상에서 주행 차선을 포함하는 관심 영역을 설정하는 관심영역 설정부; 상기 관심영역 설정부로부터 제공받은 관심 영역이 설정된 영상의 원근 효과를 제거하기 위해 역원근 매핑(Inverse Perspective Mapping; IPM)을 수행하는 IPM부; 상기 IPM부에서 출력되는 IPM 영상에 대해 노이즈 제거를 위한 필터링을 수행하고, 상기 필터링된 IPM 영상의 픽셀에서 기설정된 임계값 이하의 값을 갖는 픽셀을 특정 값으로 만드는 필터링 및 임계값 처리부; 상기 필터링 및 임계값 처리부에서 처리된 영상에서 차선을 검출하는 차선 검출부; 상기 차선 검출부에 의해 검출된 차선을 피팅하는 차선 추적부; 상기 차선 추적부에 의해 피팅된 차선을 역 IPM 변환하는 역 IPM부; 및 상기 역 IPM부에 의해 역IPM으로 변환된 차선에 대하여 도로모델을 적용하여 도로 방정식을 도출함으로써 최종의 차선을 생성하여 출력하는 차선 출력부;를 포함한다.According to another aspect of the present invention, there is provided an image-based lane recognition apparatus comprising: a region of interest setting unit that sets a region of interest including a driving lane in a road image from a vision sensor; An IPM unit for performing Inverse Perspective Mapping (IPM) to remove the perspective effect of the image set in the ROI provided from the ROI setting unit; A filtering and threshold processing unit performing filtering for noise reduction on the IPM image output from the IPM unit and converting a pixel having a value less than a predetermined threshold value into a specific value in pixels of the filtered IPM image; A lane detecting unit detecting lanes in the image processed by the filtering and threshold value processor; A lane-tracking unit for fitting a lane detected by the lane detecting unit; A reverse IPM unit for performing inverse IPM conversion on the lane fitted by the lane-tracking unit; And a lane output unit for generating and outputting a final lane by deriving a road equation by applying a road model to the lane converted into the inverse IPM by the inverse IPM unit.

이때, 상기 관심영역 설정부는 휴리스틱한 방법에 의거하여 소실라인의 86%에 해당하는 부분을 최상단으로 시작하여 최하단의 90%에 해당하는 영역으로 관심영역을 설정할 수 있다.At this time, the ROI setting unit may set a ROI corresponding to 86% of the disappearance lines to the top and 90% of the bottom of the ROI based on a heuristic method.

이때, 상기 차선 검출부는 상기 필터링 및 임계값 처리부(16)에서 처리된 영상에서 누적 히스토그램을 이용하여 차선의 후보군을 선택하고, 선택된 차선 후보군을 측위(Localization)하고, 측위(Localization)된 차선 후보에 대해 각각 B-Spline과 RANSAC 알고리즘을 적용하여 차선을 검출할 수 있다.At this time, the lane detecting unit selects the candidate group of the lane using the cumulative histogram in the image processed by the filtering and threshold value processor 16, localizes the selected lane candidate group, and outputs the localized lane candidate The lane can be detected by applying the B-Spline and the RANSAC algorithm to each.

이때, 상기 차선 추적부는 GVF SNAKE 알고리즘을 사용할 수 있다.At this time, the lane-tracking unit may use the GVF SNAKE algorithm.

이때, 상기 차선 출력부는 역 IPM으로 변환된 차선의 시작점, 중간점과 관심영역의 최하단점에 대하여 도로모델을 적용하여 도로 방정식을 도출함으로써 최종의 차선을 생성하여 출력할 수 있다.At this time, the lane-outputting unit may generate a final lane by deriving a road equation by applying a road model to a starting point and an intermediate point of the lane converted into the reverse IPM and a lowest point of the ROI.

이러한 구성의 본 발명에 따르면, 비전 센서를 통하여 입력받은 영상으로부터 관심 영역을 도출하고 관심 영역에서 직선 또는 곡선을 검출 및 피팅하고 역IPM으로 변환한 후 차선의 시작점, 중간점과 관심 영역의 최하단점에 대하여 도로 모델을 적용하여 도로 방정식을 도출함으로써, LDWS(Lane Departure Warning System), LKAS(Lane Keeping Assist System) 등의 응용시스템에서 차선의 래터럴 오프셋(lateral Offset) 등에 활용할 수 있으며 직선 및 곡선 차선 검출 효율을 향상시키고 검출 정확도를 높일 수 있다.According to the present invention having such a configuration, a ROI or a curve is detected and fitted in an ROI from an image input through a vision sensor, and converted into an IPM, and then a start point, a midpoint, (Lane Departure Warning System) and LKAS (Lane Keeping Assist System) by deriving the road equation by applying the road model to the lane departure warning system and the lane lateral offset of the lane in the application system such as the Lane Departure Warning System (LDWS) It is possible to improve the efficiency and increase the detection accuracy.

도 1은 본 발명의 실시예에 따른 영상 기반의 차선 인식 장치의 구성도이다.
도 2는 본 발명의 실시예에 따른 영상 기반의 차선 인식 동작을 설명하기 위한 플로우차트이다.
도 3 내지 도 6은 본 발명의 실시예에 따른 영상 기반의 차선 인식 동작 설명에 채용되는 화면 예들이다.
1 is a block diagram of an image-based lane recognition apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating an image-based lane recognition operation according to an embodiment of the present invention.
FIGS. 3 to 6 show examples of screens employed in the explanation of the image-based lane recognition operation according to the embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the present invention, the same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

도 1은 본 발명의 실시예에 따른 영상 기반의 차선 인식 장치의 구성도이다.1 is a block diagram of an image-based lane recognition apparatus according to an embodiment of the present invention.

도 1에 도시된 본 발명의 실시예에 따른 영상 기반의 차선 인식 장치는, 비전 센서(10), 관심영역 설정부(12), IPM부(14), 필터링 및 임계값 처리부(16), 차선 검출부(18), 차선 추적부(20), 역 IPM부(22), 및 차선 출력부(24)를 포함한다.1, the image-based lane recognizing apparatus includes a vision sensor 10, a ROI setting unit 12, an IPM unit 14, a filtering and threshold value processing unit 16, A lane-tracking unit 20, an inverse IPM unit 22, and a lane-output unit 24. The lane-

비전 센서(10)는 차량의 전방에 설치되어 차량 전방의 도로 영상을 획득한다. 예를 들어, 비전 센서(10)는 카메라를 포함한다.The vision sensor 10 is installed in front of the vehicle to acquire a road image in front of the vehicle. For example, the vision sensor 10 includes a camera.

관심영역 설정부(12)는 비전 센서(10)로부터의 도로 영상에서 주행 차선을 포함하는 관심 영역(ROI; Region Of Interest)을 설정한다. The ROI setting unit 12 sets a region of interest (ROI) including the driving lane on the road image from the vision sensor 10. [

IPM부(14)는 관심영역 설정부(12)를 통해 관심 영역이 설정된 영상을 입력받고 입력받은 영상의 원근 효과를 제거하기 위해 역원근 매핑(Inverse Perspective Mapping; IPM)을 수행한다. 일반적인 도로 영상은 2D상에서 실선 또는 점선으로 구성되어 있지만, 차선이 존재하는 실제의 도로는 3D 평면에 존재하기 때문에 차선 검출 또는 차선 인식을 위해서는 원근 효과를 제거해야 된다. 즉, 원근 효과로 인해 차선 및 도로 파라미터를 정확히 평가하기 어려우므로, 원근 효과를 제거하기 위해 예를 들어 비전 센서(10)의 위치(position), 좌표(coordination), 광학적 특징(optics) 등과 같은 획득 조건을 이용하여 3차원 평면을 2차원 평면으로 매핑시키는 역원근 매핑(IPM)을 수행하는 것이다.The IPM unit 14 performs an inverse perspective mapping (Inverse Perspective Mapping) process to remove the perspective effect of the input image by inputting the image in which the ROI is set through the ROI setting unit 12. A typical road image is composed of a solid line or a dotted line in 2D, but an actual road in which a lane exists is present in the 3D plane, so perspective effects must be removed for lane detection or lane recognition. That is, it is difficult to accurately evaluate the lane and road parameters due to the perspective effect. Therefore, in order to remove the perspective effect, it is necessary to acquire, for example, the position, coordinate, optics, (IPM) which maps a three-dimensional plane to a two-dimensional plane using a condition.

필터링 및 임계값 처리부(16)는 IPM부(14)에서 출력되는 IPM 영상에 대해 노이즈 제거를 위한 필터링을 수행하고, 필터링된 IPM 영상에 대하여 히스토그램 분석에 의한 임계값을 근거로 임계값 이하의 값은 모두 0(zero)로 설정한다. 다시 말해서, 필터링된 IPM 영상에서 차선에 해당하는 부분을 찾아내기 위해서는 차선이라고 생각되어지는 부분의 픽셀을 제외한 나머지 픽셀들을 예를 들어 "0x00"의 값으로 만드는 작업이 필요하다. 그러한 작업을 필터링 및 임계값 처리부(16)에서 수행한다. 한편, 차선과 배경을 구분하기 위해서는 일정한 기준이 되는 값이 있어야 하는데, 이러한 기준값을 임계값(threshold value)이라고 한다. The filtering and threshold value processing unit 16 performs filtering for noise reduction on the IPM image output from the IPM unit 14 and performs filtering on the filtered IPM image with a value lower than a threshold value based on a threshold value by histogram analysis Are all set to zero. In other words, in order to find the portion corresponding to the lane in the filtered IPM image, it is necessary to make the pixels other than the portion of the lane to be a value of, for example, "0x00". And performs such an operation in the filtering and threshold value processor 16. On the other hand, in order to distinguish the lane from the background, there is a certain reference value, and this reference value is called a threshold value.

차선 검출부(18)는 필터링 및 임계값 처리부(16)에서 처리된 영상(즉, 관심영역)에서 차선(즉, 직선 및 곡선)을 검출한다.The lane detecting section 18 detects lanes (i.e., straight lines and curved lines) in the processed image (i.e., the region of interest) in the filtering and threshold value processing section 16.

차선 추적부(20)는 차선 검출부(18)에 의해 검출된 차선을 피팅(fitting)한다.The lane-finding section 20 fits the lane detected by the lane detecting section 18.

역 IPM부(22)는 차선 추적부(20)에 의해 피팅된 차선을 역 IPM 변환한다.The reverse IPM unit 22 performs inverse IPM conversion of the lane fitted by the lane-following unit 20.

차선 출력부(24)는 역 IPM으로 변환된 차선의 시작점, 중간점과 관심영역의 최하단점에 대하여 도로모델을 적용하여 도로 방정식을 도출함으로써 최종의 차선을 생성하여 출력한다.The lane output section 24 generates a final lane by deriving a road equation by applying a road model to a start point and an intermediate point of the lane converted into the reverse IPM and the lowermost point of the ROI.

도 2는 본 발명의 실시예에 따른 영상 기반의 차선 인식 동작을 설명하기 위한 플로우차트이고, 도 3 내지 도 6은 본 발명의 실시예에 따른 영상 기반의 차선 인식 동작 설명에 채용되는 화면 예들이다. FIG. 2 is a flow chart for explaining an image-based lane recognition operation according to an embodiment of the present invention, and FIGS. 3 to 6 illustrate examples of screens employed in an image-based lane recognition operation according to an embodiment of the present invention .

먼저, 관심영역 설정부(12)가 비전 센서(10)로부터 차량 전방의 도로 영상을 입력받는다(S10).First, the ROI setting unit 12 receives a road image in front of the vehicle from the vision sensor 10 (S10).

이어, 관심영역 설정부(12)는 입력받은 도로 영상으로부터 카메라의 외부 파라미터(예컨대, 카메라의 설치 높이, 피치(pitch), 요(Yaw)등)에 의해 도출된 소실 라인을 기준으로 관심영역을 설정한다(S12). 즉, 관심영역 설정부(12)는 도 3에 예시한 바와 같은 영상을 출력할 수 있다. 예를 들어, 관심영역 설정부(12)는 휴리스틱한 방법에 의거하여 소실라인의 86%에 해당하는 부분을 최상단으로 시작하여 최하단의 90%에 해당하는 영역으로 관심영역을 설정할 수 있다(최상단의 경우, 픽셀의 정보가 부정확하다).Then, the ROI setting unit 12 sets the ROI based on the lost line derived by the external parameters of the camera (for example, installation height, pitch, yaw, etc. of the camera) (S12). That is, the region-of-interest setting unit 12 may output an image as illustrated in FIG. For example, based on the heuristic method, the ROI setting unit 12 may set the ROI to an area corresponding to 86% of the disappearance line at the top and 90% of the bottom edge , The pixel information is inaccurate).

이후, IPM부(14)는 관심영역 설정부(12)를 통해 관심 영역이 설정된 영상(도 3 참조)의 원근 효과를 제거하기 위해 역원근 매핑(Inverse Perspective Mapping; IPM)을 수행한다(S14). IPM부(14)는 도 4에 예시한 바와 같은 영상을 출력할 수 있다.Thereafter, the IPM unit 14 performs inverse perspective mapping (IPM) to remove the perspective effect of the image (see FIG. 3) in which the ROI is set through the ROI setting unit 12 (S14) . The IPM unit 14 can output an image as illustrated in FIG.

이어, 필터링 및 임계값 처리부(16)는 역원근 매핑(IPM)된 영상(도 4 참조)에 대하여 노이즈 제거를 위한 필터링을 수행하고, 히스토그램 분석에 의한 임계값을 통하여 임계값 이하의 값은 모두 0(zero)으로 설정한다(S16). Then, the filtering and threshold value processor 16 performs filtering for noise reduction on the inverse-perspective-mapped (IPM) image (see FIG. 4), and the values below the threshold value through the histogram analysis are all 0 " (S16).

그 후, 차선 검출부(18)는 필터링 및 임계값 처리부(16)에서 처리된 영상에서 누적 히스토그램을 이용하여 차선의 후보군을 선택한다(S18). Thereafter, the lane detecting unit 18 selects a lane candidate group using the accumulated histogram in the image processed by the filtering and threshold value processor 16 (S18).

그리고, 차선 검출부(18)는 선택된 차선 후보군을 측위(Localization)한다. 이때, 차선 검출부(18)는 RANSAC 알고리즘을 이용하여 측위한다(S20). Then, the lane detecting unit 18 localizes the selected lane candidate group. At this time, the lane detecting unit 18 performs positioning using the RANSAC algorithm (S20).

또한, 차선 검출부(18)는 측위(Localization)된 차선 후보에 대해 각각 B-Spline과 RANSAC 알고리즘을 적용하여 차선(즉, 직선 또는 곡선)을 검출한다(S22). 그에 따라, 차선 검출부(18)는 도 5에 예시된 바와 같은 영상을 출력할 수 있다.In addition, the lane detecting unit 18 detects a lane (i.e., a straight line or a curve) by applying the B-Spline and RANSAC algorithms to the localized lane candidates (S22). Accordingly, the lane detecting section 18 can output an image as illustrated in Fig.

이후, 차선 추적부(20)는 차선 검출부(18)에 의해 검출된 차선을 피팅(fitting)하게 된다(S24). 기존 연구에서는 차선의 추적을 위해 칼만 필터 등을 이용하여 다음 차선의 위치를 추정하였지만, 본 발명의 실시예에서는 검출된 차선을 피팅하는 방법으로 차선을 추적하였으며 GVF SNAKE 알고리즘을 사용하였다. 여기서, GVF SNAKE 알고리즘은 내부 에너지(내부 E)와 외부 에너지(외부 E)의 균형을 조건으로 하는데, 예를 들어 "내부 E + 외부 E = 0"을 만족시켜야 한다. 동종업계에 종사하는 자라면 GVF SNAKE 알고리즘에 대해 주지의 기술을 통해 충분히 파악할 수 있으므로, 그에 대한 보다 상세한 설명은 생략한다. Thereafter, the lane-finding section 20 fits the lane detected by the lane detecting section 18 (S24). In the previous research, the position of the next lane was estimated by using a Kalman filter or the like for tracking the lane. In the embodiment of the present invention, the lane was tracked by fitting the detected lane and the GVF SNAKE algorithm was used. Here, the GVF SNAKE algorithm is conditioned on the balance of internal energy (internal E) and external energy (external E), for example "internal E + external E = 0". Those skilled in the related art can fully understand the GVF SNAKE algorithm through well-known techniques, so that a detailed description thereof will be omitted.

그리고 나서, 역 IPM부(22)가 GVF SNAKE 알고리즘에 의해 피팅된 차선을 역 IPM 변환한다(S26). Then, the reverse IPM unit 22 performs reverse IPM conversion on the lane fitted by the GVF SNAKE algorithm (S26).

이후, 차선 출력부(24)는 역 IPM으로 변환된 차선의 시작점, 중간점과 관심영역의 최하단점에 대하여 도로모델을 적용하여 도로 방정식을 도출함으로써 최종적인 차선을 생성하여 출력한다(S28). 예를 들어, 차선 출력부(24)는 도 6에서와 같이 최종의 차선(L)을 역 IPM변환된 영상(즉, 원래의 영상)에 표시할 수 있다.Thereafter, the lane output unit 24 generates a final lane by deriving the road equation by applying the road model to the starting point and the midpoint of the lane converted into the reverse IPM and the lowest point of the ROI (S28). For example, the lane-output section 24 can display the final lane L on the reverse-IPM-converted image (i.e., the original image) as shown in Fig.

상술한 바와 같은 본 발명의 실시예는 LDWS(Lane Departure Warning System), LKAS(Lane Keeping Assist System) 등의 응용 시스템에서 차선의 래터럴 오프셋(lateral Offset) 등에 활용할 수 있으며, 직선 및 곡선 차선 검출 효율을 향상시키고 검출 정확도를 높일 수 있는 이점이 있다. The embodiment of the present invention as described above can be applied to a lateral offset of a lane in an application system such as an LDWS (Lane Departure Warning System) or an LKAS (Lane Keeping Assist System), and the linear and curved lane detection efficiency And the detection accuracy can be improved.

이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, an optimal embodiment has been disclosed in the drawings and specification. Although specific terms have been employed herein, they are used for purposes of illustration only and are not intended to limit the scope of the invention as defined in the claims or the claims. Therefore, those skilled in the art will appreciate that various modifications and equivalent embodiments are possible without departing from the scope of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

10 : 비전 센서 12 : 관심영역 설정부
14 : IPM부 16 : 필터링 및 임계값 처리부
18 : 차선 검출부 20 : 차선 추적부
22 : 역 IPM부 24 : 차선 출력부
10: Vision sensor 12: ROI setting unit
14: IPM module 16: Filtering and threshold value processor
18: lane detection unit 20: lane tracking unit
22: reverse IPM section 24: lane output section

Claims (10)

비전 센서로부터의 도로 영상에서 주행 차선을 포함하는 관심 영역을 설정하는 관심영역 설정부;
상기 관심영역 설정부로부터 제공받은 관심 영역이 설정된 영상에 대해 역원근 매핑(Inverse Perspective Mapping; IPM)을 수행하는 IPM부;
상기 IPM부에서 출력되는 IPM 영상에 대해 필터링을 수행하고, 상기 필터링된 IPM 영상의 픽셀에서 기설정된 임계값 이하의 값을 갖는 픽셀을 특정 값으로 만드는 필터링 및 임계값 처리부;
상기 필터링 및 임계값 처리부에서 처리된 영상에서 차선을 검출하는 차선 검출부;
상기 차선 검출부에 의해 검출된 차선을 피팅하는 차선 추적부;
상기 차선 추적부에 의해 피팅된 차선을 역 IPM 변환하는 역 IPM부; 및
상기 역 IPM부에 의해 역IPM으로 변환된 차선에 대하여 도로모델을 적용하여 도로 방정식을 도출함으로써 최종의 차선을 생성하여 출력하는 차선 출력부;를 포함하며,
상기 차선 검출부는,
상기 필터링 및 임계값 처리부에서 처리된 영상에서 누적 히스토그램을 이용하여 차선의 후보군을 선택하고, 선택된 상기 차선 후보군을 측위(Localization)하고, 측위(Localization)된 차선 후보에 대해 각각 B-Spline과 RANSAC 알고리즘을 적용하여 상기 차선을 검출하는 것을 특징으로 하는 영상 기반의 차선 인식 장치.
A region of interest setting section for setting a region of interest including a driving lane in a road image from the vision sensor;
An IPM unit for performing Inverse Perspective Mapping (IPM) on an image in which a ROI provided from the ROI setting unit is set;
A filtering and threshold processing unit that performs filtering on the IPM image output from the IPM unit and converts a pixel having a value less than a predetermined threshold value into a specific value in pixels of the filtered IPM image;
A lane detecting unit detecting lanes in the image processed by the filtering and threshold value processor;
A lane-tracking unit for fitting a lane detected by the lane detecting unit;
A reverse IPM unit for performing inverse IPM conversion on the lane fitted by the lane-tracking unit; And
And a lane output unit for generating and outputting a final lane by deriving a road equation by applying a road model to the lane converted into the reverse IPM by the reverse IPM unit,
Wherein the lane-
In the image processed by the filtering and threshold processing unit, a lane candidate group is selected using the cumulative histogram, the selected lane candidate group is localized, and the localized lane candidate is subjected to B-Spline and RANSAC algorithm Wherein the lane detecting unit detects the lane by applying the lane detecting unit to the lane detecting unit.
제1항에 있어서,
상기 관심영역 설정부는,
휴리스틱한 방법에 의거하여 소실라인의 제1 설정값에 해당하는 부분을 최상단으로 시작하여 최하단의 제2 설정값에 해당하는 영역으로 상기 관심 영역을 설정하는 영상 기반의 차선 인식 장치.
The method according to claim 1,
Wherein the ROI setting unit comprises:
Based on the heuristic method, a portion corresponding to the first set value of the disappearance line is set to the top and the attention area is set to the area corresponding to the second set value at the bottom.
삭제delete 제1항에 있어서,
상기 차선 추적부는,
GVF SNAKE 알고리즘을 사용하는 영상 기반의 차선 인식 장치.
The method according to claim 1,
The lane-
Image based lane recognition device using GVF SNAKE algorithm.
제1항에 있어서,
상기 차선 출력부는,
상기 역 IPM으로 변환된 상기 차선의 시작점, 중간점과 상기 관심 영역의 최하단점에 대하여 상기 도로모델을 적용하여 상기 도로 방정식을 도출함으로써 상기 최종의 차선을 생성하여 출력하는 영상 기반의 차선 인식 장치.
The method according to claim 1,
The lane-
And the road model is applied to the starting point and the midpoint of the lane converted into the reverse IPM and the lowermost point of the ROI, and the road equation is derived to generate and output the final lane.
영상 기반의 차선 인식 장치에 의해 수행되는 영상 기반의 차선 인식 방법에 있어서,
비전 센서로부터의 도로 영상에서 주행 차선을 포함하는 관심 영역을 설정하는 단계;
상기 관심 영역이 설정된 영상에 대해 역원근 매핑(Inverse Perspective Mapping; IPM)을 수행하는 단계;
상기 역원근 매핑된 IPM 영상에 대해 필터링을 수행하는 단계;
상기 필터링된 IPM 영상의 픽셀에서 기설정된 임계값 이하의 값을 갖는 픽셀을 특정 값으로 설정하여 처리하는 단계;
처리된 상기 IPM 영상에서 차선을 검출하는 단계;
상기 검출된 차선을 피팅하는 단계;
상기 피팅된 차선을 역IPM 변환하는 단계; 및
상기 역IPM으로 변환된 차선에 대하여 도로모델을 적용하여 도로 방정식을 도출함으로써 생성된 최종의 차선을 출력하는 단계;를 포함하고,
상기 처리된 IPM 영상에서 차선을 검출하는 단계는,
처리된 상기 IPM 영상에서 누적 히스토그램을 이용하여 차선의 후보군을 선택하고, 선택된 상기 차선 후보군을 측위(Localization)하고, 측위(Localization)된 차선 후보에 대해 각각 B-Spline과 RANSAC 알고리즘을 적용하여 상기 차선을 검출하는 것을 특징으로 하는 영상 기반의 차선 인식 방법.
An image-based lane recognition method performed by an image-based lane recognition device,
Setting an area of interest including a driving lane in a road image from a vision sensor;
Performing inverse perspective mapping (IPM) on the image in which the ROI is set;
Performing filtering on the inverse perspective mapped IPM image;
Setting a pixel having a value lower than a preset threshold value in a pixel of the filtered IPM image to a specific value and processing the pixel;
Detecting a lane in the processed IPM image;
Fitting the detected lane;
Performing inverse IPM conversion of the fitted lane; And
And outputting a final lane generated by deriving a road equation by applying a road model to the lane converted into the inverse IPM,
The step of detecting a lane in the processed IPM image comprises:
The lane candidate group is selected using the cumulative histogram in the processed IPM image, the selected lane candidate group is localized, and the B-Spline and RANSAC algorithms are applied to the localized lane candidates, respectively, Based lane identification method.
제6항에 있어서,
상기 비전 센서로부터의 도로 영상에서 주행 차선을 포함하는 관심 영역을 설정하는 단계는,
휴리스틱한 방법에 의거하여 소실라인의 제1 설정값에 해당하는 부분을 최상단으로 시작하여 최하단의 제2 설정값에 해당하는 영역으로 상기 관심 영역을 설정하는 영상 기반의 차선 인식 방법.
The method according to claim 6,
Wherein the step of setting an area of interest including a driving lane in a road image from the vision sensor comprises:
Based on the heuristic method, the portion corresponding to the first set value of the disappearance line is set to the top and the attention area is set to the area corresponding to the second set value at the bottom.
삭제delete 제6항에 있어서,
상기 검출된 차선을 피팅하는 단계는,
GVF SNAKE 알고리즘을 사용하는 영상 기반의 차선 인식 방법.
The method according to claim 6,
Fitting the detected lane comprises:
Image based lane recognition method using GVF SNAKE algorithm.
제6항에 있어서,
상기 역IPM으로 변환된 차선에 대하여 도로모델을 적용하여 도로 방정식을 도출함으로써 생성된 최종의 차선을 출력하는 단계는,
상기 역 IPM으로 변환된 상기 차선의 시작점, 중간점과 상기 관심 영역의 최하단점에 대하여 상기 도로모델을 적용하여 상기 도로 방정식을 도출함으로써 상기 최종의 차선을 생성하여 출력하는 영상 기반의 차선 인식 방법.
The method according to claim 6,
The step of outputting the final lane generated by deriving the road equation by applying the road model to the lane converted into the inverse IPM,
And generating and outputting the final lane by deriving the road equation by applying the road model to a starting point, a midpoint of the lane converted into the reverse IPM, and a lowest point of the ROI, and outputting the final lane.
KR1020140006850A 2014-01-20 2014-01-20 Vision based lane recognition apparatus KR101773822B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140006850A KR101773822B1 (en) 2014-01-20 2014-01-20 Vision based lane recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140006850A KR101773822B1 (en) 2014-01-20 2014-01-20 Vision based lane recognition apparatus

Publications (2)

Publication Number Publication Date
KR20150086789A KR20150086789A (en) 2015-07-29
KR101773822B1 true KR101773822B1 (en) 2017-09-04

Family

ID=53876261

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140006850A KR101773822B1 (en) 2014-01-20 2014-01-20 Vision based lane recognition apparatus

Country Status (1)

Country Link
KR (1) KR101773822B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220039038A (en) 2020-09-21 2022-03-29 현대모비스 주식회사 System and method estimating slope of the driving road
KR20220060593A (en) 2020-11-04 2022-05-12 현대모비스 주식회사 Road slope calibration system and method

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101720679B1 (en) * 2015-08-03 2017-03-28 광주과학기술원 Lane recognition system using light fied camera and method therefor
KR101723536B1 (en) * 2015-11-19 2017-04-05 고려대학교 산학협력단 Method and Apparatus for detecting lane of road
KR102628654B1 (en) * 2016-11-07 2024-01-24 삼성전자주식회사 Method and apparatus of indicating lane
KR102045026B1 (en) * 2018-02-12 2019-11-14 한양대학교 에리카산학협력단 Apparatus and method for detecting lane
CN108909721B (en) * 2018-04-28 2021-04-23 南通职业大学 Vehicle yaw angle calculation method based on millimeter wave radar
CN110795961B (en) * 2018-08-01 2023-07-18 新疆万兴信息科技有限公司 Lane line detection method and device, electronic equipment and medium
KR102633140B1 (en) * 2018-10-23 2024-02-05 삼성전자주식회사 Method and apparatus of determining driving information
CN110097025B (en) * 2019-05-13 2023-08-04 奇瑞汽车股份有限公司 Lane line detection method, device and storage medium
CN112154449A (en) * 2019-09-26 2020-12-29 深圳市大疆创新科技有限公司 Lane line fusion method, lane line fusion device, vehicle, and storage medium
CN112633043B (en) * 2019-10-08 2024-03-26 宁波吉利汽车研究开发有限公司 Lane line determining method and device, electronic equipment and storage medium

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
무인 차량 적용을 위한 차선강조기법 기반의 차선 인식
비전 센서를 이용하 차선 감지 알고리듬의 개발
역 원근 변환과 검색 영역 예측에 의한 실시간 차선 인식, 한국정밀공학회지*
특징점 병합과 카메라 외부 파라미터 추정 결과를 고려한 B-snake기반 차선 검출, 전자공학회논문지*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220039038A (en) 2020-09-21 2022-03-29 현대모비스 주식회사 System and method estimating slope of the driving road
KR20220060593A (en) 2020-11-04 2022-05-12 현대모비스 주식회사 Road slope calibration system and method

Also Published As

Publication number Publication date
KR20150086789A (en) 2015-07-29

Similar Documents

Publication Publication Date Title
KR101773822B1 (en) Vision based lane recognition apparatus
JP6670071B2 (en) Vehicle image recognition system and corresponding method
Borkar et al. Robust lane detection and tracking with ransac and kalman filter
Wu et al. Lane-mark extraction for automobiles under complex conditions
US9607227B2 (en) Boundary detection apparatus and boundary detection method
KR101609303B1 (en) Method to calibrate camera and apparatus therefor
EP3098753A1 (en) Lane detection
KR102227843B1 (en) Operating method of lane departure warning system
KR101392850B1 (en) Method and system for lane departure warning based on image recognition
EP2476996B1 (en) Parallax calculation method and parallax calculation device
KR101285106B1 (en) Obstacle detection method using image data fusion and apparatus
KR101584907B1 (en) Method and Apparatus for recognizing lane using region of interest
EP2573708A2 (en) Method and System for Detecting Vehicle Position by Employing Polarization Image
US20130162826A1 (en) Method of detecting an obstacle and driver assist system
WO2014002692A1 (en) Stereo camera
Satzoda et al. On performance evaluation metrics for lane estimation
US20160012299A1 (en) Lane boundary line recognition device and computer-readable storage medium storing program of recognizing lane boundary lines on roadway
Suddamalla et al. A novel algorithm of lane detection addressing varied scenarios of curved and dashed lanemarks
KR102372296B1 (en) Apparatus and method for recognize driving lane on image
KR101620425B1 (en) System for lane recognition using environmental information and method thereof
JP5091897B2 (en) Stop line detector
Ying et al. An illumination-robust approach for feature-based road detection
KR102188164B1 (en) Method of Road Recognition using 3D Data
Manoharan et al. A robust approach for lane detection in challenging illumination scenarios
KR101912085B1 (en) Reliability calaulation method of lane detection and Apparatus for calcaulating for performing thereof

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant