KR101121777B1 - Lane detection method - Google Patents

Lane detection method Download PDF

Info

Publication number
KR101121777B1
KR101121777B1 KR1020100034288A KR20100034288A KR101121777B1 KR 101121777 B1 KR101121777 B1 KR 101121777B1 KR 1020100034288 A KR1020100034288 A KR 1020100034288A KR 20100034288 A KR20100034288 A KR 20100034288A KR 101121777 B1 KR101121777 B1 KR 101121777B1
Authority
KR
South Korea
Prior art keywords
lane
edge
edge link
frame
link
Prior art date
Application number
KR1020100034288A
Other languages
Korean (ko)
Other versions
KR20110114905A (en
Inventor
한헌수
한영준
칭 린
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Priority to KR1020100034288A priority Critical patent/KR101121777B1/en
Publication of KR20110114905A publication Critical patent/KR20110114905A/en
Application granted granted Critical
Publication of KR101121777B1 publication Critical patent/KR101121777B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

차선 감지 방법에 제공 된다. 본 발명에 따른 차선 감지 방법은 전방 카메라에 의해 촬영된 영상의 각 프레임을 분석하여 차선 후보 에지 링크를 생성하고, 상기 차선 후보 에지 링크에 대한 차선 파라미터 셋을 생성하되, 상기 차선 파라미터 셋은 차선 위치 정보, 차선 색상 정보 및 차선 종류 정보를 포함하는 단계 및 상기 차선 파라미터 셋을 저장하고, 각 프레임에 포함된 상기 차선 파라미터 셋을 비교하여 노이즈 차선 파라미터 셋을 제거하거나 인접 프레임의 유효 차선 파라미터 셋으로 대체하는 프레임 간 보정 단계를 포함한다.The lane detection method is provided. The lane detection method according to the present invention analyzes each frame of an image photographed by a front camera to generate a lane candidate edge link, and generates a lane parameter set for the lane candidate edge link, wherein the lane parameter set is a lane position. And storing the lane parameter set, and comparing the lane parameter sets included in each frame to remove the noise lane parameter set or replace it with the effective lane parameter set of an adjacent frame. Inter-frame correction step.

Description

차선 감지 방법{Lane detection method}Lane detection method

본 발명은 차선 감지 방법에 관한 것이다. 보다 자세하게는 차량의 전면부에 설치된 카메라를 통하여 촬영된 영상을 분석하여 차량이 주행 중인 차선을 감지하는 방법에 관한 것이다.The present invention relates to a lane detection method. More particularly, the present invention relates to a method of detecting a lane on which a vehicle is driven by analyzing an image photographed by a camera installed at a front portion of the vehicle.

차선 감지 기술은 차량의 전면부에 설치된 카메라를 통하여 촬영된 영상을 분석하여 차량이 주행 중인 도로의 차선을 감지하는 기술을 일컫는다. 촬영된 영상을 분석하여 차선을 감지하는 방법(Lane detection method)은 크게 특성 기반(feature based) 방법과 모델 기반(model based) 방법으로 분류될 수 있다.Lane detection technology refers to a technology for detecting a lane of a road on which a vehicle is driven by analyzing an image captured by a camera installed at a front side of a vehicle. Lane detection methods may be classified into a feature based method and a model based method by analyzing the captured image.

특성 기반 방법은 차선 기호의 에지(edge)에서 관찰 될 수 있는 특성으로부터 차선을 감지하는 방법이다. 상기 특성 기반 방법은 'A. Broggi, S. Berte, “Vision-based road detection in automotive systems: a real-time expectation-driven approach”, Journal of Articial Intelligence Research 3 (1995) 325?348'외 다수 문헌에서 소개된다.Feature-based methods detect lanes from features that can be observed at the edge of the lane symbol. The feature-based method is' A. Broggi, S. Berte, “Vision-based road detection in automotive systems: a real-time expectation-driven approach”, Journal of Articial Intelligence Research 3 (1995) 325-348, et al.

한편, 모델 기반 방법은 몇몇 기하적인 파라미터들로 결정될 수 있는 커브 모델의 종류로 차선을 표현한다. 상기 모델 기반 방법 역시 'Yue Wang, Eam Khwang Teoh, Dinggang Shen, “Lane detection and tracking using B-snake,” Image and Vision Computing, vol. 22, 2004, pp. 269-280' 외 다수의 문헌에서 소개된다. 특히, 'Jung, C. R. and C. R. Kelber, “A lane departure warning system using lateral offset with uncalibrated camera,” Proc. IEEE Conf. on Intelligent Transportation Systems, Vienna, Austria, Sep.13-16, 2005. pp. 102-107.'에는 차선을 검출하기 위하여 직선-포물선(linear-parabolic) 모델을 사용하는 기술이 기재되어 있다. 모델 기반 방법에서는 상기 파라미터를 어떻게 평가하느냐가 중요하다. 즉, 카메라에 의하여 촬영된 영상으로부터 구해진 파라미터를 어떻게 평가하느냐에 따라 차선의 검출 여부가 결정되게 된다.The model-based method, on the other hand, represents a lane with a type of curve model that can be determined with some geometrical parameters. The model-based method is also described in Yue Wang, Eam Khwang Teoh, Dinggang Shen, “Lane detection and tracking using B-snake,” Image and Vision Computing, vol. 22, 2004, pp. 269-280 'and many others. In particular, Jung, C. R. and C. R. Kelber, “A lane departure warning system using lateral offset with uncalibrated camera,” Proc. IEEE Conf. on Intelligent Transportation Systems, Vienna, Austria, Sep. 13-16, 2005. pp. 102-107. 'Describes techniques for using a linear-parabolic model to detect lanes. In model-based methods, how to evaluate the parameters is important. That is, whether or not the lane is detected is determined according to how the parameter obtained from the image photographed by the camera is evaluated.

상기 특성 기반 방법은 일반적으로 차선이 뚜렷하게 도색 된 직선 도로 또는 고속 도로에서만 차선을 검출한다. 이에 반하여 상기 모델 기반 방법은 상기 특성 기반 방법에 비하여는 도로 사정이 열악하더라도 어느 정도 차선을 검출할 수 있다. 즉, 상기 모델 기반 방법이 상기 특성 기반 방법에 비하여 더 활용도가 뛰어나다고 판단된다. 그러나, 상기 모델 기반 방법은 모델링과 관련된 많은 정보를 처리해야 하므로, 연산량이 많은 문제가 있고, 파라미터를 제대로 평가하기 위하여 지속적인 에러 감소 알고리즘 적용이 필요하기 때문에 처리에 시간이 걸리는 단점이 존재한다.The property-based method generally detects lanes only on straight roads or freeways where the lanes are clearly painted. In contrast, the model-based method can detect a lane to some extent even if the road conditions are poor compared to the feature-based method. In other words, it is determined that the model-based method is more useful than the feature-based method. However, since the model-based method needs to process a lot of information related to modeling, there is a problem in that a large amount of computation is required, and processing takes time because a continuous error reduction algorithm is required to properly evaluate a parameter.

본 발명이 해결하고자 하는 기술적 과제는 최소한의 연산량으로 도로 사정에 최대한 영향을 받지 않고 정확히 차선을 감지할 수 있는 차선 감지 방법을 제공하는 것이다.The technical problem to be solved by the present invention is to provide a lane detection method that can accurately detect the lane without being affected by the road conditions with the least amount of calculation.

본 발명이 해결하고자 하는 다른 기술적 과제는 전방 카메라에 의해 촬영된 영상 중 차선 존재 가능 영역을 관심 영역으로 설정하여 상기 관심 영역 내부만을 분석하여 차선을 감지하는 차선 감지 방법을 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a lane detection method for detecting a lane by analyzing only the inside of the ROI by setting a lane presence possibility region of the image photographed by the front camera.

본 발명이 해결하고자 하는 또 다른 기술적 과제는 차선을 나타내는 에지(edge)를 검출한 후, 에지 사이에 존재할 수 있는 간격(gap)을 연결하고, 좌우 차선을 의미하는 에지 링크 쌍(edge link pair)을 검출하여 노이즈 에지를 제거하는 차선 감지 방법을 제공하는 것이다.Another technical problem to be solved by the present invention is to detect an edge representing a lane, and then connect a gap that may exist between the edges, and an edge link pair to mean a left and right lane. It is to provide a lane detection method for detecting the noise edge to remove.

본 발명이 해결하고자 하는 또 다른 기술적 과제는 차선의 위치에 대한 정보 뿐만 아니라, 차선의 종류 및 차선의 색상 정보까지도 감지할 수 있는 차선 감지 방법을 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a lane detection method capable of detecting not only the information on the position of the lane, but also the type of the lane and color information of the lane.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해 될 수 있을 것이다.The technical problems of the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 달성하기 위한 본 발명의 일 태양에 따른 차선 감지 방법은 전방 카메라에 의해 촬영된 영상의 각 프레임을 분석하여 차선 후보 에지 링크를 생성하고, 상기 차선 후보 에지 링크에 대한 차선 파라미터 셋을 생성하되, 상기 차선 파라미터 셋은 차선 위치 정보, 차선 색상 정보 및 차선 종류 정보를 포함하는 단일 프레임 분석 단계 및 상기 차선 파라미터 셋을 저장하고, 각 프레임에 포함된 상기 차선 파라미터 셋을 비교하여 노이즈 차선 파라미터 셋을 제거하거나 인접 프레임의 유효 차선 파라미터 셋으로 대체하는 프레임 간 보정 단계를 포함한다.The lane detection method according to an aspect of the present invention for achieving the technical problem is to analyze each frame of the image taken by the front camera to generate a lane candidate edge link, and to set the lane parameter set for the lane candidate edge link The lane parameter set generates a single frame analysis step including lane position information, lane color information, and lane type information, and stores the lane parameter set, compares the lane parameter set included in each frame, and compares the noise lane parameter. Interframe correction step of removing the set or replacing it with a valid lane parameter set of adjacent frames.

상기와 같은 본 발명에 따르면, 최소한의 연산량으로 도로 사정에 최대한 영향을 받지 않고 정확히 차선을 감지할 수 있는 효과가 있다.According to the present invention as described above, there is an effect that can accurately detect the lane without being affected by the road conditions with the least amount of calculation.

또한, 차선의 위치에 대한 정보뿐만 아니라 차선의 색상 및 차선의 종류에 대한 정보 또한 감지할 수 있는 효과가 있다.In addition, the information on the location of the lane as well as the information on the color of the lane and the type of the lane can be detected.

도 1은 본 발명의 일 실시 예에 따른 차선 감지 방법의 순서도이다.
도 2는 종래의 관심 영역 설정 방법의 개념도이다.
도 3은 본 발명의 일 실시 예에 따른 관심 영역 설정 방법의 개념도이다.
도 4는 본 발명의 일 실시 예에 따른 에지 처리 방법의 상세 순서도이다.
도 5는 본 발명의 일 실시 예에 따른 에지 검출 필터 적용 예이다.
도 6은 본 발명의 일 실시 예에 따른 방향을 고려한 간격 연결 예시를 나타낸 도면이다.
도 7은 본 발명의 일 실시 예에 따른 차선 후보 에지 링크 생성 동작의 예시이다.
1 is a flowchart illustrating a lane detection method according to an embodiment of the present invention.
2 is a conceptual diagram of a conventional method for setting a region of interest.
3 is a conceptual diagram of a method for setting a region of interest according to an embodiment of the present invention.
4 is a detailed flowchart of an edge processing method according to an embodiment of the present invention.
5 is an example of applying an edge detection filter according to an embodiment of the present invention.
6 is a diagram illustrating an example of spaced connection considering a direction according to an embodiment of the present invention.
7 is an illustration of a lane candidate edge link generation operation according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

이하, 차선 검출 방법을 설명하기 위한 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. 이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재 되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Hereinafter, the present invention will be described with reference to the drawings for a block diagram or a process flow chart for explaining a lane detection method. At this point, it will be understood that each block of the flowchart illustrations and combinations of flowchart illustrations may be performed by computer program instructions. Since these computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, those instructions executed through the processor of the computer or other programmable data processing equipment may be described in flow chart block (s). It creates a means to perform the functions. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored in to produce an article of manufacture containing instruction means for performing the functions described in the flowchart block (s). Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps are performed on the computer or other programmable data processing equipment to create a computer-implemented process to generate a computer or other programmable data. Instructions for performing the processing equipment may also provide steps for performing the functions described in the flowchart block (s).

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block may represent a portion of a module, segment, or code that includes one or more executable instructions for executing a specified logical function (s). It should also be noted that in some alternative implementations, the functions noted in the blocks may occur out of order. For example, the two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in the reverse order, depending on the corresponding function.

이하, 차선 정보를 검출하기 위하여 에지(edge) 검출 방법이 참조된다. 상기 에지 검출 방법은 참조 문헌 'http://en.wikipedia.org/wiki/Edge_detection', 'T. Lindeberg (2001) "Edge detection", in M. Hazewinkel (editor), Encyclopedia of Mathematics, Kluwer/Springer', 'D. Ziou and S. Tabbone (1998) "Edge detection techniques: An overview", International Journal of Pattern Recognition and Image Analysis', 'J. M. Park and Y. Lu (2008) "Edge detection in grayscale, color, and range Images", in B. W. Wah (editor) Encyclopedia of Computer Science and Engineering'의 기재가 본 명세서 전체를 통하여 참조될 수 있다.Hereinafter, an edge detection method is referred to to detect lane information. The edge detection method is described in reference 'http://en.wikipedia.org/wiki/Edge_detection', 'T. Lindeberg (2001) "Edge detection", in M. Hazewinkel (editor), Encyclopedia of Mathematics, Kluwer / Springer ',' D. Ziou and S. Tabbone (1998) "Edge detection techniques: An overview", International Journal of Pattern Recognition and Image Analysis ',' J. M. Park and Y. Lu (2008) "Edge detection in grayscale, color, and range Images", in B. W. Wah (editor) Encyclopedia of Computer Science and Engineering ', may be referred to throughout this specification.

먼저, 도 1을 참조하여 본 발명에 의한 차선 검출 방법을 개략적으로 설명하기로 한다.First, a lane detection method according to the present invention will be described with reference to FIG. 1.

먼저, 전방 카메라에 의하여 촬영된 동영상에 포함된 프레임이 순차적으로 각각 입력 된다(S100). 상기 프레임은 상기 전방 카메라에 의하여 촬영된 동영상의 각 단위 시간 별 정지 영상을 의미하는 것으로 이하 지칭된다. 상기 프레임은 연산 속도를 위하여, 다운 샘플링 될 수 있다(S102). 다운 샘플링(S102)은 정지 영상의 해상도를 감소시키는 것일 수 있다.First, frames included in the video photographed by the front camera are sequentially input (S100). The frame refers to a still image for each unit time of the video captured by the front camera. The frame may be down sampled for a calculation speed (S102). Down sampling (S102) may be to reduce the resolution of the still image.

상기 프레임은 본 실시예의 단일 프레임 레벨(S110)의 동작을 통하여 분석되고, 그 결과 차선 후보 에지 링크가 생성되고, 상기 차선 후보 에지 링크에 대한 차선 파라미터 셋이 생성될 수 있다.The frame may be analyzed through operation of the single frame level S110 of this embodiment, and as a result, a lane candidate edge link may be generated, and a lane parameter set for the lane candidate edge link may be generated.

이하, 단일 프레임 레벨(S110)의 동작을 보다 자세히 설명하기로 한다.Hereinafter, the operation of the single frame level S110 will be described in more detail.

먼저, 다운 샘플링 된(S102) 프레임 내의 관심 영역(Region Of Interest; ROI)이 설정될 수 있다(S112). 상기 관심 영역이 설정 되면, 상기 차선 파라미터 셋은 상기 관심 영역 내의 데이터만을 대상으로 생성된다. 도 2에는 차선 감지 방법에서 일반적으로 실시되는 관심 영역 설정 예시가 도시되어 있다. 도 2에 도시된 바와 같이, 일반적으로 실시되는 관심 영역 설정 방법은 프레임(200)의 상단 및 하단의 일정 높이를 제외한 중앙부의 영역을 관심 영역으로 설정(202)하는 것이다. 그러나, 일반적으로 실시되는 관심 영역 설정 방법에 의하여 설정된 관심 영역 역시 연산량을 충분히 줄이기에는 너무 넓은 영역이다. 본 실시예에 따른 관심 영역 설정 방법은 도 2에 도시된 바와 같은 일반적으로 실시되는 관심 영역 설정 방법에 비하여 더 좁은 영역 만을 관심 영역으로 설정함으로써, 연산량을 더 줄일 수 있는 효과가 있다.First, a region of interest (ROI) in a down-sampled frame (S102) may be set (S112). When the region of interest is set, the lane parameter set is generated only for data in the region of interest. 2 illustrates an example of a region of interest setting that is generally performed in the lane detection method. As shown in FIG. 2, a method of setting a region of interest, which is generally implemented, is to set 202 a region of the center portion excluding a predetermined height of the top and bottom of the frame 200 as the region of interest. However, the ROI set by the ROI setting method, which is generally performed, is too large to sufficiently reduce the amount of computation. The region of interest setting method according to the present exemplary embodiment has an effect of further reducing the amount of computation by setting only a narrower region as the region of interest as compared with the method of setting a region of interest as shown in FIG. 2.

도 3은 본 실시예에 따른 관심 영역 설정 예시를 도시한다. 도 3에서는 도2에 도시된 프레임과 동일한 정지 영상을 대상으로 관심 영역을 설정하는 과정을 도시한다. 먼저, 도 2에 도시된 바와 같이, 프레임(200)의 상단 및 하단의 일정 높이를 제외한 중앙부의 영역을 대상으로 관심 영역을 설정하는 경우를 대상으로 설명하기로 한다. 다만, 상기 중앙부의 영역만을 대상으로 관심 영역을 설정하는 것은 본 발명의 일 실시예에 지나지 않으며, 관심 영역 설정 대상 이미지는 원 프레임 이미지일 수도 있다.3 shows an example of setting a region of interest according to the present embodiment. FIG. 3 illustrates a process of setting a region of interest for the same still image as the frame illustrated in FIG. 2. First, as shown in FIG. 2, a case in which the ROI is set for an area of the center except for a predetermined height of the top and bottom of the frame 200 will be described. However, it is only an embodiment of the present invention to set the region of interest targeting only the region of the center portion, and the region of interest setting target image may be an original frame image.

먼저, 프레임 상에 일정 간격의 그리드(grid)를 생성한다(300). 상기 그리드는 도3에 도시된 바와 같이(300), 가로 세로 방향으로 형성되는 것일 수도 있으나, 상기 그리드가 반드시 가로 세로 방향으로 형성되어야 하는 것은 아니다. 즉, 그리드의 형성 방향에는 제한이 없다. 상기 그리드는 적어도 하나 이상의 픽셀을 폭으로 하여 형성되는 것이 바람직하다.First, a grid of a predetermined interval is generated on a frame (300). As shown in FIG. 3, the grid may be formed in the horizontal and vertical directions, but the grid is not necessarily formed in the horizontal and vertical directions. That is, there is no restriction in the formation direction of a grid. The grid is preferably formed with at least one pixel width.

다음으로 상기 그리드로 둘러싸인 영역의 색상을 소정의 배경 색상으로 일원화하여 제1 변형 프레임을 생성한다(302). 상기 배경 색상은 예를 들어 검은색일 수 있다. 상기 배경 색상은 도로에 도포된 아스팔트의 색상과 유사할 수 있다. 또는 상기 배경 색상은 도로에 도포된 시멘트의 색상과 유사할 수 있다. 상기 배경 색상은 차선의 색상과 상이한 것이 바람직하다.Next, the color of the area enclosed by the grid is unified with a predetermined background color to generate a first modified frame (302). The background color may be black, for example. The background color may be similar to the color of asphalt applied to the roadway. Alternatively, the background color may be similar to the color of the cement applied to the roadway. The background color is preferably different from the color of the lane.

다음으로 제1 변형 프레임(302)에 에지 검출 필터(edge detection filter)를 적용하여 제2 변형 프레임(304)을 생성한다. 상기 에지 검출 필터는 소벨 에지 검출 필터(Sobel edge detection filter)일 수 있다. 상기 소벨 에지 검출 필터와 관련된 기재는 참고 문헌, 'http://en.wikipedia.org/wiki/Sobel_operator', 'K. Engel (2006). Real-time volume graphics,. pp. 112-114.', 'Pattern Classification and Scene Analysis, Duda,R. and Hart,P., John Wiley and Sons,'73, pp271-2'의 기재가 참조될 수 있다.Next, an edge detection filter is applied to the first deformed frame 302 to generate a second deformed frame 304. The edge detection filter may be a Sobel edge detection filter. For a description related to the Sobel edge detection filter, reference is made to 'http://en.wikipedia.org/wiki/Sobel_operator', 'K. Engel (2006). Real-time volume graphics ,. pp. 112-114. ',' Pattern Classification and Scene Analysis, Duda, R. and Hart, P., John Wiley and Sons, '73, pp271-2 '.

상기 에지 검출 필터는 제1 변형 프레임(302)의 R, G, B 채널 각각의 데이터에 대하여 개별적으로 적용될 수 있다. 차선은 일반적으로, 노란색, 파란색, 흰색과 같이 특정한 색상을 가지므로, 상기 에지 검출 필터를 각각의 채널에 대하여 독립적으로 적용하면, 차선 형상이 에지로 검출될 확률을 더 높힐 수 있는 효과가 있다. 상기 에지 검출 필터를 R, G, B 채널 각각의 데이터에 대하여 개별적으로 적용한 결과를 합성곱(convolution) 연산으로 종합하여 제2 변형 프레임(304)를 생성할 수 있다. 추가로, 제2 변형 프레임(304)을 상기 배경 색상 및 상기 관심 영역 색상으로 이진화(binarization)하여(306) 차선에 대응하는 형상이 배경 색상과 명확하게 구별되도록 할 수 있다.The edge detection filter may be individually applied to data of each of the R, G, and B channels of the first modified frame 302. The lanes generally have a specific color, such as yellow, blue, and white. Therefore, if the edge detection filter is applied to each channel independently, there is an effect of increasing the probability that the lane shape is detected as an edge. The second modified frame 304 may be generated by combining the results of applying the edge detection filter to the data of each of the R, G, and B channels by a convolution operation. In addition, the second deformation frame 304 may be binarized 306 to the background color and the region of interest color so that the shape corresponding to the lane is clearly distinguished from the background color.

다음으로, 제2 변형 프레임(304) 상의 에지 픽셀 및 상기 에지 픽셀의 소정 범위의 인접 픽셀의 색상을 관심 영역 색상으로 설정하여 제3 변형 프레임(308)을 생성할 수 있다Next, the third modified frame 308 may be generated by setting colors of an edge pixel on the second modified frame 304 and adjacent pixels in a predetermined range of the edge pixel as the ROI color.

다음으로, 제3 변형 프레임(308) 상의 상기 관심 영역 색상의 픽셀들의 집합을 관심 영역(310)으로 설정할 수 있다. 도 2에 도시된 기존의 관심 영역(202)과 본 실시예에 따라 설정된 관심 영역(310)을 비교하면, 본 실시예에 따라 설정된 관심 영역(310)이 더 좁은 것을 파악할 수 있다. 관심 영역이 더 좁다는 것은, 차선의 감지를 위해 스캔 해야 하는 영역이 그만큼 좁다는 것을 의미하므로, 차선의 감지를 위한 연산량을 감소시키는 효과가 있다.Next, the set of pixels of the ROI color on the third modified frame 308 may be set as the ROI 310. Comparing the ROI 202 shown in FIG. 2 with the ROI 310 set according to the present embodiment, it may be understood that the ROI 310 set according to the present embodiment is narrower. The narrower region of interest means that the area to be scanned for the detection of the lane is so narrow that the amount of computation for the detection of the lane is reduced.

관심 영역이 도 3에 도시된 바와 같이 설정된 후(S112). 관심 영역 내의 이미지에 에지 검출 필터를 적용하여 차선의 형상에 대응하는 차선 후보 에지 링크를 생성한다(S113). 도 4는 차선의 형상에 대응하는 차선 후보 에지 링크의 생성 동작을 나타내는 순서도이다. 이하, '에지(edge)'는 에지 검출 필터의 적용에 의하여 에지 픽셀로 판정된 픽셀을 의미하는 것으로, '에지 링크(edge linke)'는 서로 인접한 에지들의 집합을 의미하는 것으로 지칭된다. 또한, 이하, '인접'은 특정 픽셀을 표시하는 프레임 상 좌표가 (x, y)라 할 때(x<0<프레임의 폭-1, y<0<프레임의 높이-1), (x-1, y-1), (x-1, y), (x-1, y+1), (x, y-1), (x, y+1), (x+1, y-1), (x+1, y), (x+1, y+1)의 좌표를 가지는 8개의 픽셀의 위치를 의미하는 것으로 지칭된다.After the ROI is set as shown in FIG. 3 (S112). An edge detection filter is applied to an image in the ROI to generate a lane candidate edge link corresponding to the shape of the lane (S113). 4 is a flowchart illustrating an operation of generating a lane candidate edge link corresponding to the shape of a lane. Hereinafter, 'edge' refers to a pixel determined as an edge pixel by applying an edge detection filter, and 'edge linke' refers to a set of edges adjacent to each other. In addition, hereinafter, 'adjacent' is when (x, y) coordinates on a frame representing a specific pixel is (x <0 <frame width-1, y <0 <frame height-1), (x- 1, y-1), (x-1, y), (x-1, y + 1), (x, y-1), (x, y + 1), (x + 1, y-1) , (x + 1, y), (x + 1, y + 1) is referred to to mean the position of eight pixels.

차선 후보 에지 링크의 생성(S113)은 관심 영역(310) 내에서 에지 검출 필터를 적용하여 에지 픽셀을 검출하는 단계(S1132), 상기 검출된 에지 픽셀 중 서로 인접한 에지 픽셀들의 집합인 제1 에지 링크를 생성하는 단계(S1134), 상기 제1 에지 링크 간에 존재하는 간격 한계 픽셀 이하의 간격을 연결하여 제2 에지 링크를 생성하는 단계(S1136) 및 상기 제2 에지 링크 중, 상기 프레임의 좌우 중심축으로부터의 거리를 기준으로 노이즈 에지 링크를 제거한 상기 차선 후보 에지 링크를 생성(S1139)하는 단계를 포함하여 수행될 수 있다.In operation S113, the lane candidate edge link is generated by applying an edge detection filter in the region of interest 310 (S1132), and a first edge link that is a set of adjacent edge pixels among the detected edge pixels. Generating a second edge link by connecting a gap below a gap limit pixel existing between the first edge link (S1134) and the left and right central axes of the frame among the second edge links. And generating the lane candidate edge link in which the noise edge link is removed based on the distance from the target signal.

단계 S1132에서 에지 검출 필터 적용 전의 사전 프로세스로 가우시안 필터를 이용한 스무딩(smoothing) 작업이 수행 되고, 소벨 에지 검출 필터(Sobel edge detection filter)가 적용될 수 있다. 또한, 분리된 에지 픽셀이 발생하지 않도록 이력 문턱값(hysteresis threshold)이 사용될 수 있으며, 상기 소벨 에지 검출 필터에 존재하는 국재성 문재(localization issue)를 해결하기 위해 비 최대치 억제(Non-Local Maximum Suppression) 방법이 소벨 에지 검출 필터 사용 전에 추가로 사용될 수 있다. 이와 관련 된 참고자료는 'Canny, J., A Computational Approach To Edge Detection, IEEE Trans. Pattern Analysis and Machine Intelligence, 1986.'을 참조할 수 있다. 도 5는 관심 영역(310)에 소벨 에지 검출 필터 만을 사용한 경우(500) 및 소벨 에지 검출 필터 사용 전, 비 최대치 억제 방법을 추가로 사용한 경우(502)의 에지 픽셀 생성 결과를 나타낸 도면이다. 도 5에 도시된 바와 같이, 및 소벨 에지 검출 필터 사용 전, 비 최대치 억제 방법을 추가로 사용한 경우(502) 에지 픽셀이 보다 선명한 것을 알 수 있다.In operation S1132, a smoothing operation using a Gaussian filter may be performed as a preprocess before applying the edge detection filter, and a Sobel edge detection filter may be applied. In addition, a hysteresis threshold may be used so that no separated edge pixel occurs, and non-local maximum suppression is used to solve a localization issue present in the Sobel edge detection filter. The method may be further used before using the Sobel edge detection filter. References related to this can be found in 'Canny, J., A Computational Approach To Edge Detection, IEEE Trans. Pattern Analysis and Machine Intelligence, 1986. ' FIG. 5 is a diagram illustrating an edge pixel generation result when only the Sobel edge detection filter is used in the region of interest 310 (500) and when the non-maximal suppression method is additionally used (502) before the Sobel edge detection filter is used. As shown in FIG. 5, and before using the Sobel edge detection filter, if the non-maximal suppression method is further used (502), it can be seen that the edge pixels are sharper.

단계 S1134에서, 에지 픽셀이 검출(S1132) 된 프레임을 일방향을 스캔하여 인접한 에지들의 집합인 제1 에지 링크가 생성된다.In operation S1134, the first edge link, which is a set of adjacent edges, is generated by scanning one direction of the frame in which the edge pixel is detected (S1132).

단계 S1136에서, 상기 제1 에지 링크 간에 존재할 수 있는 간격(gap)을 연결하여 제2 에지 링크를 생성한다. 하나의 차선에 대응하는 에지 링크라도, 필터 적용 등의 이미지 변환 과정에서 중간에 분단되는 경우가 생길 수 있는데, 소정의 간격 한계 픽셀 이하의 간격은 단계 S1136에서 연결되고, 결과적으로 원래 하나의 차선에 대응하나 분단되어 둘 이상의 제1 에지 링크로 분류되었던 것을 하나의 제2 에지 링크로 연결할 수 있다.In operation S1136, a gap may exist between the first edge links to generate a second edge link. Even if an edge link corresponding to one lane may be broken in the middle of the image conversion process such as applying a filter, an interval of less than a predetermined gap limit pixel is connected in step S1136, and as a result, in the original one lane One that is correspondingly segmented and classified as two or more first edge links may be connected to one second edge link.

단계 S1136에서, 각각의 제1 에지 링크의 평균 기울기를 측정하고, 상기 측정 된 평균 기울기가 미리 정의된 기울기 범위 내에 있지 않은 상기 제1 에지 링크는 노이즈(noise)로 간주되어 제2 에지 링크에서 제외 될 수 있다. 상기 미리 정의된 기울기 범위는, 예를 들어, 20°에서 160° 사이일 수 있다. 이 경우, 차선은 차량의 진행 방향과 일정한 범위의 각도를 가질 수 밖에 없다는 점을 이용하여 노이즈를 제거할 수 있는 효과가 있다.In step S1136, the average slope of each first edge link is measured, and the first edge link whose measured average slope is not within a predefined slope range is considered noise and excluded from the second edge link. Can be. The predefined slope range may be, for example, between 20 ° and 160 °. In this case, the lane has an effect of removing noise by using the fact that the lane must have an angle within a predetermined range with the traveling direction of the vehicle.

단계 S1136에서, 상기 제1 에지 링크 간에 존재하는 간격을 제1 에지 링크의 평균 기울기를 참조하여 연결할 수 있다. 즉, 상기 제1 에지 링크의 시작점 픽셀로부터 끝점 픽셀 방향으로 스캔 하여 상기 제1 에지 링크에 포함된 픽셀을 상기 제2 에지 링크에 포함시키고, 상기 제2 에지 링크의 평균 기울기를 측정하며, 상기 제1 에지 링크의 끝점 픽셀에서 상기 평균 기울기 방향으로 최대 상기 간격 한계 픽셀만큼 진행 시 다른 상기 제1 에지 링크에 속한 에지 픽셀이 존재하는지 판정하고, 다른 상기 제1 에지 링크에 속한 에지 픽셀이 존재하는 경우, 상기 제1 에지 링크 간에 존재하는 간격을 연결하여 제2 에지 링크를 생성할 수 있다. 도 6은 본 실시예에 따른 방향을 고려한 간격 연결 예시를 나타낸 도면이다. 평균 기울기를 측정하는 예시(600) 및 간격 연결 예시(602)가 도시되어 있다. 도 6은 설명의 편의를 위해, 에지 픽셀이 어두운 색으로 채색되어 있다. In operation S1136, the gaps existing between the first edge links may be connected with reference to an average slope of the first edge links. That is, the pixels included in the first edge link are included in the second edge link by scanning from the start pixel of the first edge link in the direction of the end pixel, and the average slope of the second edge link is measured. When there is an edge pixel belonging to the other first edge link when there is a maximum edge gap pixel in the average slope direction from the endpoint pixel of one edge link, and if there is an edge pixel belonging to the other first edge link The second edge link may be generated by connecting gaps between the first edge links. 6 is a view showing an example of the interval connection in consideration of the direction according to this embodiment. An example 600 for measuring the average slope and an example 602 for spacing connections are shown. 6, the edge pixels are colored in a dark color for convenience of description.

간격 연결 예시(602)에 도시된 경우, 제1 에지 링크의 평균 기울기 방향(606)으로 제1 에지 링크를 순회 하다가, 제1 에지 링크의 끝점(604)에 도달 하는 경우, 제1 에지 링크의 평균 기울기 방향(606)의 인접한 3개의 픽셀이 새로운 에지 픽셀의 후보가 된다. 상기 에지 픽셀의 후보 중, 픽셀 색상의 광도를 기준으로 새로운 에지 픽셀을 정할 수 있다. 이때 유의할 점은 새로운 에지 픽셀로 추가되는 픽셀의 수는 최대 소정의 간격 한계 픽셀 이하여야 한다는 점이다. 상기 간격 한계 픽셀의 수는, 예를 들어 5일 수 있다. 본 실시예에 따른 에지 링크의 평균 기울기를 이용한 간격 연결은 실제 연결된 에지가 아닌 경우에도 각각의 에지 링크를 연결하여 발생하는 노이즈를 최대한 감소시킬 수 있는 효과가 있다.As shown in the example of the spacing of the connections, the first edge link is traversed in the average slope direction 606 of the first edge link, and when the end point 604 of the first edge link is reached, Three adjacent pixels in the average slope direction 606 are candidates for the new edge pixel. Among the candidate edge pixels, a new edge pixel may be determined based on the luminance of the pixel color. Note that the number of pixels added as a new edge pixel should be less than or equal to the maximum predetermined spacing limit pixel. The number of interval limit pixels may be, for example. The spacing using the average slope of the edge link according to the present embodiment has the effect of reducing noise generated by connecting each edge link as much as possible even when the edge is not actually connected.

단계 S1136에서, 제2 에지 링크의 상기 평균 기울기 방향의 길이가 소정의 최소 차선 길이 미만인 경우, 상기 제2 에지 링크의 목록에서 제거할 수 있다. 상기 최소 차선 길이는 예를 들어 15 픽셀일 수 있다. 이 경우, 차선일 수 없는 에지 링크를 노이즈로 더 걸러낼 수 있는 효과가 있다.In operation S1136, when the length of the average slope direction of the second edge link is less than a predetermined minimum lane length, the second edge link may be removed from the list of the second edge link. The minimum lane length may be 15 pixels, for example. In this case, there is an effect that can further filter out edge links that cannot be lanes with noise.

단계 S1138에서, 제2 에지 링크 중에 좌우 에지 페어링(pairing)을 통하여 노이즈를 더 제거할 수 있다. 즉, 각각의 상기 제2 에지 링크에 대하여 상기 프레임의 좌우 중심축의 반대편에 위치하되, 같은 높이 상에 위치하는 픽셀을 적어도 하나 포함하는 상기 제2 에지 링크를 스캔 하여 짝 링크로 지정하고, 상기 제2 에지 링크에 포함된 픽셀 중 짝 링크에 포함된 픽셀과의 같은 높이 상의 거리가 소정의 한계 차선 넓이 이하인 비율을 연산하며, 상기 소정의 한계 차선 넓이 이하인 비율이 소정의 에지 링크 짝 형성 비율 미만인 상기 제2 에지 링크를 상기 노이즈 에지 링크로 지정하여 상기 제2 에지 링크에서 제거할 수 있다. 이 경우, 차선은 좌우 일정 넓이 이하여야 한다는 점을 이용하여 노이즈를 더 제거할 수 있는 효과가 있다. 상기 링크 짝 형성 비율은 예를 들어 0.8일 수 있다.In operation S1138, noise may be further removed through left and right edge pairing during the second edge link. That is, for each of the second edge links, the second edge links positioned at opposite sides of the left and right central axes of the frame and including at least one pixel located at the same height are scanned and designated as paired links. Calculating a ratio at which the distance on the same height of the pixels included in the two edge links with the pixels included in the paired links is equal to or less than a predetermined limit lane area, and wherein the ratio equal to or less than the predetermined limit lane area is less than a predetermined edge link pair formation rate. A second edge link may be designated as the noise edge link to remove it from the second edge link. In this case, there is an effect that the lane can be further removed by using that the lane should be less than a certain width. The link pair formation rate may be, for example, 0.8.

상기 소정의 한계 차선 넓이는 상기 프레임 상 높이 별로 서로 다르게 정의되되, 상기 프레임 상 높이가 높아질수록 감소할 수 있다. 상기 프레임 영상은 투영법에 의하여 먼 거리에 있을수록 좌우 폭이 더 좁게 표시되고, 상기 프레임 상 높이가 높아질수록 더 먼거리의 차선이 표시되는 점에서, 특정 높이에 대한 한계 차선 넓이는 높이가 높아질수록 더 감소한다. 프레임 상 높이가 높아진다는 의미는 프레임 상 아래에서 위쪽으로 올라간다는 의미와 동일하다. 상기 소정의 한계 차선 넓이는 상기 프레임 상 높이 별로 소정의 한계 차선 넓이가 대응되어 있는 참조 테이블의 형태로 구성될 수 있다.The predetermined limit lane width may be defined differently for each height on the frame, and may decrease as the height on the frame increases. Since the frame image has a narrower left and right width when the distance is far from the projection method, and a longer distance lane is displayed as the height on the frame increases, the limit lane width for a specific height becomes higher as the height increases. Decreases. Increasing the height on the frame is the same as rising from the bottom to the top of the frame. The predetermined limit lane width may be configured in the form of a reference table in which a predetermined limit lane width corresponds to each height on the frame.

도 7은 본 실시예에 따른 차선 후보 에지 링크 생성 동작(S113)의 예시이다.7 is an illustration of a lane candidate edge link generation operation S113 according to the present embodiment.

관심 영역(700)을 대상으로 에지 픽셀을 검출(S1132)한 결과(702)에서, 에지 링크 하여 제1 에지 링크를 생성(S1134)한 결과(704)가 도시되어 있다. 결과(704)에서는 오른쪽 차선이 보이지 않는 것을 확인할 수 있는데, 이는 오른쪽 차선의 중간에 간격이 발생하여, 각각의 제1 에지 링크의 평균 기울기 방향의 길이가 상기 최소 차선 길이 미만이므로, 보이지 않는 것이다. 이를 보정하기 위한 에지 간격 연결하여 제2 에지 링크를 생성하는 경우(S1136), 오른쪽 차선이 다시 보이게 된다(706). 마지막으로, 에지 페어링(pairing)을 통하여 차선 한계 넓이 이내의 반대편 제2 에지 링크가 존재하지 않거나, 존재하는 비율이 상기 에지 링크 짝 형성 비율 미만인 제2 에지 링크(707)가 노이즈로 제거되어, 차선 후보 에지 링크가 생성된다(S1139).In the result 702 of detecting the edge pixel in the region of interest 700 (S1132), the result 704 of the edge link generation (S1134) is shown. In the result 704, it can be seen that the right lane is not visible, because there is a gap in the middle of the right lane, so that the length of the average slope direction of each first edge link is less than the minimum lane length. When the second edge link is generated by connecting the edge intervals to correct this (S1136), the right lane is visible again (706). Finally, edge pairing eliminates the noise of the second edge link 707 where the opposite second edge link within the lane limit area does not exist or the rate at which the ratio exists is less than the edge link pairing ratio. The candidate edge link is generated (S1139).

다시, 도 1로 돌아와서 다음 동작을 설명한다.Returning to Fig. 1 again, the following operation will be described.

차선 후보 에지 링크 중에, 차선 후보 에지 링크에 포함된 픽셀의 색상을 기준으로 하여 노이즈를 더 제거하고, 차선의 색상 정보를 설정할 수 있다(S114). 즉, 상기 차선 후보 에지 링크에 포함된 픽셀 중 소정의 차선 색상을 가지는 픽셀의 비율이 소정의 차선 색상 임계 비율 이상인 경우, 상기 차선 후보 에지 링크에 대한 상기 차선 색상 정보를 상기 소정의 차선 색상으로 지정하고, 상기 차선 색상 정보가 지정되지 않는 상기 차선 후보 에지 링크를 노이즈로 판단하여, 상기 차선 후보 에지 링크에서 제거할 수 있다. 이 경우, 차선이 가질 수 없는 색상으로 된 픽셀이 차선으로 인식되는 것을 방지할 수 있는 효과가 있다. 이때, 상기 프레임의 색상 값이 RGB 포맷으로 된 경우, YUV 포맷으로 변환한 후, 픽셀의 색상을 기준으로 하여 노이즈를 더 제거하는 동작(S114)을 수행하는 것이 바람직하다.During the lane candidate edge link, noise may be further removed based on the color of the pixel included in the lane candidate edge link, and color information of the lane may be set (S114). That is, when the ratio of pixels having a predetermined lane color among pixels included in the lane candidate edge link is greater than or equal to a predetermined lane color threshold ratio, the lane color information for the lane candidate edge link is designated as the predetermined lane color. The lane candidate edge link, to which the lane color information is not specified, may be determined as noise and removed from the lane candidate edge link. In this case, there is an effect that it is possible to prevent the pixel of the color which the lane cannot have is recognized as the lane. In this case, when the color value of the frame is in the RGB format, after converting to the YUV format, it is preferable to perform an operation of further removing noise based on the color of the pixel (S114).

다음으로, 차선 후보 에지 링크에 포함된 픽셀들을 반영하는 직선 모델을 생성하고, 상기 직선 모델을 나타내는 파라미터로 상기 차선 위치 정보를 구성한다(S115). 보다 자세하게는, 상기 차선 위치 정보는, 상기 차선 후보 에지 링크에 허프 변환(Hough transform)을 적용하여 상기 차선 후보 에지 링크를 표현하는 것으로 측정되는 직선에 대한 식 xcosθ+ysinθ=ρ 에서의 (θ, ρ) 형태로 구성될 수 있다. 허프 변환에 대한 기재는 문헌 'Duda, R. O. and P. E. Hart, "Use of the Hough Transformation to Detect Lines and Curves in Pictures," Comm. ACM, Vol. 15, pp. 11?15 (January, 1972)', 'P.V.C. Hough, Machine Analysis of Bubble Chamber Pictures, Proc. Int. Conf. High Energy Accelerators and Instrumentation, 1959', 'http://en.wikipedia.org/wiki/Hough_transform#cite_note-1'을 참조할 수 있다.Next, a straight line model is generated that reflects pixels included in the lane candidate edge link, and the lane position information is configured using a parameter representing the straight line model (S115). In more detail, the lane position information is obtained by applying a Hough transform to the lane candidate edge link to express a lane candidate edge link in the equation xcosθ + ysinθ = ρ (θ, ρ) form. A description of the Hough transform is described in Duda, R. O. and P. E. Hart, "Use of the Hough Transformation to Detect Lines and Curves in Pictures," Comm. ACM, Vol. 15, pp. 11-15 (January, 1972), '' P.V.C. Hough, Machine Analysis of Bubble Chamber Pictures, Proc. Int. Conf. High Energy Accelerators and Instrumentation, 1959 ',' http://en.wikipedia.org/wiki/Hough_transform#cite_note-1 '.

다음으로, 차선의 연속성이 체크되어 차선의 종류 정보가 설정될 수 있다(S116). 상기 차선의 종류는 직선 차선 및 점선 차선 중 하나일 수 있다. 상기 차선 종류 정보는, 표 1에 기재된 식에 의해 결정될 수 있다.Next, the continuity of the lane may be checked and the type information of the lane may be set (S116). The type of lane may be one of a straight lane and a dotted lane. The lane type information may be determined by the formula shown in Table 1.

Figure 112010023756503-pat00001
Figure 112010023756503-pat00001

상기 Li 는 상기 차선 후보 에지 링크이고(i≤0<차선 후보 에지 링크의 수), P(solid|Li), P(dash|Li)는 베이지안 확률 모델(Bayesian probability model) 상의 사후확률함수(posterior probability function)로, 각각 Li 가 직선(solid) 차선일 확률 및 점선(dash) 차선일 확률을 의미하며, P(solid|Li)=P(solid)P(Li|solid)이고, P(dash|Li)=P(dash)P(Li|dash)이며, P(Li|solid) 및 P(Li|dash)는 각각 직선 차선 및 점선 차선의 가능도 확률(likelihood probability)이며, P(solid) 및 P(dash)는 사전확률(prior probability)일 수 있다.Li is the lane candidate edge link (i ≦ 0 <number of lane candidate edge links), P (solid | Li), and P (dash | Li) are posterior probability functions on the Bayesian probability model probability function), which is the probability that Li is a solid lane and a dashed lane, respectively, where P (solid | Li) = P (solid) P (Li | solid) and P (dash | Li) = P (dash) P (Li | dash), P (Li | solid) and P (Li | dash) are likelihood probabilities of the straight and dashed lanes, respectively. P (dash) may be a prior probability.

이 때, P(solid) = 1 ? P(dash)일 수 있다. 또한, P(solid)는 상기 차선 색상 정보에 따라 서로 상이하게 미리 정의될 수 있다. 예를 들어, 차선 색상이 노란 색일 경우 P(solid) = 0.8, 차선 색상이 파란 색일 경우 P(solid) = 0.7, 차선 색상이 흰 색일 경우, P(solid) = 0.5일 수 있다. 이 경우, 차선의 색상과 차선의 종류 간에 존재하는 일정한 상관관계를 반영하여 각각의 차선의 종류를 계산할 수 있는 효과가 있다.Where P (solid) = 1? It may be P (dash). Also, P (solid) may be predefined differently from each other according to the lane color information. For example, if the lane color is yellow, P (solid) = 0.8, if the lane color is blue, P (solid) = 0.7, and if the lane color is white, P (solid) = 0.5. In this case, it is possible to calculate the type of each lane by reflecting a certain correlation existing between the color of the lane and the type of the lane.

P(Li|solid)는 상기 차선 후보 에지 링크를 표현하는 것으로 측정되는 직선의 길이 및 상기 차선 후보 에지 링크의 길이의 비율을 이용하여 연산될 수 있다. P(Li|dash)= 1 - P(Li|solid)일 수 있다.P (Li | solid) may be computed using the ratio of the length of the straight line and the length of the lane candidate edge link measured to represent the lane candidate edge link. P (Li | dash) = 1-P (Li | solid).

베이지안 확률 모델에 대한 기재는, 문헌 'ET. Jaynes. Probability Theory: The Logic of Science Cambridge University Press, (2003). ISBN 0-521-59271-2'을 참조할 수 있다.For a description of the Bayesian Probabilistic Model, see ET. Jaynes. Probability Theory: The Logic of Science Cambridge University Press, (2003). ISBN 0-521-59271-2 '.

단일 프레임 레벨(S110)의 동작이 모두 수행되면 각각의 프레임에 포함된 차선들에 대한 정보인 차선 파라미터가 생성되고, 상기 차선 파라미터는 저장된다(S117). 소정의 프레임이 분석되면 프레임 간 보정 레벨(S120)이 시작된다. 프레임 간 보정 레벨(S120)에서는 상기 차선 파라미터 셋을 저장하고, 각 프레임에 포함된 상기 차선 파라미터 셋을 비교하여 노이즈 차선 파라미터 셋을 제거하거나 인접 프레임의 유효 차선 파라미터 셋으로 대체한다.When all operations of the single frame level S110 are performed, a lane parameter that is information about lanes included in each frame is generated, and the lane parameter is stored (S117). When the predetermined frame is analyzed, the interframe correction level S120 is started. In the inter-frame correction level S120, the lane parameter set is stored and the noise lane parameter set is removed by comparing the lane parameter set included in each frame, or replaced with the effective lane parameter set of an adjacent frame.

프레임 간 보정 레벨(S120)에서는 각 프레임에 포함된 차선 파라미터 중 차선 위치 정보를 분석하여 직전 프레임의 차선 위치 정보가 소정의 변화 값 한계치를 초과하는 경우, 노이즈 데이터로 판단하고 제거한 후, 직전 프레임의 차선 위치 정보로 대체할 수 있다(S122).In the inter-frame correction level (S120), the lane position information of the lane parameters included in each frame is analyzed, and when the lane position information of the previous frame exceeds a predetermined change value threshold, it is determined as noise data and then removed. It may be replaced with the lane location information (S122).

또한, 하나의 프레임 내의 차선 파라미터 중 상기 차선 위치 정보를 분석한 결과, 상기 프레임의 좌우 중심축으로부터 오른쪽에 차선이 존재하나, 상기 프레임의 왼쪽에 차선이 존재하지 않는 경우, 이전 프레임의 왼쪽 차선의 차선 파라미터 셋을 현재 프레임에 추가할 수 있다(S124).In addition, as a result of analyzing the lane position information among lane parameters in one frame, when a lane exists on the right side from the left and right center axis of the frame but no lane exists on the left side of the frame, The lane parameter set may be added to the current frame (S124).

또한, 상기 차선 색상 정보 및 상기 차선 종류 정보를 소정의 업데이트 주기 프레임 별로 합산하여, 가장 높은 빈도를 가지는 값으로 일원화할 수 있다(S126).In addition, the lane color information and the lane type information may be summed for each predetermined update period frame and may be unified to a value having the highest frequency (S126).

이상 첨부된 도면을 참조하여 본 발명의 실시 예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

Claims (8)

전방 카메라에 의해 촬영된 영상의 각 프레임을 분석하여 차선 후보 에지 링크를 생성하고, 상기 차선 후보 에지 링크에 대한 차선 파라미터 셋을 생성하되, 상기 차선 파라미터 셋은 차선 위치 정보, 차선 색상 정보 및 차선 종류 정보를 포함하는 단일 프레임 분석 단계; 및
상기 차선 파라미터 셋을 저장하고, 각 프레임에 포함된 상기 차선 파라미터 셋을 비교하여 노이즈 차선 파라미터 셋을 제거하거나 인접 프레임의 유효 차선 파라미터 셋으로 대체하는 프레임 간 보정 단계를 포함하며,
상기 단일 프레임 분석 단계는,
관심 영역을 설정하는 단계;
상기 관심 영역 내에서 에지 검출 필터를 적용하여 에지 픽셀을 검출하는 단계;
상기 검출된 에지 픽셀 중 서로 인접한 에지 픽셀들의 집합인 제1 에지 링크를 생성하는 단계;
상기 제1 에지 링크 간에 존재하는 간격 한계 픽셀 이하의 간격을 연결하여 제2 에지 링크를 생성하는 단계; 및
상기 제2 에지 링크 중, 상기 프레임의 좌우 중심축으로부터의 거리를 기준으로 노이즈 에지 링크를 제거한 상기 차선 후보 에지 링크를 생성하는 단계를 더 포함하는 차선 감지 방법.
A lane candidate edge link is generated by analyzing each frame of an image captured by the front camera, and a lane parameter set for the lane candidate edge link is generated, wherein the lane parameter set includes lane position information, lane color information, and lane type. A single frame analysis step comprising information; And
Inter-frame correction step of storing the lane parameter set, comparing the lane parameter set included in each frame to remove the noise lane parameter set or replace it with a valid lane parameter set of an adjacent frame;
The single frame analysis step,
Setting a region of interest;
Applying an edge detection filter within the region of interest to detect edge pixels;
Creating a first edge link that is a set of adjacent edge pixels of the detected edge pixels;
Generating a second edge link by concatenating a gap below an interval limit pixel existing between the first edge links; And
And generating the lane candidate candidate edge link having the noise edge link removed from the second edge link based on a distance from a left and right central axis of the frame.
제1 항에 있어서,
상기 관심 영역을 설정하는 단계는,
상기 프레임 상에 일정 간격의 그리드(grid)를 생성하는 단계;
상기 그리드로 둘러싸인 영역의 색상을 소정의 배경 색상으로 일원화하여 제1 변형 프레임을 생성하는 단계;
상기 제1 변형 프레임에 에지 검출 필터(edge detection filter)를 적용하여 제2 변형 프레임을 생성하는 단계;
상기 제2 변형 프레임 상의 에지 픽셀 및 상기 에지 픽셀의 소정 범위의 인접 픽셀의 색상을 관심 영역 색상으로 설정하여 제3 변형 프레임을 생성하는 단계; 및
상기 제3 변형 프레임 상의 상기 관심 영역 색상의 픽셀들의 집합을 상기 관심 영역으로 설정하는 단계를 포함하는 차선 감지 방법.
The method according to claim 1,
The setting of the ROI may include:
Generating a grid at intervals on the frame;
Generating a first modified frame by unifying the color of the area enclosed by the grid with a predetermined background color;
Generating a second modified frame by applying an edge detection filter to the first modified frame;
Generating a third modified frame by setting a color of an edge pixel on the second modified frame and an adjacent pixel of a predetermined range of the edge pixel as a region of interest color; And
And setting the set of pixels of the region of interest color on the third deformed frame as the region of interest.
삭제delete 제1 항에 있어서,
상기 제2 에지 링크를 생성하는 단계는,
상기 제1 에지 링크의 평균 기울기를 측정하는 단계; 및
상기 측정 된 평균 기울기가 미리 정의된 기울기 범위 내에 있지 않은 상기 제1 에지 링크를 제외한 상기 제2 에지 링크를 생성하는 단계를 포함하는 차선 감지 방법.
The method according to claim 1,
Generating the second edge link,
Measuring an average slope of the first edge link; And
Generating the second edge link except for the first edge link where the measured average slope is not within a predefined slope range.
제1 항에 있어서,
상기 제2 에지 링크를 생성하는 단계는,
상기 제1 에지 링크의 시작점 픽셀로부터 끝점 픽셀 방향으로 스캔하여 상기 제1 에지 링크에 포함된 픽셀을 상기 제2 에지 링크에 포함시키는 단계;
상기 제2 에지 링크의 평균 기울기를 측정하는 단계; 및
상기 제1 에지 링크의 끝점 픽셀에서 상기 평균 기울기 방향으로 최대 상기 간격 한계 픽셀만큼 진행 시 다른 상기 제1 에지 링크에 속한 에지 픽셀이 존재하는지 판정하는 단계;
다른 상기 제1 에지 링크에 속한 에지 픽셀이 존재하는 경우, 상기 제1 에지 링크 간에 존재하는 간격을 연결하여 제2 에지 링크를 생성하는 단계를 포함하는 차선 감지 방법.
The method according to claim 1,
Generating the second edge link,
Scanning in the direction from the start pixel to the end pixel of the first edge link to include pixels included in the first edge link in the second edge link;
Measuring an average slope of the second edge link; And
Determining whether there exists an edge pixel belonging to the other first edge link when the pixel progresses from the endpoint pixel of the first edge link by the gap limit pixel in the average slope direction;
If there are edge pixels belonging to the other first edge link, connecting the gaps existing between the first edge links to generate a second edge link.
제1 항에 있어서,
상기 차선 후보 에지 링크를 생성하는 단계는,
각각의 상기 제2 에지 링크에 대하여 상기 프레임의 좌우 중심축의 반대편에 위치하되, 같은 높이 상에 위치하는 픽셀을 적어도 하나 포함하는 상기 제2 에지 링크를 스캔 하여 짝 링크로 지정하는 단계;
상기 제2 에지 링크에 포함된 픽셀 중 짝 링크에 포함된 픽셀과의 같은 높이 상의 거리가 소정의 한계 차선 넓이 이하인 비율을 연산하는 단계; 및
상기 소정의 한계 차선 넓이 이하인 비율이 소정의 에지 링크 짝 형성 비율 미만인 상기 제2 에지 링크를 상기 노이즈 에지 링크로 지정하는 단계를 포함하는 차선 감지 방법.
The method according to claim 1,
Generating the lane candidate edge link,
Scanning the second edge link for each of the second edge links, the second edge link including at least one pixel located opposite to the left and right central axes of the frame and located at the same height, and designating a pair of links;
Calculating a ratio of a pixel included in the second edge link having a same height as a pixel included in a paired link equal to or less than a predetermined limit lane width; And
Designating the second edge link as the noise edge link, wherein the ratio that is less than the predetermined limit lane width is less than a predetermined edge link pair formation rate.
제1 항에 있어서,
상기 차선 종류 정보는,
Figure 112010023756503-pat00002
에 의해 결정 되고,
상기 Li 는 상기 차선 후보 에지 링크이고(i≤0<차선 후보 에지 링크의 수), P(solid|Li), P(dash|Li)는 베이지안 확률 모델(Bayesian probability model) 상의 사후확률함수(posterior probability function)로, 각각 Li 가 직선(solid) 차선일 확률 및 점선(dash) 차선일 확률을 의미하며,
P(solid|Li)=P(solid)P(Li|solid)이고, P(dash|Li)=P(dash)P(Li|dash)이며, P(Li|solid) 및 P(Li|dash)는 각각 직선 차선 및 점선 차선의 가능도 확률(likelihood probability)이며, P(solid) 및 P(dash)는 사전확률(prior probability)인 차선 감지 방법.
The method according to claim 1,
The lane type information,
expression
Figure 112010023756503-pat00002
Determined by
Li is the lane candidate edge link (i ≦ 0 <number of lane candidate edge links), P (solid | Li), and P (dash | Li) are posterior probability functions on the Bayesian probability model probability function), meaning the probability that Li is a solid lane and a dashed lane, respectively.
P (solid | Li) = P (solid) P (Li | solid), P (dash | Li) = P (dash) P (Li | dash), P (Li | solid) and P (Li | dash) ) Are the likelihood probabilities of the straight lane and the dotted lane, respectively, and P (solid) and P (dash) are prior probability.
제7 항에 있어서,
상기 P(solid)는 상기 차선 색상 정보에 따라 서로 상이하게 미리 정의되는 차선 감지 방법.
The method of claim 7, wherein
Wherein P (solid) is predefined lane different from each other according to the lane color information.
KR1020100034288A 2010-04-14 2010-04-14 Lane detection method KR101121777B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100034288A KR101121777B1 (en) 2010-04-14 2010-04-14 Lane detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100034288A KR101121777B1 (en) 2010-04-14 2010-04-14 Lane detection method

Publications (2)

Publication Number Publication Date
KR20110114905A KR20110114905A (en) 2011-10-20
KR101121777B1 true KR101121777B1 (en) 2012-06-12

Family

ID=45029707

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100034288A KR101121777B1 (en) 2010-04-14 2010-04-14 Lane detection method

Country Status (1)

Country Link
KR (1) KR101121777B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210009032A (en) 2019-07-16 2021-01-26 홍범진 Kit device for automatic truck car and control method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101449371B1 (en) * 2014-03-19 2014-10-13 인하대학교 산학협력단 Method for classifing driving event based on region segmentation of vechile image
CN108216229B (en) * 2017-09-08 2020-01-10 北京市商汤科技开发有限公司 Vehicle, road line detection and driving control method and device
US11688155B2 (en) * 2020-01-06 2023-06-27 Luminar, Llc Lane detection and tracking techniques for imaging systems

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010096265A (en) * 2000-04-18 2001-11-07 이계안 Method for lane sencing of vehicle
JP2007004668A (en) * 2005-06-27 2007-01-11 Honda Motor Co Ltd Vehicle and lane recognition device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010096265A (en) * 2000-04-18 2001-11-07 이계안 Method for lane sencing of vehicle
JP2007004668A (en) * 2005-06-27 2007-01-11 Honda Motor Co Ltd Vehicle and lane recognition device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210009032A (en) 2019-07-16 2021-01-26 홍범진 Kit device for automatic truck car and control method

Also Published As

Publication number Publication date
KR20110114905A (en) 2011-10-20

Similar Documents

Publication Publication Date Title
CN107679520B (en) Lane line visual detection method suitable for complex conditions
CN110555361B (en) Image processing method for lane classification
US9257043B2 (en) Lane correction system, lane correction apparatus and method of correcting lane
US8184859B2 (en) Road marking recognition apparatus and method
EP2858008B1 (en) Target detecting method and system
US7095432B2 (en) Image processing apparatus and method
US11482016B2 (en) Division line recognition apparatus
JP4416039B2 (en) Striped pattern detection system, striped pattern detection method, and striped pattern detection program
US8599257B2 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
KR101067437B1 (en) Lane detection method and Detecting system using the same
JP5975598B2 (en) Image processing apparatus, image processing method, and program
WO2014033936A1 (en) Image processing device, image processing method, and image processing program
US11747278B2 (en) Deposit detection device for detecting a partial covering location, a not-adhere location, and a diffuse reflection location
JP2000011133A (en) Device and method for detecting moving object
KR101121777B1 (en) Lane detection method
JPWO2014073571A1 (en) Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine
EP3631675B1 (en) Advanced driver assistance system and method
JP2007011490A (en) Device and method for detecting road parameter
KR101501851B1 (en) Apparatus and method for lane detection using hough transformation at optimized accumulator cells
US20210090260A1 (en) Deposit detection device and deposit detection method
US10970585B2 (en) Adhering substance detection apparatus and adhering substance detection method
Gupta et al. Robust lane detection using multiple features
TWI502166B (en) Image monitoring system, and method
JP4622141B2 (en) Image processing apparatus, image processing method, recording medium, and program
JP2011191884A (en) White line detection device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150108

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170117

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee