KR20140080105A - Method for detecting lane boundary by visual information - Google Patents

Method for detecting lane boundary by visual information Download PDF

Info

Publication number
KR20140080105A
KR20140080105A KR1020120149545A KR20120149545A KR20140080105A KR 20140080105 A KR20140080105 A KR 20140080105A KR 1020120149545 A KR1020120149545 A KR 1020120149545A KR 20120149545 A KR20120149545 A KR 20120149545A KR 20140080105 A KR20140080105 A KR 20140080105A
Authority
KR
South Korea
Prior art keywords
lane
detecting
image
horizontal line
boundary
Prior art date
Application number
KR1020120149545A
Other languages
Korean (ko)
Other versions
KR101968349B1 (en
Inventor
조상복
장영민
임동혁
김성훈
Original Assignee
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산대학교 산학협력단 filed Critical 울산대학교 산학협력단
Priority to KR1020120149545A priority Critical patent/KR101968349B1/en
Publication of KR20140080105A publication Critical patent/KR20140080105A/en
Application granted granted Critical
Publication of KR101968349B1 publication Critical patent/KR101968349B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates a method for detecting a lane boundary by using image information. The method includes steps of inputting image information on a grayscale image; detecting a horizontal line by applying a vertical average distribution algorithm; detecting a lane boundary from an image at a lower part of the horizontal line; determining left and right lanes by applying a K-means clustering algorithm to the detected lane boundary, defining a lane derailment coefficient by setting a critical angle according to a change of a vanishing point, and determining a lane derailment or a lane change according to a vehicle′s driving state; and distinguishing an inlier from an outlier by applying an RANSAC algorithm and removing detection noise by repeatedly performing a lane detection function in consideration of only the inlier. Therefore, a lane change and a general drive may be distinguished from each other by using image information obtained from a moving vehicle, the reliability of a lane recognition result may be improved, and a lane may be detected accurately in harsh environments.

Description

영상 정보를 이용한 차선 경계 검출 방법{METHOD FOR DETECTING LANE BOUNDARY BY VISUAL INFORMATION}TECHNICAL FIELD [0001] The present invention relates to a method of detecting a lane boundary using image information,

본 발명은 영상 정보를 이용한 차선 경계 검출 방법에 관한 것으로, 더욱 상세하게는 주행중 차량으로부터 획득하는 영상 정보를 이용하여 차선변경과 일반주행의 구분이 가능하고, 차선 인식 결과의 신뢰성을 높여주며, 가혹한 환경에서도 정확하게 차선을 검출할 수 있도록 하는 영상 정보를 이용한 차선 경계 검출 방법에 관한 것이다.
The present invention relates to a lane boundary detection method using image information, and more particularly, to a lane departure detection method using image information, which can distinguish a lane change from a normal lane using image information acquired from a vehicle while driving, And more particularly, to a lane boundary detection method using image information that enables accurate lane detection even in an environment.

최근에는 운전자가 없거나 운전자가 있더라도 차량을 직접 조작하지 않고 컴퓨터 등에 의해 주행, 정지, 회전, 가속 또는 감속 등의 운전 조작이 자동으로 이루어지는 지능형 차량이 개발되고 있다.Recently, there has been developed an intelligent vehicle in which a driving operation such as running, stopping, rotating, accelerating or decelerating is automatically performed by a computer or the like without directly operating the vehicle, even if there is no driver or there is a driver.

이러한 지능형 차량의 주요 과제는 주행차선의 유지, 인접차량과의 안전거리 확보와 근접 장애물의 검출과 충돌 회피, 교통상황이나 도로 환경에 따른 차량속도 제어 등이 있다.The main tasks of these intelligent vehicles are to maintain driving lanes, to establish safety distances to adjacent vehicles, to detect and avoid collision obstacles, to control collision avoidance, and to control vehicle speed in response to traffic conditions and road conditions.

더욱이, 정보통신 기술의 진전에 따라 차선이탈 경고 시스템(LDWS : Lane Departure Warning System)이나 차선유지와 같은 안전운전 보조시스템, 차량 자동 제어시스템 등이 개발되어 지능형 차량의 실용화가 더욱 급속하게 진행되고 있다. 특히, 주행차선의 검출은 지능형 차량에서의 주요 과제를 해결하는 핵심기술의 하나로서, 많은 연구가 활발히 진행되고 있다.Further, according to the progress of information and communication technology, a safety driving assist system such as a lane departure warning system (LDWS) or a lane keeping system, and a vehicle automatic control system have been developed, and the practical use of the intelligent vehicle is progressing more rapidly . Especially, the detection of the driving lane is one of the core technologies for solving the main problems in the intelligent vehicle, and many researches are actively conducted.

이와 같은 주행차선의 검출은 안전 운전에 지대한 영향을 미치게 되므로, 차선의 위치를 추정하고 판단하기 위해 여러 가지 센서들을 활용하여 정확한 주행차선을 검출하고 있다. 예로서, 이미지 센서, 레이더(RADAR) 또는 라이다(LIDAR) 센서 등 다양한 센서들이, 차선의 검출이나 차량 전방의 물체 인식을 위해 단독 또는 융합된 형태로 지능형 차량제어 시스템 구현에 사용되고 있다.Since the detection of such a driving lane has a great influence on the safe driving, an accurate driving lane is detected by using various sensors in order to estimate and determine the position of the lane. For example, various sensors such as an image sensor, a RADAR or a LIDAR sensor have been used to implement an intelligent vehicle control system in a stand-alone or fused form for lane detection or object recognition in front of the vehicle.

특히, 이미지 센서에 의한 영상 기반 시스템은 저렴한 비용으로 많은 정보의 추출이 가능하고, 기존의 다양한 영상 처리 알고리즘을 활용할 수 있는 장점으로 인해 널리 활용되어 왔다.Especially, image based system using image sensor has been widely used because it can extract a lot of information at low cost and can utilize various image processing algorithms.

이러한 영상 기반의 차선검출 시스템은, 입력 영상으로부터 특징 정보를 추출하고, 차선검출을 위한 파라미터릭(Parametric) 모델과 매칭, 칼만(Kalman) 필터 또는 파티클(Particle) 필터링 등과 같은 갱신 알고리즘의 적용에 의한 근사화 방법이나, 허프 변환(HT:Hough Transform)과 같은 변환에 의한 논파라미터릭(Non-Parametric)모델 매칭 등의 방법을 이용하여 차선을 검출하고 있다.Such an image-based lane detection system can extract feature information from an input image, apply a parametric model for lane detection, update algorithms such as matching, Kalman filter or particle filtering, A lane is detected using a method such as an approximation method or a non-parametric model matching by conversion such as a Hough Transform (HT).

일예로서, 대한민국 공개특허공보 제10-2011-0001427호(2011.01.06)에는 관심영역 추출에 의한 차선 고속 검출방법이 개시되어 있다.As an example, Korean Patent Laid-Open Publication No. 10-2011-0001427 (2011.01.06) discloses a lane-line high-speed detection method by extracting a region of interest.

도 1에 도시된 바와 같이, 종래기술에 따른 관심영역 추출에 의한 차선 고속 검출방법은, 차량에 설치된 카메라의 초점거리와 경사각 파라미터로부터 수평소실선을 사전 추정하는 제1단계와; 차량으로부터 수평소실선 영역까지 차선검출에 필요한 처리영역을 최적 선정하여 다수의 블록 형태로 이루어진 관심영역(ROI-LB: Region Of Interest for Lane Boundary)을 추출하는 제2단계와; 관심영역 내에서 영상의 특징 정보를 추출하고 이를 기반으로 한 허프변환(HT: Hough Transform)에 의한 논파라미터릭(Non-Parameteric) 모델 매칭 기법을 통해 영상으로부터 차선 성분을 추출하는 제3단계와; 추출된 차선 성분에 포함된 잡음을 제거하고 에지 보강을 통해 차선을 검출하는 제4단계를 포함한다.As shown in FIG. 1, the lane-based high-speed detection method using the ROI extraction method according to the related art includes a first step of pre-estimating a normal solid line from a focal length and an inclination angle parameter of a camera installed in a vehicle; A second step of optimally selecting a processing area necessary for lane detection from the vehicle to the normal solid line area and extracting ROI-LB (Region Of Interest for Lane Boundary) in a plurality of blocks; A third step of extracting feature information of an image in an area of interest and extracting a lane component from the image through a non-parameteric model matching technique based on Hough Transform (HT) based thereon; And a fourth step of removing noise included in the extracted lane components and detecting a lane through edge reinforcement.

이에 따라, 지능형 차량을 위하여 차선을 검출할 때, 수평소실선의 추정 및 관심영역의 선정을 통해 영상처리 영역을 감소시킴으로써, 차선검출 속도를 획기적으로 단축함과 아울러 차선검출 성능을 개선할 수 있도록 한 관심영역 추출에 의한 차선 고속 검출방법을 제공한다.Accordingly, when the lane is detected for the intelligent vehicle, it is possible to greatly reduce the lane detection speed and to improve the lane detection performance by reducing the image processing area through the estimation of the normal solid line and the selection of the area of interest A lane-line high-speed detection method by extracting a region of interest is provided.

그러나 상기와 같은 종래기술에 따른 관심영역 추출에 의한 차선 고속 검출방법은, 수평소실선 추정시 영상 처리 시간이 많이 소요되고, 차량의 일반주행에 있어서 차선을 인식할 수는 있지만, 차선변경시 일반 주행과 구분을 할 수가 없기 때문에 신뢰성이 떨어지며, 가혹한 주행 환경에서 정확한 차선을 검출할 수 없는 문제점이 있다.
However, in the lane-based high-speed detection method according to the related art as described above, it takes a long time to process the image during the normal solid line estimation and can recognize the lane in the general driving of the vehicle. However, There is a problem that reliability can not be distinguished from driving and therefore reliability can not be obtained and an accurate lane can not be detected in a severe driving environment.

대한민국 공개특허공보 제10-2011-0001427호(2011.01.06)Korean Patent Publication No. 10-2011-0001427 (2011.01.06)

본 발명은 상술한 종래기술의 문제점을 극복하기 위한 것으로서, 주행중 차량으로부터 획득하는 영상 정보를 처리하되, 수직 평균 배포 알고리즘을 사용하여 수평 라인을 감지함으로써 영상 처리시간을 단축시키고, K-means 클러스터링 알고리즘과 RANSAC 알고리즘을 사용하여 주행중 차량으로부터 획득하는 영상 정보를 이용하여 차선변경과 일반주행의 구분이 가능하도록 하고, 차선 인식 결과의 신뢰성을 높여주며, 가혹한 환경에서도 더욱 정확하게 차선을 검출할 수 있도록 하는 영상 정보를 이용한 차선 경계 검출 방법을 제공하는 데에 그 목적이 있다.
SUMMARY OF THE INVENTION The present invention has been made to overcome the problems of the prior art described above, and it is an object of the present invention to provide a video processing apparatus and a video processing method, And RANSAC algorithm, it is possible to distinguish between lane change and normal driving by using image information acquired from a vehicle while driving, to improve the reliability of the lane recognition result, and to detect a lane more accurately even in harsh environments And to provide a lane boundary detection method using information.

상기 목적을 달성하기 위해 본 발명에 따른 영상 정보를 이용한 차선 경계 검출 방법은, 그레이 스케일 이미지(Gray scale image)의 영상 정보를 입력하는 영상 정보 입력 단계; 수직 평균 배포 알고리즘을 적용하여 수평라인을 검출하는 수평라인 검출 단계; 상기 수평라인의 하단부 이미지로부터 차선 경계를 검출하는 차선 경계 검출 단계; 상기 검출된 차선 경계에 K-means 클러스터링 알고리즘을 적용하여 왼쪽과 오른쪽의 차선을 각각 판단하고, 소실점의 변화에 따라 임계 각도를 설정하여 차선이탈계수를 정의하고, 차량의 주행 상태에 따라 차선이탈 또는 차선변경을 판단하는 차선 변경 판단 단계; 및 RANSAC(RANdom SAmple Consensus) 알고리즘을 적용하여 인라이어(inlier)와 아웃라이어(outlier)를 구분하고, 상기 인라이어만을 고려하여 차선 검출 함수를 반복 수행하여 검출 노이즈를 제거하는 RANSAC 알고리즘 적용 단계;를 포함한다.According to an aspect of the present invention, there is provided a lane boundary detection method using image information, the method comprising: inputting image information of a gray scale image; A horizontal line detecting step of detecting a horizontal line by applying a vertical average distribution algorithm; A lane boundary detecting step of detecting a lane boundary from a lower end image of the horizontal line; A lane departure coefficient is defined by determining a left and a right lane by applying a K-means clustering algorithm to the detected lane boundary, setting a critical angle according to a change of the vanishing point, A lane change determining step of determining a lane change; And a RANSAC algorithm application step of discriminating between an inlier and an outlier by applying a RANSAC algorithm and a RANSAC algorithm to remove detection noise by repeatedly performing a lane detection function considering only the inlier, .

상기 수평라인 검출 단계는; 차선 경계 검출의 첫 번째 프레임에 적용되며, 다음 프레임을 위한 두 개의 차선 경계 사이의 교차로의 위치를 수평 라인 위치로 검출할 수 있다.Wherein the horizontal line detecting step comprises: It is applied to the first frame of the lane boundary detection, and the position of the intersection between the two lane boundaries for the next frame can be detected as the horizontal line position.

상기 차선 경계 검출 단계는; 상기 수평라인의 하단부 이미지를 선택하여 흑백으로 변환하는 단계; 캐니 엣지 이미지(Canny edge image) 변환을 통해 흰색 경계점을 찾는 단계; 및 상기 경계선중 직선 이미지를 추출하여 차선 경계를 검출하는 단계를 포함할 수 있다.The lane boundary detection step comprises: Selecting an image of the lower end of the horizontal line and converting it into black and white; Finding a white boundary point through a Canny edge image transformation; And extracting a straight line image of the boundary line and detecting a lane boundary.

상기 차선 변경 판단 단계는; 거리에 기반을 둔 n개의 객체들의 집합을 k개의 군집으로 분해하고, 통합 접근 방식을 통하여 화면의 왼쪽과 오른쪽의 차선경계를 각각 결정하는 것이 바람직하다.Wherein the lane change determination step comprises: It is desirable to decompose a set of n objects based on distance into k clusters and determine the left and right lane boundaries of the screen through an integrated approach.

상기 차선 변경 판단 단계는; 차선과 같은 방향을 가진 직선들을 찾고, 상기 직선들이 교차하는 소실점의 움직임의 정보를 획득하고, 획득된 소실점의 변화에 따라 k-means 알고리즘을 이용하여 임계 각도를 설정하고, 변수의 연산을 통해서 상기 차량의 주행 상태를 파악할 수 있다.Wherein the lane change determination step comprises: Finds straight lines having the same direction as the lane, acquires information of the movement of the vanishing point at which the straight lines intersect, sets a critical angle using the k-means algorithm according to the obtained change of the vanishing point, The running state of the vehicle can be grasped.

상기 차선 변경 판단 단계는; 상기 변수를 연산하는 과정에서, 차선이탈계수를 정의하여 차량이 자기 주행차선을 이탈했는지의 여부를 판단하여 상기 차량의 주행 상태를 파악하는 것이 바람직하다.
Wherein the lane change determination step comprises: In the process of calculating the variable, it is preferable that the lane departure coefficient is defined and it is determined whether or not the vehicle deviates from the self-driving lane so as to grasp the running state of the vehicle.

상기와 같이 구성된 본 발명에 따른 영상 정보를 이용한 차선 경계 검출 방법에 의하면, 주행중 차량으로부터 획득하는 영상 정보를 처리하되, 수직 평균 배포 알고리즘을 사용하여 수평 라인을 감지함으로써 영상 처리시간을 단축시키고, K-means 클러스터링 알고리즘과 RANSAC 알고리즘을 사용하여 주행중 차량으로부터 획득하는 영상 정보를 이용하여 차선변경과 일반주행의 구분이 가능하고, 차선 인식 결과의 신뢰성을 높여주며, 가혹한 환경에서도 더욱 정확하게 차선을 검출할 수 있는 효과가 있다.
According to the lane boundary detection method using the image information according to the present invention configured as described above, the image information acquired from the vehicle while driving is processed, the image processing time is shortened by detecting the horizontal line using the vertical average distribution algorithm, Using the -means clustering algorithm and the RANSAC algorithm, it is possible to distinguish between lane change and normal driving by using the image information obtained from the vehicle while driving, to improve the reliability of the lane recognition result and to detect the lane more accurately even in harsh environments There is an effect.

도 1은 종래기술에 따른 관심영역 추출에 의한 차선 고속 검출방법을 나타낸 순서도,
도 2는 본 발명의 바람직한 일 실시에에 따른 영상 정보를 이용한 차선 경계 검출 방법을 나타낸 순서도,
도 3은 본 발명에 따른 차선 경계 검출 단계를 더욱 상세히 나타낸 순서도,
도 4는 본 발명에 따른 주간 주행시 수평라인 검출 단계를 설명하기 위한 도로 영상 도면,
도 5는 본 발명에 따른 야간 주행시 수평라인 검출 단계를 설명하기 위한 도로 영상 도면,
도 6은 본 발명의 차선 경계 검출 단계를 설명하기 위한 도로 영상 도면,
도 7은 K-means 클러스터링 알고리즘을 설명하기 위한 모식도,
도 8은 K-means 클러스터링 알고리즘을 설명하기 위한 순서도,
도 9는 본 발명의 차선 변경 판단 단계를 설명하기 위한 차선 경계와 소실점을 나타낸 도면,
도 10은 본 발명의 RANSAC 알고리즘을 설명하기 위한 인라이어 및 아웃라아어 분포도,
도 11은 안개, 우천, 야간 주행시 차선 검출을 설명하기 위한 도로 영상 도면,
도 12는 본 발명의 정확도를 나타내기 위한 안개, 우천, 야간 주행시 다수의 도로 영상 도면이다.
1 is a flowchart showing a lane-based high-speed detection method by ROI extraction according to the related art,
2 is a flowchart showing a lane boundary detection method using image information according to a preferred embodiment of the present invention.
3 is a flowchart showing the lane boundary detection step according to the present invention in more detail,
4 is a road image drawing for explaining a horizontal line detecting step during a daytime running according to the present invention,
5 is a road image drawing for explaining a horizontal line detecting step at night in accordance with the present invention,
6 is a road image drawing for explaining the lane boundary detection step of the present invention,
7 is a schematic diagram for explaining a K-means clustering algorithm,
8 is a flowchart for explaining a K-means clustering algorithm,
9 is a view showing a lane boundary and a vanishing point for explaining a lane change determination step of the present invention;
10 is an inlier and outlier distribution diagram for explaining the RANSAC algorithm of the present invention,
11 is a road image drawing for explaining lane detection during mist, rain, and night driving;
Fig. 12 is a view showing a plurality of road images during fog, rain, and night driving to show the accuracy of the present invention.

이하, 본 발명의 바람직한 일 실시예를 첨부된 도면을 참조하여 상세히 설명하기로 한다. 여기서 기술되는 일 실시예는 본 발명을 예시적으로 설명하기 위한 것으로 본 발명의 권리범위가 개시된 일 실시예의 기재에 한정되는 것이 아님을 밝혀둔다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It is to be understood that one embodiment described herein is for illustrative purposes only and that the scope of the present invention is not limited to the description of one disclosed embodiment.

도 2는 본 발명의 바람직한 일 실시에에 따른 영상 정보를 이용한 차선 경계 검출 방법을 나타낸 순서도이다.2 is a flowchart illustrating a lane boundary detection method using image information according to a preferred embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명의 바람직한 일 실시에에 따른 영상 정보를 이용한 차선 경계 검출 방법은, 그레이 스케일 이미지의 영상 정보를 입력하는 영상 정보 입력 단계(S101); 수직 평균 배포 알고리즘을 적용하여 수평라인을 검출하는 수평라인 검출 단계(S102); 상기 수평라인의 하단부 이미지로부터 차선 경계를 검출하는 차선 경계 검출 단계(S103); 상기 검출된 차선 경계에 K-means 클러스터링 알고리즘을 적용하여 왼쪽과 오른쪽의 차선을 각각 판단하고, 소실점의 변화에 따라 임계 각도를 설정하여 차선이탈계수를 정의하고, 차량의 주행 상태에 따라 차선이탈 또는 차선변경을 판단하는 차선 변경 판단 단계(S104); 및 RANSAC 알고리즘을 적용하여 인라이어와 아웃라이어를 구분하고, 상기 인라이어만을 고려하여 차선 검출 함수를 반복 수행하여 검출 노이즈를 제거하는 RANSAC 알고리즘 적용 단계(S105)로 구성된다.As shown in FIG. 2, a lane boundary detection method using image information according to a preferred embodiment of the present invention includes an image information input step (S101) of inputting image information of a gray scale image; A horizontal line detection step (S102) of detecting a horizontal line by applying a vertical average distribution algorithm; A lane boundary detecting step (S103) of detecting a lane boundary from an image of a lower end of the horizontal line; A lane departure coefficient is defined by determining a left and a right lane by applying a K-means clustering algorithm to the detected lane boundary, setting a critical angle according to a change of the vanishing point, A lane change determining step (S104) for determining a lane change; And a RANSAC algorithm applying step (S105) for discriminating the inlier from the outlier by applying the RANSAC algorithm and repeating the lane detection function considering only the inlier to remove the detection noise.

여기서, 상기 수평라인 검출 단계(S102)는; 차선 경계 검출의 첫 번째 프레임에 적용되며, 다음 프레임을 위한 두 개의 차선 경계 사이의 교차로의 위치를 수평 라인 위치로 검출한다.Here, the horizontal line detection step (S102) includes: It is applied to the first frame of the lane boundary detection and detects the position of the intersection between the two lane boundaries for the next frame as the horizontal line position.

즉, 상기 그레이 스케일 이미지에서 수평라인을 검출하게 되는데, 본 발명에서 차선은 수평선의 아래쪽 영역에 초점을 맞추고 있기 때문에 수평선 위쪽 영역은 사용하지 않는다. 특히, 상부 곡선을 이루고 처음 발생한 최소치를 결정하는 수직 평균 배포 방법을 활용하여 최소한의 위치를 수평 라인으로 결정한다.That is, the horizontal line is detected in the gray scale image. In the present invention, since the lane line is focused on the lower area of the horizontal line, the area above the horizontal line is not used. In particular, the minimum position is determined to be a horizontal line by utilizing a vertical average distribution method that determines the first minimum value that forms the upper curve.

이에 따른 세로 평균 분포 방정식은 아래의 수학식 1과 같이 나타낼 수 있다.The longitudinal average distribution equation can be expressed by Equation (1) below.

Figure pat00001
Figure pat00001

여기서, VMD(i)는 i번째 행의 그레이 스케일 값의 평균, H는 원본이미지의 높이, W는 원본 이미지의 너비, Gr(i,j)은 원본 이미지로부터 변환된 그레이 스케일 이미지 안에 i번째 행 그리고 j번째 열의 픽셀의 강도이다.Here, VMD (i) is the average of the gray scale values of the ith row, H is the height of the original image, W is the width of the original image, Gr (i, j) And the intensity of the pixel in the jth column.

도 4는 본 발명에 따른 주간 주행시 수평라인 검출 단계를 설명하기 위한 도로 영상 도면이고, 도 5는 본 발명에 따른 야간 주행시 수평라인 검출 단계를 설명하기 위한 도로 영상 도면으로서, 도시된 바와 같이, 상기와 같은 수직 평균 배포 방법을 이용하여 주간과 야간의 수평라인을 감지할 수 있다. FIG. 4 is a road view for explaining a horizontal line detecting step during a daytime running according to the present invention, FIG. 5 is a road view for explaining a horizontal line detecting step at night in accordance with the present invention, Can be used to detect day and night horizontal lines.

본 발명은 상기 수학식 1과 같이 수직 평균 배포 방법을 통하여 수평 라인을 감지하며 이전 방법은 상부 곡선을 이루고 처음 발생한 최소치를 결정하는 수직 평균 배포 방법을 활용하여 최소한의 위치를 수평 라인으로 간주한다. 따라서, 차선 경계 검출의 첫 번째 프레임에 적용되며 다음 프레임을 위한 두 개의 차선 경계 사이의 교차로의 위치가 수평 라인 위치로 간주된다.The present invention detects a horizontal line through a vertical average distribution method as in Equation (1), and assumes a minimum position as a horizontal line by using a vertical average distribution method that determines an initial generated minimum value and an upper curve. Thus, the position of the intersection between the two lane boundaries for the next frame, which is applied to the first frame of the lane boundary detection, is regarded as the horizontal line position.

따라서, 본 발명의 상기 수평라인 검출 단계(S102)는 실질적으로 필요한 차선만을 획득하기 위해 사용되는 것으로서, 하위 영역 이미지로 간주되기 때문에 전체적인 과정에 대한 계산시간이 줄어들고 이미지 차선 표시에의 상단 부분은 제거 되므로 노이즈 제거에도 효과적이다.Therefore, the horizontal line detection step (S102) of the present invention is used to obtain only a substantially required lane, which is regarded as a sub-region image, so that the calculation time for the entire process is reduced and the upper portion of the image lane mark is removed So it is also effective for removing noise.

도 3은 본 발명에 따른 차선 경계 검출 단계를 더욱 상세히 나타낸 순서도로서, 도시된 바와 같이, 본 발명의 바람직한 일 실시에에 따른 차선 경계 검출 단계(S103)는; 상기 수평라인의 하단부 이미지를 선택하여 흑백으로 변환하는 단계(201); 캐니 엣지 이미지 변환을 통해 흰색 경계점을 찾는 단계(202); 및 상기 경계선중 직선 이미지를 추출하여 차선 경계를 검출하는 단계(203)로 구성된다.FIG. 3 is a flowchart illustrating a lane boundary detection step according to the present invention in more detail. As shown in FIG. 3, a lane boundary detection step (S103) according to a preferred embodiment of the present invention comprises: Selecting (201) an image of the lower end of the horizontal line and converting the image into black and white; A step (202) of searching for a white boundary point through the Canny edge image conversion; And a step (203) of detecting a lane boundary by extracting a straight line image among the boundary lines.

도 3에서 (a)는 그레이 스케일 하위 지역 이미지, (b)는 캐니 이미지, (c)는 향상된 엣지 이미지, (d)는 k-means 클러스터링을 나타낸다.In FIG. 3, (a) shows a gray scale sub-regional image, (b) shows a canny image, (c) shows an improved edge image, and (d) shows k-means clustering.

따라서, 본 발명의 차선 경계 검출 단계(S103)는 차선의 경계점을 찾고 불필요한 부분을 제거하기 위해 사용하는 것으로, 왼쪽과 오른쪽의 차선을 판단하기 이전에 차선 이외의 다른 성분의 노이즈를 제거함으로써 계산시간과 정확성을 높일 수가 있다.Therefore, the lane boundary detection step (S103) of the present invention is used for searching for a boundary point of a lane and eliminating an unnecessary portion. By removing noise of components other than the lane before determining the left and right lanes, And accuracy can be increased.

도 7은 K-means 클러스터링 알고리즘을 설명하기 위한 모식도이고, 도 8은 K-means 클러스터링 알고리즘을 설명하기 위한 순서도이다.FIG. 7 is a schematic diagram for explaining a K-means clustering algorithm, and FIG. 8 is a flowchart for explaining a K-means clustering algorithm.

본 발명의 상기 차선 변경 판단 단계(S104)는 도시된 바와 같이, K-means 클러스터링 알고리즘을 적용한다. In the lane change determination step (S104) of the present invention, a K-means clustering algorithm is applied as shown in the figure.

즉, 상기 차선 변경 판단 단계(S104)는; 거리에 기반을 둔 n개의 객체들의 집합을 k개의 군집으로 분해하고, 통합 접근 방식을 통하여 화면의 왼쪽과 오른쪽의 차선경계를 각각 결정한다. That is, the lane change determination step S104 may include: We decompose a set of n objects based on distance into k clusters and determine the left and right lane boundaries of the screen through an integrated approach.

이때, K-means 클러스터링 알고리즘은, n개의 객체들의 집합을 k개의 군집으로 분해하는 거리에 기반을 둔 clustering 기법으로서, 통합 접근 방식을 통하여 차선경계를 결정하기 위해 적용될 수 있다. 종래의 접근 방식은 고정 너비 차선 형태를 사용하였지만 본 발명은 각각 왼쪽과 오른쪽 차선을 감지하게 된다. In this case, the K-means clustering algorithm is a distance-based clustering method that divides a set of n objects into k clusters, and can be applied to determine a lane boundary through an integrated approach. Conventional approaches use a fixed width lane form, but the present invention detects left and right lanes, respectively.

이때, 도 7에 도시된 바와 같이, 먼저 a) k 초기 “mean"이 무작위 데이터 세트에서 선택되고, b) k 클러스터는 가장 가까운 의미로 모든 관찰을 연결하여 만들어지고 파티션 대표 보로 노이(Voronoi) 다이어그램 수단에 의해 생성되며, c) 중심 k를 클러스터 각각의 새로운 수단으로 설정하고, d) 컨버젼스(convergence)에 도달하기 전까지 b)와 c)단계를 반복하여 수행한다.7, a) k initial " mean "is selected in the random data set, b) the k clusters are created by concatenating all observations in the closest sense, and the partition representative Voronoi diagram C) setting the center k to the new means of each of the clusters, and d) repeating steps b) and c) until convergence is reached.

여기서, 상기 K-means 클러스터링 알고리즘은 아래의 수학식 2와 같이 표현될 수 있다.Here, the K-means clustering algorithm can be expressed by Equation (2) below.

Figure pat00002
Figure pat00002

여기서, Xi는 데이터 포인트 사이에 선택된 거리 측정, 클러스터 중심 Cj는 해당 클러스터 센터에서 N개의 데이터 포인트의 거리 지표를 의미하고, 클러스터 수 K=2를 선택하였으며 두 에지 포인트는 각 차선의 초기 클러스터 중심으로 무작위로 선택하였다.Xi is the distance measurement selected from the data points, cluster center Cj is the distance index of N data points in the cluster center, and the number of clusters is K = 2. The two edge points are centered on the initial cluster of each lane Randomly selected.

데이터 지점 x와 k클러스터 센터지점인 c의 거리 값들의 군집들을 이용하여 도 8에 도시된 바와 같은 알고리즘을 통해 두 개의 객체를 분류할 수 있다.The two objects can be classified through the algorithm as shown in FIG. 8 by using clusters of the distance values of the data point x and the cluster center point c.

이때, 상기 차선 변경 판단 단계(S104)에서는; 차선과 같은 방향을 가진 직선들을 찾고, 상기 직선들이 교차하는 소실점의 움직임의 정보를 획득하고, 획득된 소실점의 변화에 따라 k-means 알고리즘을 이용하여 임계 각도를 설정하고, 변수의 연산을 통해서 상기 차량의 주행 상태를 파악하는 것이 바람직하다.At this time, in the lane change determination step S104, Finds straight lines having the same direction as the lane, acquires information of the movement of the vanishing point at which the straight lines intersect, sets a critical angle using the k-means algorithm according to the obtained change of the vanishing point, It is desirable to grasp the running state of the vehicle.

또한, 상기 차선 변경 판단 단계(S104)는; 상기 변수를 연산하는 과정에서, 차선이탈계수를 정의하여 차량이 자기 주행차선을 이탈했는지의 여부를 판단하여 상기 차량의 주행 상태를 파악하는 것이 더욱 바람직하다.In addition, the lane change determination step (S104) may include: It is more preferable that the lane departure coefficient is defined in the process of calculating the variable to determine whether or not the vehicle has deviated from the own driving lane so as to grasp the traveling state of the vehicle.

즉, 도 9는 본 발명의 차선 변경 판단 단계를 설명하기 위한 차선 경계와 소실점을 나타낸 도면으로서, 왼쪽 오른쪽 차선을 판단하고 차선이탈계수를 정의하기 위해 K-meas 클러스터링 알고리즘을 사용하여 왼쪽과 오른쪽의 차선을 정확히 판단하고 소실점의 변화에 따라 임계 각도를 설정하여 차선이탈계수를 정의하고 차량의 주행이 이탈인지 차선 변경인지를 식별함으로서 일반주행의 이탈과 차선변경을 구분하게 된다.That is, FIG. 9 shows a lane boundary and a vanishing point for explaining the lane change determination step of the present invention. In order to determine left and right lanes and define a lane departure coefficient, a K- Lane departure and lane change can be distinguished by determining the lane accurately and defining the lane departure coefficient by setting the critical angle according to the change of the vanishing point and identifying whether the lane change of the vehicle is the departure or lane change.

도 10은 본 발명의 RANSAC 알고리즘을 설명하기 위한 인라이어 및 아웃라아어 분포도로서, RANSAC 알고리즘 적용 단계(S105)에서는 RANSAC 알고리즘을 적용하여 인라이어와 아웃라이어를 구분하고, 상기 인라이어만을 고려하여 차선 검출 함수를 반복 수행하여 검출 노이즈를 제거할 수 있다.FIG. 10 is an inlier and outlier distribution diagram for explaining the RANSAC algorithm of the present invention. In the RANSAC algorithm application step (S105), the RANSAC algorithm is applied to distinguish between an inlier and an outlier, The detection function can be repeatedly performed to remove the detection noise.

이때, 1)모델 매개 변수를 결정하기 위해 필요한 포인트의 최소 숫자가 무작위로 선택되어, 2) 모델의 매개 변수를 구하고, 3)미리 정의된 tolerance E에 맞는 몇 개의 포인트를 선정할지를 결정한다. 이후, 4)세트의 총 수 포인트 이상의 분율 또는 인라이너의 수가 사전 정의된 임계값 T를 초과하는 경우 모든 인라이너를 사용하여 모델 매개 변수에 다시 적용하고 종료하며, 5)그렇지 않으면 단계 1) 부터 4)까지 반복하여 수행한다.At this time, 1) a minimum number of points required to determine the model parameters is randomly selected, 2) the parameters of the model are determined, and 3) a few points are selected that meet the predefined tolerance E. 4) If the fraction of the total number of points or more of the set or the number of the inliners exceeds the predefined threshold T, then apply all the inliners back to the model parameters and terminate; and 5) .

따라서, 이와 같이 차선의 매개변수를 구해서 차선을 인식할 때까지 알고리즘을 반복함으로써, 1)일반적으로 자연 현상에서 데이터를 취할 경우 노이즈가 많이 포함되는데 흔히 사용하는 최소자승법의 경우 인라이어, 아웃라이어를 모두 고려해서 오차가 되는 함수를 구하는 접근법이지만, 본 발명에 따른 RANSAC 알고리즘은 인라이어와 아웃라이어를 구분지어서 인라이어만을 고려해서 함수를 추정할 수 있는 장점이 있고, 2)RANSAC 알고리즘에 들어가는 입력은 관측된 데이터 값과 관측결과를 피팅하거나 설명할 수 있는 모델파라미터로 신뢰성을 나타낼 수 있으며, 3)RANSAC 알고리즘의 각 단계를 차선 검출 시까지 반복하므로 어려운 도로 환경에서 정확히 차선을 검출할 수 있다.Therefore, by repeating the algorithm until the lane is recognized by obtaining the parameters of the lane, 1) Generally, when the data is taken in the natural phenomenon, noise is included a lot. In the case of the least squares method, The RANSAC algorithm according to the present invention has an advantage of being able to estimate a function considering only the inliers by separating the inliers and outliers, and 2) the input to the RANSAC algorithm is Reliability can be represented by model parameters that can be fitted or explained with observed data values and observations; and 3) each step of the RANSAC algorithm is repeated until the lane is detected, allowing accurate lane detection in difficult road environments.

도 11은 안개(a), 우천(b), 야간(c) 주행시 차선 검출을 설명하기 위한 도로 영상 도면이고, 도 12는 본 발명의 정확도를 나타내기 위한 안개(a), 우천(b), 야간(c) 주행시 다수의 도로 영상 도면이며, 표1은 제안된 알고리즘의 결과를 나타낸 것이다.Fig. 11 is a road image for explaining lane detection during fog (a), rainy day (b), and night (c), Fig. 12 is a view showing the fog (a) (C) at night, and Table 1 shows the results of the proposed algorithm.

ClipClip Total frameTotal frame Detected frameDetected frame Correct rateCorrect rate Frame/secFrame / sec aa 15001500 13601360 90.66 %90.66% 27.027.0 bb 486486 458458 94.24 %94.24% 27.027.0 cc 885885 756756 85.42 %85.42% 28.028.0 TotalTotal 28712871 23742374 90.11 %90.11% 27.327.3

따라서, 도시된 바와 같이 본 발명에 따른 영상 정보를 이용한 차선 경계 검출 방법에 의하면, 주행중 차량으로부터 획득하는 영상 정보를 처리하되, 수직 평균 배포 알고리즘을 사용하여 수평 라인을 감지함으로써 영상 처리시간을 단축시키고, K-means 클러스터링 알고리즘과 RANSAC 알고리즘을 사용하여 주행중 차량으로부터 획득하는 영상 정보를 이용하여 차선변경과 일반주행의 구분이 가능하고, 차선 인식 결과의 신뢰성을 높여주며, 가혹한 환경에서도 더욱 정확하게 차선을 검출할 수 있다.Therefore, according to the lane boundary detection method using image information according to the present invention, image information acquired from a vehicle while driving is processed, and a horizontal line is detected using a vertical average distribution algorithm to shorten the image processing time , Using K-means clustering algorithm and RANSAC algorithm, it is possible to distinguish between lane change and normal driving by using image information acquired from a vehicle while driving, improve reliability of lane recognition result, and detect lane more accurately even in harsh environment can do.

본 명세서에 기재된 본 발명의 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 관한 것이고, 발명의 기술적 사상을 모두 포괄하는 것은 아니므로, 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다. 따라서 본 발명은 상술한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 권리범위 내에 있게 된다.
The embodiments of the present invention described in the present specification and the configurations shown in the drawings relate to the most preferred embodiments of the present invention and are not intended to encompass all of the technical ideas of the present invention so that various equivalents It should be understood that water and variations may be present. Therefore, it is to be understood that the present invention is not limited to the above-described embodiments, and that various modifications may be made without departing from the spirit and scope of the invention as defined in the appended claims. , Such changes shall be within the scope of the claims set forth in the claims.

Claims (6)

그레이 스케일 이미지(Gray scale image)의 영상 정보를 입력하는 영상 정보 입력 단계;
수직 평균 배포 알고리즘을 적용하여 수평라인을 검출하는 수평라인 검출 단계;
상기 수평라인의 하단부 이미지로부터 차선 경계를 검출하는 차선 경계 검출 단계;
상기 검출된 차선 경계에 K-means 클러스터링 알고리즘을 적용하여 왼쪽과 오른쪽의 차선을 각각 판단하고, 소실점의 변화에 따라 임계 각도를 설정하여 차선이탈계수를 정의하고, 차량의 주행 상태에 따라 차선이탈 또는 차선변경을 판단하는 차선 변경 판단 단계; 및
RANSAC(RANdom SAmple Consensus) 알고리즘을 적용하여 인라이어(inlier)와 아웃라이어(outlier)를 구분하고, 상기 인라이어만을 고려하여 차선 검출 함수를 반복 수행하여 검출 노이즈를 제거하는 RANSAC 알고리즘 적용 단계;를 포함하는 영상 정보를 이용한 차선 경계 검출 방법.
An image information input step of inputting image information of a gray scale image;
A horizontal line detecting step of detecting a horizontal line by applying a vertical average distribution algorithm;
A lane boundary detecting step of detecting a lane boundary from a lower end image of the horizontal line;
A lane departure coefficient is defined by determining a left and a right lane by applying a K-means clustering algorithm to the detected lane boundary, setting a critical angle according to a change of the vanishing point, A lane change determining step of determining a lane change; And
A RANSAC algorithm applying step of discriminating between an inlier and an outlier by applying a RANSAC (Random Absolute Consensus) algorithm and repeating a lane detection function in consideration of only the inlier to remove detection noise; Lane boundary detection method using image information.
제 1항에 있어서,
상기 수평라인 검출 단계는;
차선 경계 검출의 첫 번째 프레임에 적용되며, 다음 프레임을 위한 두 개의 차선 경계 사이의 교차로의 위치를 수평 라인 위치로 검출하는 것을 특징으로 하는 영상 정보를 이용한 차선 경계 검출 방법.
The method according to claim 1,
Wherein the horizontal line detecting step comprises:
And detecting a position of an intersection between two lane boundaries for a next frame as a horizontal line position.
제 1항에 있어서,
상기 차선 경계 검출 단계는;
상기 수평라인의 하단부 이미지를 선택하여 흑백으로 변환하는 단계;
캐니 엣지 이미지(Canny edge image) 변환을 통해 흰색 경계점을 찾는 단계; 및
상기 경계선중 직선 이미지를 추출하여 차선 경계를 검출하는 단계를 포함하는 것을 특징으로 하는 영상 정보를 이용한 차선 경계 검출 방법.
The method according to claim 1,
The lane boundary detection step comprises:
Selecting an image of the lower end of the horizontal line and converting it into black and white;
Finding a white boundary point through a Canny edge image transformation; And
And detecting a lane boundary by extracting a straight line image among the boundary lines.
제 1항에 있어서,
상기 차선 변경 판단 단계는;
거리에 기반을 둔 n개의 객체들의 집합을 k개의 군집으로 분해하고, 통합 접근 방식을 통하여 화면의 왼쪽과 오른쪽의 차선경계를 각각 결정하는 것을 특징으로 하는 영상 정보를 이용한 차선 경계 검출 방법.
The method according to claim 1,
Wherein the lane change determination step comprises:
And dividing the set of n objects based on the distance into k clusters and determining the left and right lane boundaries of the screen through an integrated approach.
제 4항에 있어서,
상기 차선 변경 판단 단계는;
차선과 같은 방향을 가진 직선들을 찾고, 상기 직선들이 교차하는 소실점의 움직임의 정보를 획득하고, 획득된 소실점의 변화에 따라 k-means 알고리즘을 이용하여 임계 각도를 설정하고, 변수의 연산을 통해서 상기 차량의 주행 상태를 파악하는 것을 특징으로 하는 영상 정보를 이용한 차선 경계 검출 방법.
5. The method of claim 4,
Wherein the lane change determination step comprises:
Finds straight lines having the same direction as the lane, acquires information of the movement of the vanishing point at which the straight lines intersect, sets a critical angle using the k-means algorithm according to the obtained change of the vanishing point, And detecting a traveling state of the vehicle.
제 5항에 있어서,
상기 차선 변경 판단 단계는;
상기 변수를 연산하는 과정에서, 차선이탈계수를 정의하여 차량이 자기 주행차선을 이탈했는지의 여부를 판단하여 상기 차량의 주행 상태를 파악하는 것을 특징으로 하는 영상 정보를 이용한 차선 경계 검출 방법.
6. The method of claim 5,
Wherein the lane change determination step comprises:
Wherein a lane departure coefficient is defined in the process of calculating the variable to determine whether the vehicle has departed from the self-driving lane, and to determine the running state of the vehicle.
KR1020120149545A 2012-12-20 2012-12-20 Method for detecting lane boundary by visual information KR101968349B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120149545A KR101968349B1 (en) 2012-12-20 2012-12-20 Method for detecting lane boundary by visual information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120149545A KR101968349B1 (en) 2012-12-20 2012-12-20 Method for detecting lane boundary by visual information

Publications (2)

Publication Number Publication Date
KR20140080105A true KR20140080105A (en) 2014-06-30
KR101968349B1 KR101968349B1 (en) 2019-04-11

Family

ID=51130915

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120149545A KR101968349B1 (en) 2012-12-20 2012-12-20 Method for detecting lane boundary by visual information

Country Status (1)

Country Link
KR (1) KR101968349B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160040032A (en) * 2014-10-02 2016-04-12 주식회사 만도 Lane estimation system and method using a vehicle type radar
KR101637535B1 (en) * 2015-04-14 2016-07-07 주식회사 와이즈오토모티브 Apparatus and method for correcting distortion in top view image
CN106778668A (en) * 2016-12-30 2017-05-31 明见(厦门)技术有限公司 A kind of method for detecting lane lines of the robust of joint RANSAC and CNN
US9969399B2 (en) 2015-10-22 2018-05-15 Hyundai Motor Company Vehicle and method of controlling the vehicle
KR20180078773A (en) * 2016-12-30 2018-07-10 주식회사 유라코퍼레이션 Traffic lane correction system and method thereof
KR20190061136A (en) * 2017-11-27 2019-06-05 현대모비스 주식회사 Calibration apparatus and method of rear view camera
KR101991626B1 (en) 2018-05-25 2019-06-20 가천대학교 산학협력단 Method and system for detecting vanishing point for intelligent vehicles
US11314209B2 (en) * 2017-10-12 2022-04-26 NetraDyne, Inc. Detection of driving actions that mitigate risk
US11322018B2 (en) 2016-07-31 2022-05-03 NetraDyne, Inc. Determining causation of traffic events and encouraging good driving behavior
US11840239B2 (en) 2017-09-29 2023-12-12 NetraDyne, Inc. Multiple exposure event determination
CN117237240A (en) * 2023-11-15 2023-12-15 湖南蚁为软件有限公司 Data intelligent acquisition method and system based on data characteristics
US11990036B2 (en) 2016-01-11 2024-05-21 NetraDyne, Inc. Driver behavior monitoring

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002216139A (en) * 2001-01-22 2002-08-02 Mitsubishi Heavy Ind Ltd Method for detecting horizon by image processing
KR100666276B1 (en) * 2005-07-13 2007-01-10 현대자동차주식회사 A alarming method while the vehicle gets out of a traffic lane
KR20100034409A (en) * 2008-09-24 2010-04-01 금오공과대학교 산학협력단 Method for recognizing lane and lane departure with single lane extraction
KR20110001427A (en) 2009-06-30 2011-01-06 태성전장주식회사 High speed road lane detection method based on extraction of roi-lb

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002216139A (en) * 2001-01-22 2002-08-02 Mitsubishi Heavy Ind Ltd Method for detecting horizon by image processing
KR100666276B1 (en) * 2005-07-13 2007-01-10 현대자동차주식회사 A alarming method while the vehicle gets out of a traffic lane
KR20100034409A (en) * 2008-09-24 2010-04-01 금오공과대학교 산학협력단 Method for recognizing lane and lane departure with single lane extraction
KR20110001427A (en) 2009-06-30 2011-01-06 태성전장주식회사 High speed road lane detection method based on extraction of roi-lb

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160040032A (en) * 2014-10-02 2016-04-12 주식회사 만도 Lane estimation system and method using a vehicle type radar
KR101637535B1 (en) * 2015-04-14 2016-07-07 주식회사 와이즈오토모티브 Apparatus and method for correcting distortion in top view image
US9969399B2 (en) 2015-10-22 2018-05-15 Hyundai Motor Company Vehicle and method of controlling the vehicle
US11990036B2 (en) 2016-01-11 2024-05-21 NetraDyne, Inc. Driver behavior monitoring
US11322018B2 (en) 2016-07-31 2022-05-03 NetraDyne, Inc. Determining causation of traffic events and encouraging good driving behavior
CN106778668B (en) * 2016-12-30 2019-08-09 明见(厦门)技术有限公司 A kind of method for detecting lane lines of robust that combining RANSAC and CNN
KR20180078773A (en) * 2016-12-30 2018-07-10 주식회사 유라코퍼레이션 Traffic lane correction system and method thereof
CN106778668A (en) * 2016-12-30 2017-05-31 明见(厦门)技术有限公司 A kind of method for detecting lane lines of the robust of joint RANSAC and CNN
US11840239B2 (en) 2017-09-29 2023-12-12 NetraDyne, Inc. Multiple exposure event determination
US11314209B2 (en) * 2017-10-12 2022-04-26 NetraDyne, Inc. Detection of driving actions that mitigate risk
US20220253021A1 (en) * 2017-10-12 2022-08-11 NetraDyne, Inc. Detection of driving actions that mitigate risk
KR20190061136A (en) * 2017-11-27 2019-06-05 현대모비스 주식회사 Calibration apparatus and method of rear view camera
KR101991626B1 (en) 2018-05-25 2019-06-20 가천대학교 산학협력단 Method and system for detecting vanishing point for intelligent vehicles
CN117237240A (en) * 2023-11-15 2023-12-15 湖南蚁为软件有限公司 Data intelligent acquisition method and system based on data characteristics
CN117237240B (en) * 2023-11-15 2024-02-02 湖南蚁为软件有限公司 Data intelligent acquisition method and system based on data characteristics

Also Published As

Publication number Publication date
KR101968349B1 (en) 2019-04-11

Similar Documents

Publication Publication Date Title
KR101968349B1 (en) Method for detecting lane boundary by visual information
US9245188B2 (en) Lane detection system and method
KR101605514B1 (en) Apparatus and method for recognizing lane
EP2741256B1 (en) Moving body detection device and method
CN109997148B (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and computer-readable recording medium
US20150149076A1 (en) Method for Determining a Course of a Traffic Lane for a Vehicle
US9594965B2 (en) Lane boundary lane recognition device and computer-readable storage medium storing program for recognizing lane boundary lines on roadway
KR101584907B1 (en) Method and Apparatus for recognizing lane using region of interest
WO2014084122A1 (en) On-board control device
US10885351B2 (en) Image processing apparatus to estimate a plurality of road surfaces
KR20110001427A (en) High speed road lane detection method based on extraction of roi-lb
JP4946175B2 (en) Road boundary detection device and road boundary detection method
CN110537206B (en) Railway track recognition device, program, and railway track recognition method
KR101366871B1 (en) Apparatus and method for detecting curve traffic lane using RIO division
JP2017207874A (en) Image processing apparatus, imaging apparatus, moving body device control system, image processing method, and program
WO2019149213A1 (en) Image-based road cone recognition method and apparatus, storage medium, and vehicle
KR101998584B1 (en) Lane detection apparatus and lane detection method
KR20160088986A (en) Lane detection method using disparity based on vanishing point
CN110889342B (en) Identification method of deceleration strip
JP2013134609A (en) Curbstone detection device and curbstone detection program
KR20140087622A (en) Method of extracting traffic lanes from captured image using brightness
CN111414857A (en) Front vehicle detection method based on vision multi-feature fusion
JP5125214B2 (en) Obstacle detection method and obstacle detection device
KR20120116204A (en) Apparatus and method for recognizing lane using preceding vehicle
DE102015204529A1 (en) Method and device for object recognition in a means of transportation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right