KR20140087622A - Method of extracting traffic lanes from captured image using brightness - Google Patents

Method of extracting traffic lanes from captured image using brightness Download PDF

Info

Publication number
KR20140087622A
KR20140087622A KR1020120158129A KR20120158129A KR20140087622A KR 20140087622 A KR20140087622 A KR 20140087622A KR 1020120158129 A KR1020120158129 A KR 1020120158129A KR 20120158129 A KR20120158129 A KR 20120158129A KR 20140087622 A KR20140087622 A KR 20140087622A
Authority
KR
South Korea
Prior art keywords
lane
extracting
image
vehicle
extracted
Prior art date
Application number
KR1020120158129A
Other languages
Korean (ko)
Inventor
권수림
오영철
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020120158129A priority Critical patent/KR20140087622A/en
Publication of KR20140087622A publication Critical patent/KR20140087622A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Abstract

Disclosed is a lane extracting method for extracting curvature, slope, and distance information of a lane using the brightness information of an image captured by a camera. The lane extracting method comprises the steps of: setting a dynamic ROI from an image captured by a camera of a vehicle; converting the image captured in color into a gray scale image; detecting a Sobel edge from the image converted into the gray scale image; extracting candidate groups such as points, strengths, and locations of a lane from the image converted into the gray scale image using the brightness information of the image; and extracting the lane, based on vehicle information and distance metric, using the candidate groups extracted in the candidate group ex traction step.

Description

촬영 영상의 휘도를 이용한 차선 추출 방법{Method of extracting traffic lanes from captured image using brightness}TECHNICAL FIELD The present invention relates to a method of extracting lanes using captured images,

본 발명은 차선 검출 방법에 관한 것으로, 보다 상세하게는 카메라 영상의 휘도 정보를 이용하여 차선의 곡률, 기울기, 거리 정보를 추출하는 차선 검출 방법에 관한 것이다.The present invention relates to a lane detection method, and more particularly, to a lane detection method for extracting curvature, slope, and distance information of a lane using luminance information of a camera image.

일반적으로, 지능형 차량이란 운전자가 없거나 운전자가 있더라도 차량을 직접 조작하지 않고 컴퓨터 등에 의해 주행, 정지, 회전, 가속 또는 감속 등의 운전 조작이 자동으로 이루어지는 차량을 의미한다.Generally, an intelligent vehicle means a vehicle in which a driver does not operate the vehicle directly, but does not directly operate the vehicle but automatically performs driving operations such as running, stopping, rotating, accelerating or decelerating by a computer or the like.

이러한 지능형 차량의 주행을 위해, 주행차선의 유지, 인접차량과의 안전거리 확보, 근접 장애물의 검출과 충돌 회피, 교통상황이나 도로 환경에 따른 차량속도 제어 등이 이루어져야 한다.In order to drive such an intelligent vehicle, it is necessary to maintain the driving lane, to secure the safety distance to the adjacent vehicle, to detect the proximity obstacle, to avoid the collision, and to control the vehicle speed according to the traffic situation or the road environment.

최근에는 정보통신 기술의 진전에 따라 차선이탈 경고 시스템(LDWS: Lane Departure Warning System)이나 차선유지와 같은 안전운전 보조시스템, 차량 자동 제어시스템 등이 개발되어 실용화가 급속하게 진행되고 있다.Recently, according to progress of information and communication technology, a safe driving assist system such as a lane departure warning system (LDWS) or a lane keeping system, a vehicle automatic control system, and the like have been developed and are rapidly being put to practical use.

특히, 주행차선의 검출은 지능형 차량에서의 핵심기술의 하나로서 연구가 활발히 진행되고 있다.Especially, the detection of the driving lane is actively being studied as one of the core technologies in the intelligent vehicle.

주행차선의 검출은 안전 운전에 지대한 영향을 미치게 되므로, 차선의 위치를 추정하고 판단하기 위해 여러 가지 센서들을 활용하여 정확한 주행차선을 검출하고 있다. 즉, 이미지 센서, 레이더(RADAR) 또는 라이다(LIDAR) 센서 등 다양한 센서들이, 차선의 검출이나 차량 전방의 물체 인식을 위해 단독 또는 융합된 형태로 지능형 차량제어 시스템 구현에 사용되고 있다.Since the detection of the driving lane has a great influence on the safe driving, the accurate driving lane is detected by using various sensors in order to estimate and determine the position of the lane. That is, various sensors such as image sensor, RADAR or LIDAR sensor are used to implement an intelligent vehicle control system in a single or a fused form for lane detection or object recognition in front of the vehicle.

특히, 이미지 센서, 즉 카메라에 의한 비전 기반 시스템은 저렴한 비용으로 많은 정보의 추출이 가능하고, 기존의 다양한 비전 처리 알고리즘을 활용할 수 있는 장점으로 인해 널리 활용되어 왔다.Especially, image sensor, that is, vision based system using camera has been widely used because it can extract a lot of information at a low cost and can utilize various vision processing algorithms.

이러한 비전 기반의 차선검출 시스템은, 입력 영상으로부터 특징 정보를 추출하고, 차선검출을 위한 파라미터릭(Parametric) 모델과 매칭, 칼만(Kalman) 필터 또는 파티클(Particle) 필터링 등과 같은 갱신 알고리즘의 적용에 의한 근사화 방법이나, 허프 변환(HT:Hough Transform)과 같은 변환에 의한 비파라미터릭(Non-Parametric) 모델 매칭 등의 방법을 이용하여 차선을 검출하고 있다.This vision-based lane detection system extracts feature information from an input image, and uses a parametric model for lane detection and an update algorithm such as matching, Kalman filter, or particle filtering A lane is detected using a method such as an approximation method or non-parametric model matching by conversion such as Hough Transform (HT).

그러나, 도 1과 2에서 볼 수 있듯이, 카메라가 촬영한 영상으로부터 추출된 차선, 특히 곡선 차선과 실제 차선 사이에 차이가 많아 정확한 차량 주행을 보장할 수 없다.However, as can be seen from Figs. 1 and 2, there is a large difference between the lane extracted from the image captured by the camera, in particular, the curved lane and the actual lane, and thus the accurate driving of the vehicle can not be guaranteed.

또한, 차선의 폭, 차선의 종류, 도로와 차량의 상대거리 및 곡률 등으로 정확하기 추출하기 어려운 문제점이 있다.In addition, there is a problem that it is difficult to accurately extract by the width of the lane, the kind of the lane, the relative distance of the road and the vehicle, and the curvature.

따라서, 본 발명은 상기한 종래기술의 문제점을 해결하고자 제안된 것으로, 본 발명의 목적은 차량에 장착되는 카메라에서 촬영된 도로의 영상으로부터 영상의 휘도 정보를 이용하여 정확하게 차선의 폭, 차선의 곡률, 차선의 기울기, 도로와 주행 차량 사이의 거리 등을 추출하는 촬영 영상의 휘도를 이용한 차선 추출 방법을 제공하는 것이다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior art, and it is an object of the present invention to provide an image pickup apparatus, A slope of a lane, a distance between a road and a driving vehicle, and the like.

상기한 본 발명의 목적을 달성하기 위한 본 발명의 촬영 영상의 휘도 정보를 이용하여 차선을 추출하는 방법은, 차량의 카메라에 의해 촬영된 영상으로부터 동적 ROI를 설정하는 단계; 컬러로 촬영된 상기 카메라 영상을 그레이 스케일로 변환하는 단계; 그레이 스케일로 변환된 상기 카메라 영상으로부터 소벨 에지(Sobel Edge)를 검출하는 단계; 그레이 스케일로 변환된 상기 카메라 영상으로부터, 상기 카메라 영상의 휘도 정보를 이용하여 차선의 지점들, 강도들, 위치 등의 후보군을 추출하는 단계; 그리고 상기 후보군 추출 단계에서 추출된 상기 후보군들을 이용하여 차량 정보 및 거리 메트릭((distance metric)을 기반하여 상기 차선을 추출하는 단계;를 포함한다.According to another aspect of the present invention, there is provided a method of extracting a lane using luminance information of a photographed image, comprising: setting a dynamic ROI from an image photographed by a camera of a vehicle; Converting the camera image captured in color into gray scale; Detecting a Sobel edge from the camera image converted to gray scale; Extracting candidates of lane points, intensities, and positions from the camera image converted into gray scale using luminance information of the camera image; And extracting the lane based on the vehicle information and the distance metric using the candidates extracted in the candidate group extraction step.

바람직하게는, 상기 방법은 상기 추출된 차선을 최소자승법을 이용하여 현재 주행중인 도로를 모델링하는 단계를 더 포함할 수 있다.
Advantageously, the method may further comprise modeling the road currently in motion using the least squares method for the extracted lane.

상기 후보군들은 다음의 수학식에 의해 추출된다.The candidate groups are extracted by the following equations.

Ci = [P(Ci), I(Ci), L(Ci)]C i = [P (C i ), I (C i ), L (C i )]

여기에서, P는 지점(position), I는 강도(intensity), L은 위치(location)을 나타낸다.
Where P is the position, I is the intensity, and L is the location.

상기 지점은 다음의 수학식에 의해 산출된다.The point is calculated by the following equation.

Figure pat00001

Figure pat00001

상기 강도는 다음의 수학식에 의해 산출된다.The intensity is calculated by the following equation.

Figure pat00002

Figure pat00002

상기 위치는 다음의 수학식에 의해 산출된다.The position is calculated by the following equation.

Figure pat00003

Figure pat00003

상기 차선은 다음의 수학식에 의해 산출된다.The lane is calculated by the following equation.

Figure pat00004

Figure pat00004

여기서, v는 차량의 속도, θ는 차량의 조향각이다.Where v is the speed of the vehicle and θ is the steering angle of the vehicle.

본 발명에 따르면, 직선 차선이든 곡선 차선이든 실시간으로 정확하게 차선의 종류, 차선의 곡률, 차선의 기울기, 및 도로와 주행 차량 사이의 거리를 추출할 수 있다.According to the present invention, it is possible to accurately extract the kind of the lane, the curvature of the lane, the slope of the lane, and the distance between the road and the traveling vehicle, in real time, whether it is a straight lane or a curved lane.

본 발명은 자동 차량 주행 장치(지능형 차량), 차선 이탈 경고 시스템, 및 차선 유지 시스템 등에 적용될 수 있다.The present invention can be applied to an automatic vehicle driving apparatus (intelligent vehicle), a lane departure warning system, and a lane keeping system.

도 1은 종래기술에 의한 직선 차선을 추출하는 과정을 보여주는 사진이다.
도 2는 종래기술에 의한 곡선 차선을 추출하는 과정을 보여주는 사진이다.
도 3은 본 발명의 일 실시예에 따른 직선 차선을 추출하는 과정을 보여주는 사진이다.
도 4는 본 발명의 일 실시예에 따른 곡선 차선을 추출하는 과정을 보여주는 사진이다.
도 5는 본 발명의 일 실시예에 따른 촬영 영상의 휘도 정보를 이용하여 차선을 추출하는 방법을 설명하기 위한 사진이다.
도 6 은 그레이 스케일로 변환된 카메라 영상으로부터 카메라 영상의 휘도 정보를 이용하여 차선의 지점들, 강도들, 위치 등의 후보군을 추출하는 방법의 개념도이다.
1 is a photograph showing a process of extracting a straight lane according to the prior art.
2 is a photograph showing a process of extracting curved lanes according to the related art.
3 is a photograph showing a process of extracting a straight lane according to an embodiment of the present invention.
4 is a photograph showing a process of extracting a curved lane according to an embodiment of the present invention.
FIG. 5 is a photograph for explaining a method of extracting a lane using luminance information of a photographed image according to an embodiment of the present invention.
FIG. 6 is a conceptual diagram of a method for extracting candidates of lane points, intensities, positions, and the like using luminance information of a camera image from a camera image converted to gray scale.

이하, 첨부 도면을 참조하여, 본 발명의 실시예에 따른 촬영 영상의 휘도 정보를 이용한 차선의 추출 방법을 설명한다.Hereinafter, a method of extracting a lane using luminance information of a photographed image according to an embodiment of the present invention will be described with reference to the accompanying drawings.

도 3은 본 발명의 일 실시예에 따른 직선 차선을 추출하는 과정을 보여주는 사진이다. 도 4는 본 발명의 일 실시예에 따른 곡선 차선을 추출하는 과정을 보여주는 사진이다. 도 5는 본 발명의 일 실시예에 따른 촬영 영상의 휘도 정보를 이용하여 차선을 추출하는 방법을 설명하기 위한 사진이다.3 is a photograph showing a process of extracting a straight lane according to an embodiment of the present invention. 4 is a photograph showing a process of extracting a curved lane according to an embodiment of the present invention. FIG. 5 is a photograph for explaining a method of extracting a lane using luminance information of a photographed image according to an embodiment of the present invention.

도시한 바와 같이, 본 발명의 일 실시예에 따른 촬영 영상의 휘도 정보를 이용하여 차선을 추출하는 방법은, 먼저 차량의 카메라(도시하지 않음)에 의해 촬영된 영상으로부터 동적 ROI를 설정하는 단계(도 5(A)). 컬러로 촬영된 카메라 영상을 그레이 스케일로 변환하는 단계(도 5(B)), 그레이 스케일로 변환된 카메라 영상으로부터 소벨 에지(Sobel Edge)를 검출하는 단계(도 5(C)), 그레이 스케일로 변환된 카메라 영상으로부터, 카메라 영상의 휘도 정보를 이용하여 차선의 지점들, 강도들, 위치 등의 후보군을 추출하는 단계(도 5(D)), 상기 후보군 추출 단계에서 추출된 후보군들을 이용하여 차량 정보 및 거리 메트릭((distance metric)을 기반하여 차선을 추출하는 단계(도 5(E), 도 5(F)), 그리고 상기 추출된 차선을 최소자승법을 이용하여 현재 주행중인 도로를 모델링하는 단계를 포함한다.As shown in the figure, a method of extracting a lane using luminance information of a photographed image according to an embodiment of the present invention includes: setting a dynamic ROI from an image photographed by a camera (not shown) of a vehicle 5 (A)). (Fig. 5 (B)) of converting the camera image captured in color to gray scale (Fig. 5 (B)), detecting the Sobel edge from the camera image converted to gray scale (FIG. 5D) of extracting candidates of lane points, intensities, positions, and the like from the converted camera image using the luminance information of the camera image, a step of extracting candidate groups extracted from the candidate group extraction step A step of extracting a lane based on information and a distance metric (Fig. 5 (E), Fig. 5 (F)), and a step of modeling the extracted lane by a least squares method .

상기 카메라 영상에 동적 ROI가 설정되면(도 5(A)), 컨트롤러(도시하지 않음)은 컬러로 촬영된 카메라의 영상을 그레이 스케일로 변환한다(도 5(B)). 이렇게 함으로써, 카메라에 의해 촬영된 영상은 흑백의 영상으로 변환되고 휘도만의 차이로 영상 내의 물체 등을 구별할 수 있게 된다.When a dynamic ROI is set on the camera image (Fig. 5 (A)), a controller (not shown) converts the image of the camera photographed in color to gray scale (Fig. By doing so, the image photographed by the camera is converted into a black and white image, and the difference in luminance alone enables to distinguish objects in the image.

여기서, 상기 그레이 스케일로 변환된 카메라 영상으로부터 카메라 영상의 휘도 정보를 이용하여 차선의 지점들, 강도들, 위치 등의 후보군을 추출하는 단계(도 5(D))는, 도 6 에 도시된 바와 같이, 사각형의 윗변을 기준으로 N개로 나눠서 N개의 후보군의 시작점(pi)으로 정하고, 끝점은 아랫변을 N개로 나눠서 강도(intensity)의 합이 가장 큰 점을 끝점(qi)으로 정하여 총 N개의 후보군을 형성한다. 후보군의 지점(points), 강도(intensity) 및 위치(location)를 기존값과 비교하여 최종 차선을 결정하는 방법을 이용하는 것이 바람직하다.
5 (D)) of extracting a candidate group of lane points, intensities, and positions using the luminance information of the camera image from the camera image converted into the gray scale, as shown in FIG. 6 Likewise, by dividing the upper side of the rectangle into N and dividing the lower side into N pieces by determining the starting point (p i ) of the N candidate groups, the end point (q i ) N candidate groups are formed. It is desirable to use a method of determining the final lane by comparing the points, intensity and location of the candidate group with the existing values.

상기 휘도 정보를 이용하여 추출되는 후보군은 다음의 수학식 1에 의해 추출된다.The candidate group extracted using the luminance information is extracted by the following equation (1).

[수학식 1] [Equation 1]

Ci = [P(Ci), I(Ci), L(Ci)]C i = [P (C i ), I (C i ), L (C i )]

여기에서, P는 지점(position), I는 강도(intensity), L은 위치(location)을 나타낸다.
Where P is the position, I is the intensity, and L is the location.

추출된 후보군 내의 지점은 다음의 수학식 2에 따라 계산된다.The points in the extracted candidate group are calculated according to the following equation (2).

[수학식 2]&Quot; (2) "

Figure pat00005
Figure pat00005

상기의 강도는 다음의 수학식 3에 의해 계산된다.The above intensity is calculated by the following equation (3).

[수학식 3]&Quot; (3) "

Figure pat00006

Figure pat00006

차선의 위치는 다음의 수학식 4에 의해 계산된다.The position of the lane is calculated by the following equation (4).

[수학식 4]&Quot; (4) "

Figure pat00007

Figure pat00007

상기와 같이 촬영된 카메라 영상으로부터 차선 후보군을 추출하고, 다음의 수학식 5과 같이, 차량 정보와 거리 메트릭을 기반하여 차선을 추출한다.The lane candidate group is extracted from the photographed camera image and a lane is extracted based on the vehicle information and the distance metric as shown in Equation (5).

[수학식 5]&Quot; (5) "

Figure pat00008
Figure pat00008

여기서, v는 차량의 속도, θ는 차량의 조향각이다.
Where v is the speed of the vehicle and θ is the steering angle of the vehicle.

이렇게 함으로써, 현재 차량이 주행 중인 차선을 정확하게 추출하고, 그 기울기도 산출할 수 있다. 또한, 본 명세서에서는 설명하지 않았으나, 현재 주행 중인 차량의 속도를 알고 있으므로, 선행하는 다른 차량을 촬영하고 이의 속도 등을 검출함으로써, 현재 차량과 다른 차량과의 안전거리를 확보하고, 충돌을 미연에 방지할 수 있다.By doing so, it is possible to accurately extract the lane on which the vehicle is currently traveling, and to calculate the slope. Although it is not described in the present specification, since the speed of the vehicle currently in motion is known, it is possible to secure the safety distance between the current vehicle and another vehicle by photographing the preceding vehicle and detecting its speed, .

상기와 같이, 촬영된 카메라의 영상에 동적 ROI를 설정하고, 이를 그레이 스케일로 변환한 후, 차선 후보군을 추출한 후 수학식 5 에 따라 차선을 추출한 후, 최소 자승법을 이용하여 현재 차량이 주행하고 있는 도로를 모델링한다.As described above, the dynamic ROI is set on the image of the camera taken, converted into gray scale, the lane candidate is extracted, the lane is extracted according to Equation (5), and the lane is extracted using the least squares method Model roads.

이렇게 함으로써, 본 발명에 따른 촬영 영상의 휘도 정보를 이용하여 차선을 추출하는 방법은, 종래의 차선 추출 방법에 비하여 직선 도로는 물론이고, 곡선 차선도 정확하게 실시간으로 추출할 수 있을 뿐 아니라, 현재 주행 중인 도로를 모델링함으로써, 자동 차량 주행장치, 차선 이탈 경고 시스템, 차선 유지 시스템 등에 적용될 수 있다.In this way, the method of extracting the lane using the luminance information of the photographed image according to the present invention can extract not only the straight road but also the curved lane accurately in real time as compared with the conventional lane extracting method, By modeling the road, it can be applied to an automatic vehicle driving apparatus, a lane departure warning system, a lane keeping system, and the like.

Claims (7)

차선을 추출하는 방법에 있어서,
차량의 카메라에 의해 촬영된 영상으로부터 동적 ROI를 설정하는 단계;
컬러로 촬영된 상기 카메라 영상을 그레이 스케일로 변환하는 단계;
그레이 스케일로 변환된 상기 카메라 영상으로부터 소벨 에지(Sobel Edge)를 검출하는 단계;
그레이 스케일로 변환된 상기 카메라 영상으로부터, 상기 카메라 영상의 휘도 정보를 이용하여 차선의 지점들, 강도들, 위치 등의 후보군을 추출하는 단계; 그리고
상기 후보군 추출 단계에서 추출된 상기 후보군들을 이용하여 차량 정보 및 거리 메트릭((distance metric)을 기반하여 상기 차선을 추출하는 단계;를 포함하는 촬영 영상의 휘도 정보를 이용하여 차선을 추출하는 방법.
In a method of extracting a lane,
Setting a dynamic ROI from an image taken by a camera of a vehicle;
Converting the camera image captured in color into gray scale;
Detecting a Sobel edge from the camera image converted to gray scale;
Extracting candidates of lane points, intensities, and positions from the camera image converted into gray scale using luminance information of the camera image; And
And extracting the lane based on the vehicle information and the distance metric using the candidate groups extracted in the candidate group extraction step.
제 1 항에 있어서,
상기 추출된 차선을 최소자승법을 이용하여 현재 주행중인 도로를 모델링하는 단계를 더 포함하는 촬영 영상의 휘도 정보를 이용하여 차선을 추출하는 방법.
The method according to claim 1,
Further comprising the step of modeling the extracted road by using the least squares method, and extracting the lane using the brightness information of the photographed image.
제 1 항에 있어서,
상기 후보군들은 다음의 수학식에 의해 추출되는 촬영 영상의 휘도 정보를 이용하여 차선을 추출하는 방법.
Ci = [P(Ci), I(Ci), L(Ci)]
여기에서, P는 지점(position), I는 강도(intensity), L은 위치(location)을 나타낸다.
The method according to claim 1,
Wherein the candidate groups extract a lane using the luminance information of the photographed image extracted by the following equation.
C i = [P (C i ), I (C i ), L (C i )]
Where P is the position, I is the intensity, and L is the location.
제 3 항에 있어서,
상기 지점은 다음의 수학식에 의해 산출되는 촬영 영상의 휘도 정보를 이용하여 차선을 추출하는 방법.
Figure pat00009

The method of claim 3,
Wherein the point is extracted by using the luminance information of the photographed image calculated by the following equation.
Figure pat00009

제 3 항에 있어서,
상기 강도는 다음의 수학식에 의해 산출되는 촬영 영상의 휘도 정보를 이용하여 차선을 추출하는 방법.
Figure pat00010
The method of claim 3,
Wherein the intensity is extracted by using the luminance information of the photographed image calculated by the following equation.
Figure pat00010
제 3 항에 있어서,
상기 위치는 다음의 수학식에 의해 산출되는 촬영 영상의 휘도 정보를 이용하여 차선을 추출하는 방법.
Figure pat00011

The method of claim 3,
Wherein the position is extracted by using the luminance information of the photographed image calculated by the following equation.
Figure pat00011

제 3 항에 있어서,
상기 차선은 다음의 수학식에 의해 산출되는 촬영 영상의 휘도 정보를 이용하여 차선을 추출하는 방법.
Figure pat00012

여기서, v는 차량의 속도, θ는 차량의 조향각임.
The method of claim 3,
Wherein the lane is extracted by using the luminance information of the photographed image calculated by the following equation.
Figure pat00012

Where v is the speed of the vehicle and θ is the steering angle of the vehicle.
KR1020120158129A 2012-12-31 2012-12-31 Method of extracting traffic lanes from captured image using brightness KR20140087622A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120158129A KR20140087622A (en) 2012-12-31 2012-12-31 Method of extracting traffic lanes from captured image using brightness

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120158129A KR20140087622A (en) 2012-12-31 2012-12-31 Method of extracting traffic lanes from captured image using brightness

Publications (1)

Publication Number Publication Date
KR20140087622A true KR20140087622A (en) 2014-07-09

Family

ID=51736516

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120158129A KR20140087622A (en) 2012-12-31 2012-12-31 Method of extracting traffic lanes from captured image using brightness

Country Status (1)

Country Link
KR (1) KR20140087622A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160051993A (en) * 2014-10-30 2016-05-12 현대모비스 주식회사 Apparatus for driver assistance
CN106203273A (en) * 2016-06-27 2016-12-07 开易(北京)科技有限公司 The lane detection system of multiple features fusion, method and senior drive assist system
KR20170025173A (en) * 2015-08-27 2017-03-08 현대모비스 주식회사 Method and apparatus for detecting parking area
KR102501889B1 (en) * 2022-08-01 2023-02-21 주식회사 카비 Intersection recognition and restoration system using geometric modeling method and intersection recognition and restoration method using the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160051993A (en) * 2014-10-30 2016-05-12 현대모비스 주식회사 Apparatus for driver assistance
KR20170025173A (en) * 2015-08-27 2017-03-08 현대모비스 주식회사 Method and apparatus for detecting parking area
CN106203273A (en) * 2016-06-27 2016-12-07 开易(北京)科技有限公司 The lane detection system of multiple features fusion, method and senior drive assist system
CN106203273B (en) * 2016-06-27 2019-11-01 开易(北京)科技有限公司 Lane detection system, method and the advanced driving assistance system of multiple features fusion
KR102501889B1 (en) * 2022-08-01 2023-02-21 주식회사 카비 Intersection recognition and restoration system using geometric modeling method and intersection recognition and restoration method using the same

Similar Documents

Publication Publication Date Title
US20200406897A1 (en) Method and Device for Recognizing and Evaluating Roadway Conditions and Weather-Related Environmental Influences
CN106485233B (en) Method and device for detecting travelable area and electronic equipment
JP5083658B2 (en) Vehicle lane recognition device, vehicle, and vehicle lane recognition program
US8340866B2 (en) Vehicle and steering control device for vehicle
KR101517181B1 (en) System and method for warning lane departure
JP5966965B2 (en) Lane boundary departure control device and lane boundary departure suppression method
CN106647776B (en) Method and device for judging lane changing trend of vehicle and computer storage medium
US9257045B2 (en) Method for detecting a traffic lane by means of a camera
JP4992990B2 (en) Lane marking detector
JP5603687B2 (en) Vehicle white line recognition device
EP3188156B1 (en) Object recognition device and vehicle control system
US9783111B2 (en) Method and apparatus for vehicle driving assistance
KR101968349B1 (en) Method for detecting lane boundary by visual information
JP6354659B2 (en) Driving support device
KR20110001427A (en) High speed road lane detection method based on extraction of roi-lb
KR101840974B1 (en) Lane identification system for autonomous drive
US10672141B2 (en) Device, method, system and computer-readable medium for determining collision target object rejection
Wei et al. Research on lane detection and tracking algorithm based on improved hough transform
KR20110001425A (en) Lane classification method using statistical model of hsi color information
KR20120086577A (en) Apparatus And Method Detecting Side Vehicle Using Camera
KR20140087622A (en) Method of extracting traffic lanes from captured image using brightness
KR101687094B1 (en) Apparatus for recognizing traffic sign and method thereof
KR20140104516A (en) Lane detection method and apparatus
KR20170030816A (en) Smart cruise control apparatus and method with traffic sign detecting function
KR20150112195A (en) Lane recognizing apparatus and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application