KR101840974B1 - Lane identification system for autonomous drive - Google Patents

Lane identification system for autonomous drive Download PDF

Info

Publication number
KR101840974B1
KR101840974B1 KR1020170054899A KR20170054899A KR101840974B1 KR 101840974 B1 KR101840974 B1 KR 101840974B1 KR 1020170054899 A KR1020170054899 A KR 1020170054899A KR 20170054899 A KR20170054899 A KR 20170054899A KR 101840974 B1 KR101840974 B1 KR 101840974B1
Authority
KR
South Korea
Prior art keywords
lane
image
road
delete delete
pixels
Prior art date
Application number
KR1020170054899A
Other languages
Korean (ko)
Inventor
김현구
김용훈
석수영
Original Assignee
재단법인 경북아이티융합 산업기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 경북아이티융합 산업기술원 filed Critical 재단법인 경북아이티융합 산업기술원
Priority to KR1020170054899A priority Critical patent/KR101840974B1/en
Application granted granted Critical
Publication of KR101840974B1 publication Critical patent/KR101840974B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • G06K9/00798
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • G06K9/38
    • G06K9/4642
    • G06K9/4652
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a system for identifying a lane of a road which comprises: a camera configured to photograph a road from a driving vehicle to generate an image; an image correcting unit configured to delete unnecessary pixels of the image to simplify the image; a lane detecting unit configured to track pixels of the image to detect a lane; a lane determining unit configured to analyze pixels configuring the lane of the image to determine a kind of the lane and a type of the road; and a lane verifying unit configured to filter an error of a lane identified by the lane determining unit. According to the present invention, a photographed image is corrected to increase processing speed and identification power. Colors of pixels configuring a lane, a kind of a lane and a type of a road are identified in a dense type to rapidly and accurately cope with a variety of road environments.

Description

자율주행용 차선 식별 시스템{Lane identification system for autonomous drive}[0001] Lane identification system for autonomous drive [

본 발명은 차량에 적용되어 자율주행을 도모하는 차선 식별 시스템에 관한 것으로, 보다 구체적으로는 차선의 식별로 차량이 도로를 이탈하는지와 이탈 시 자동으로 복귀할 수 있도록 유도하는데 이어 차선의 색상과 형태로 점선, 실선, 중앙선, 전용차선 등의 종류를 식별하여 차선변경은 물론, 전반적으로 안전한 주행을 도모하는 자율주행용 차선 식별 시스템에 관한 것이다.The present invention relates to a lane identification system applied to a vehicle for autonomous driving. More specifically, the present invention relates to a lane identification system, The present invention relates to a lane identification system for an autonomous lane that identifies types of dotted lines, solid lines, center lines, and dedicated lanes, thereby changing the lanes and promoting overall safe driving.

자율주행이란 운전자가 없거나 운전자가 있더라도 차량을 직접 조작하지 않고 컴퓨터 등에 의해 주행, 정지, 회전, 가속 또는 감속 등의 운전이 자동으로 이루어지는 것을 의미한다. 이러한 지능형 차량의 주요 과제는 주행차선의 유지, 인접차량과의 안전거리 확보와 근접 장애물의 검출과 충돌회피, 교통상황이나 도로 환경에 따른 차량속도 제어 등이 있다.Autonomous running means that the driver automatically operates the vehicle such as running, stopping, turning, accelerating or decelerating without operating the vehicle directly, even if there is no driver or the driver. The main tasks of these intelligent vehicles are to maintain driving lanes, to establish safety distances to adjacent vehicles, to detect and avoid collision obstacles, to control collision avoidance, and to control vehicle speed in response to traffic conditions and road conditions.

최근에는 기술의 발전으로 차선이탈 경고 시스템(LDWS : Lane Departure Warning System)이나 차선유지와 같은 안전운전 보조시스템, 차량 자동 제어시스템 등이 개발되어 실용화가 급속하게 진행되고 있다. 특히, 주행차선의 검출은 자율주행 차량에서의 주요 과제를 해결하는 핵심기술 중의 하나로서, 국제적인 관심 속에 많은 연구가 활발히 진행되고 있다.In recent years, development of technology has led to the development of a safe driving assistance system such as a lane departure warning system (LDWS) or a lane keeping system, a vehicle automatic control system, and the like. Especially, the detection of the driving lane is one of the core technologies for solving the main problems in autonomous vehicles, and many researches are actively pursued due to international interest.

즉, 주행차선의 검출은 안전 운전에 지대한 영향을 미치게 되므로, 차선의 위치를 추정하고 판단하기 위해 여러 가지 센서들을 활용하여 정확한 주행차선을 검출하고 있다. 예컨대, 이미지 센서, 레이더(RADAR) 또는 라이다(LIDAR)센서 등 다양한 센서들이 차선의 검출이나 차량 전방의 물체 인식을 위해 단독 또는 융합된 형태로 자율주행 차량제어 시스템 구현에 사용되고 있다.That is, since the detection of the driving lane has a great influence on the safe driving, the accurate driving lane is detected by using various sensors in order to estimate and determine the position of the lane. For example, various sensors such as an image sensor, a RADAR, or a LIDAR sensor are used to implement an autonomous vehicle control system in a form of a lane detection or an object recognition in front of the vehicle, either alone or in a fused form.

특히, 이미지 센서에 의한 비전 기반의 시스템은 저렴한 비용으로 많은 정보의 추출이 가능하고, 기존의 다양한 비전 처리 알고리즘을 활용할 수 있는 장점으로 인해 널리 활용되어 왔다. 즉, 비전 기반의 차선식별 시스템에서는 주행차선의 색상 또는 정확한 차선을 검출하는 것이 매우 중요하다. 최근에는 차선의 식별력을 향상하기 위해 대한민국 등록특허공보 제10-1121777호 (발명의 명칭: 차선 감지 방법)와, 대한민국 등록특허공보 제10-1094752호 (발명의 명칭: 에이치에스아이 색정보의 통계적 모델을 이용한 차선 분류방법)를 제안하고 있다.In particular, vision - based systems using image sensors have been widely used because they can extract a lot of information at low cost and can utilize various vision processing algorithms. In other words, it is very important to detect the color of the driving lane or the correct lane in the vision-based lane identification system. In recent years, in order to improve the discrimination power of lanes, Korean Registered Patent No. 10-1121777 (entitled "Lane Detection Method") and Korean Patent Registration No. 10-1094752 (entitled "Statistical Lane classification method using the model).

제안된 문헌은 영상으로부터 특징 정보를 추출하고, 차선검출을 위한 파라미터릭(Parametric) 모델과 매칭, 칼만(Kalman) 필터 또는 파티클(Particle) 필터링 등과 같은 갱신 알고리즘의 적용에 의한 근사화 방법이나, 허프 변환(HT:Hough Transform)과 같은 변환에 의한 논파라미터릭(Non-Parametric)모델 매칭 등의 방법을 이용하여 차선을 검출하고 있다. 그러나 촬영되는 원근 영상에서 차선을 식별하기 때문에 처리량도 많고 차선이 멀어질수록 좁아지는 사선 형태를 띠고 있어 식별에 오류율이 높다는 문제가 있다.The proposed document extracts feature information from an image, and approximates it by application of update algorithms such as a parametric model and matching, Kalman filter or particle filter for lane detection, And non-parametric model matching by conversion such as HT (Hough Transform). However, since the lane is identified in the captured perspective image, there is a problem that the throughput is large and the error rate is high because the lane becomes narrower as the distance lengthens.

대한민국 등록특허공보 제10-1121777호 (발명의 명칭: 차선 감지 방법)Korean Registered Patent No. 10-1121777 (Title: Lane Detection Method) 대한민국 등록특허공보 제10-1094752호 (발명의 명칭: 에이치에스아이 색정보의 통계적 모델을 이용한 차선 분류방법)Korean Patent Registration No. 10-1094752 (entitled "Lane Classification Method Using Statistical Model of HIS Color Information)

이에 따라 본 발명은 상기와 같은 종래의 문제점을 근본적으로 해결하기 위한 것으로서, 카메라로부터 촬영되는 도로 영상의 불필요한 화소는 삭제하는데 이어 원근감이 제거된 평면으로 전환해줌으로서 전반적인 차선의 식별력을 향상할 수가 있어 차선변경은 물론, 안전한 주행을 도모하는 자율주행용 차선 식별 시스템을 제공하려는데 그 목적이 있다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned conventional problems, and it is an object of the present invention to improve the discrimination power of an overall lane by eliminating unnecessary pixels of a road image photographed by a camera, It is an object of the present invention to provide an autonomous lane identification system that not only changes lanes but also ensures safe driving.

이러한 목적을 달성하기 위해 본 발명은 도로의 차선을 식별하는 시스템에 있어서: 주행하는 차량으로부터 도로를 촬영하여 영상을 생성하는 카메라; 상기 영상의 불필요한 화소를 삭제하여 간략화시키도록 영상을 둘 이상으로 복제시키고, 상기 복제한 컬러영상을 그레이영상으로 변환한 다음, 수평방향 소벨 에지를 찾아서 에지 기울기(gradient)의 세기를 임계값으로 설정한 이진화 영상과, 상기 복제한 컬러영상을 HLS 컬러영상으로 변환 후 S채널을 임계값으로 설정하여 채도가 제거된 무채색 영상을 하나로 융합하고, 상기 이진화 영상과 무채색 영상이 융합된 영상 중 차선이 위치하는 관심영역을 역투영으로 변환시켜 원근감을 제거한 조감도 영상으로 처리하는 영상보정부; 상기 영상에서 평균 화소와 대조되는 화소를 추적하여 수직방향으로 누적 히스토그램을 구한 다음, 관심영역의 경계 주변에서 히스토그램의 최대 피크 위치로 차선을 검출하는 차선감지부; 상기 영상의 차선을 이루는 화소들의 색상과 밀집형태로 차선의 종류를 판단하고, 상기 영상의 차선을 이루는 화소들에 RANSAC알고리즘을 적용하여 화소 사이에 여백을 이웃하는 화소들과 어울리게 채우진 곡률을 연산하여 도로의 유형을 판단하는 차선판단부; 및 상기 차선판단부가 도출한 차선의 색상과 형태를 누적한 정보들을 로드하고, 현재 도출한 차선의 색상과 형태를 비교해 오류를 여과하여 최종적인 판단을 유도하는 차선검증부;를 포함하여 이루어지는 것을 특징으로 한다.In order to achieve the above object, the present invention provides a system for identifying a lane on a road, comprising: a camera for photographing a road from a driving vehicle to generate an image; The image is copied to two or more images in order to simplify and delete unnecessary pixels of the image, and the duplicated color image is converted into a gray image, and then the horizontal direction sole edge is found and the intensity of the edge gradient is set as a threshold value The binarized image is converted into the HLS color image, and the S channel is set to the threshold value to fuse the achromatic image with the chroma removed, and the binarized image and the achromatic image are merged into one, An image correction unit for converting a region of interest into a back projection to process the image as a bird's-eye image with the perspective removed; A lane detection unit for tracking a pixel to be compared with an average pixel in the image to obtain a cumulative histogram in a vertical direction and detecting a lane at a maximum peak position of the histogram around the boundary of the region of interest; The lane type is determined by the color of the pixels forming the lane of the image, and the RANSAC algorithm is applied to the pixels forming the lane of the image to calculate the curvature corresponding to the neighboring pixels between the pixels A lane determining unit for determining the type of road; And a lane verifying unit for loading the information of the color and the shape of the lane derived by the lane determining unit and for comparing the color and shape of the lane that are currently derived to filter the error to thereby make a final judgment .

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

한편, 이에 앞서 본 명세서 및 특허청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.It should be understood, however, that the terminology or words of the present specification and claims should not be construed in an ordinary sense or in a dictionary, and that the inventors shall not be limited to the concept of a term It should be construed in accordance with the meaning and concept consistent with the technical idea of the present invention based on the principle that it can be properly defined. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention, and not all of the technical ideas of the present invention are described. Therefore, It is to be understood that equivalents and modifications are possible.

이상의 구성 및 작용에서 설명한 바와 같이, 본 발명은 카메라로부터 촬영되는 도로 영상의 불필요한 화소를 삭제함으로서 처리속도를 향상하는데 이어 영상의 원근감을 제거하여 평면으로 전환해줌에 따라 차선의 식별력을 향상하고, 특히 차선을 이루는 화소들의 색상과 밀집형태를 토대로 점선, 실선, 중앙선, 전용차선 등과 같은 차선의 종류와 함께 직선도로나 커브도로와 같은 도로의 유형을 식별해줌에 따라 차선변경은 물론, 전반적인 안전한 주행을 도모할 수 있는 효과를 제공한다.As described above, the present invention improves the processing speed by eliminating unnecessary pixels of the road image photographed from the camera, and subsequently improves the discrimination power of the lane by switching the plane to the plane by removing the perspective of the image, It identifies the types of roads such as straight roads and curved roads along with types of lanes such as dotted lines, solid lines, center lines, and exclusive lanes based on the color and density of the pixels forming the lane. Thereby providing an effect that can be achieved.

도 1은 본 발명에 따른 시스템을 전체적으로 나타내는 구성도.
도 2는 본 발명의 카메라가 생성한 프레임 단위의 영상을 나타내는 사진.
도 3은 본 발명의 영상보정부가 처리하는 과정을 나타내는 사진.
도 4는 본 발명의 차선감지부가 처리하는 과정을 나타내는 사진.
도 5 및 도 6은 본 발명의 차선판단부가 처리하는 과정을 나타내는 사진.
도 7은 본 발명의 시스템의 변형예를 전체적으로 나타내는 구성도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram generally showing a system according to the present invention; FIG.
2 is a photograph showing an image of a frame unit generated by the camera of the present invention.
3 is a photograph showing a process of the image correction unit of the present invention.
4 is a photograph showing a process of the lane detecting unit of the present invention.
5 and 6 are photographs showing a process of the lane determining unit of the present invention.
Fig. 7 is a block diagram generally showing a modification of the system of the present invention; Fig.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 차량에 적용되어 자율주행을 도모하는 차선 식별 시스템에 관련되며, 도 1처럼 카메라(10), 영상보정부(20), 차선감지부(30), 차선판단부(40)를 주요 구성으로 하는 자율주행용 차선 식별 시스템이다.The present invention relates to a lane identification system that is applied to a vehicle and is designed to make an autonomous driving. The lane identification system includes a camera 10, an image correction unit 20, a lane detection unit 30, Of the lane identification system for autonomous driving.

본 발명의 시스템은 촬영되는 영상을 보정함으로서 처리속도와 식별력을 향상하고, 차선을 이루는 화소들의 색상과 밀집형태로 차선의 종류와 도로의 유형을 식별해줌에 따라 다양한 도로환경에 대처할 수 있는 주행제어를 도모하는 것을 요지로 한다.The system of the present invention improves the processing speed and discrimination power by correcting the photographed image and identifies the type of lane and the type of road by the color and density of the pixels forming the lane so that the driving control And the like.

먼저, 본 발명에 따른 카메라(10)는 도 1처럼 차량의 실내 또는 실외에 전방을 향해 장착되어 도로를 촬영한다. 즉, 카메라(10)는 도 2처럼 주행하는 차량으로부터 도로를 촬영하여 영상을 생성한다. 영상은 차선을 식별하기 위한 것으로, 카메라(10)외에 레이더(RADAR) 또는 라이다(LIDAR)와 함께 차선의 식별이나 차량 전방의 물체 인식을 위해 융합된 형태를 취할 수 있다.First, the camera 10 according to the present invention is installed forward or backward in the interior or exterior of the vehicle as shown in FIG. 1 to photograph the road. That is, the camera 10 photographs a road from a driving vehicle as shown in FIG. 2 to generate an image. The image is used to identify a lane. In addition to the camera 10, a RADAR or a LIDAR may be used for identification of a lane or an object in front of the vehicle.

그리고 본 발명에 따른 영상보정부(20)는 도 1처럼 카메라(10)로부터 촬영된 영상의 처리속도와 식별력을 향상하도록 보정하는 것으로, 영상의 불필요한 화소를 삭제하여 간략화 시키는 작업을 수행한다. 이러한 영상보정부(20)는 도 3처럼 영상을 둘 이상으로 복제시켜 소벨 마스크를 처리한 이진화 영상과, 채도를 제거한 무채색 영상을 하나로 융합한다.The image correcting unit 20 according to the present invention corrects the processing speed and discrimination power of the image photographed by the camera 10 as shown in FIG. 1, thereby eliminating unnecessary pixels of the image and simplifying it. As shown in FIG. 3, the image correcting unit 20 fuses the binarized image obtained by duplicating the image to two or more images and processing the Sobel mask, and the achromatic image obtained by removing the saturation.

즉, 도 2의 원본영상을 둘 이상으로 복제하는데 복제영상 중 제1복제영상은 도 3a처럼 원본의 컬러영상을 그레이영상으로 변환한 다음, 수평방향 소벨 에지를 찾아서 에지 기울기(gradient)의 세기를 임계값으로 설정하고, 제2복제영상은 도 3b처럼 원본의 컬러영상을 HLS 컬러영상으로 변환 후 S채널을 임계값으로 설정한다.That is, the original image of FIG. 2 is duplicated in two or more. In the first duplicate image of the duplicated image, the original color image is converted into a gray image as shown in FIG. 3A, and then the edge is searched for a horizontal direction. And the second duplicate image is set as a threshold value after converting the original color image into the HLS color image as shown in FIG. 3B.

그리고 이진화 된 제1복제영상과 무채색의 제2복제영상을 도 3c처럼 단일의 영상으로 융합한다. 이어서 융합영상에서 차선이 표시될 수 있는 위치에 도 3d처럼 미리 설정한 관심영역(Region Of Interest; ROI)만을 도 3e처럼 역투영으로 변환한다. 역투영으로 변환된 보정영상은 원근감이 제거되고, 도로를 평면(Top View)에서 바라보는 조감도 영상이 된다.Then, the binarized first replica image and the second replica image of the achromatic color are fused into a single image as shown in FIG. 3C. Then, only a region of interest (ROI) set in advance as shown in FIG. 3D is converted into a back projection as shown in FIG. 3E at a position where a lane can be displayed in the fusion image. The corrected image converted to the back projection is a bird's-eye view that removes the perspective and views the road from the top view.

이어서 본 발명에 따른 차선감지부(30)는 도 1처럼 영상보정부(20)에 의해 보정된 영상의 화소를 추적하여 차선을 검출 한다. 이러한 차선감지부(30)는 도 4처럼 영상의 평균 화소와 대조되는 화소를 차선으로 검출한다.Next, the lane detecting unit 30 according to the present invention tracks the pixels of the image corrected by the image correcting unit 20 as shown in FIG. 1 to detect lanes. As shown in FIG. 4, the lane detecting unit 30 detects a lane of a pixel to be compared with an average pixel of the image.

즉, 도 4a처럼 슬라이드(적색블록) 윈도우 기법을 이용하여 영상에서 수직방향으로 누적 히스토그램을 구한 다음, 관심영역(ROI)의 경계 주변에서 히스토그램의 최대 피크 위치를 찾아 도 4b와 같이 차선이 시작하는 초기 위치를 검출한다.That is, a cumulative histogram is obtained in the vertical direction in the image using the slide (red block) window technique as shown in FIG. 4A, and the maximum peak position of the histogram is found around the boundary of the ROI, The initial position is detected.

이어서 도 4c와 같이 상측으로 이동하며 히스토그램의 최대 피크 위치를 따라 연속으로 검출한다. 여기서 한 쌍(좌, 우)의 검출 슬라이드는 서로 겹치지 않고, 기 설정한 슬라이드의 크기만큼 상측으로 이동하여 검출한다.Then, as shown in FIG. 4C, the image is shifted upward and continuously detected along the maximum peak position of the histogram. Here, the detection slides of the pair (left and right) do not overlap with each other, but move upward by the size of the preset slide.

마지막으로 본 발명에 따른 차선판단부(40)는 도 1처럼 차선감지부(30)에 의해 검출된 영상의 차선을 이루는 화소를 분석하여 차선의 종류와 도로의 유형을 판단한다. 이러한 차선판단부(40)는 도 5처럼 차선을 이루는 화소들의 색상과 밀집형태로 차선의 종류를 판단하고, 밀집형태의 곡률을 연산하여 도로의 유형을 판단한다.Finally, the lane determining unit 40 according to the present invention analyzes the pixels constituting the lane of the image detected by the lane detecting unit 30 as shown in FIG. 1, and determines the type of the lane and the type of the road. As shown in FIG. 5, the lane determining unit 40 determines the type of the road by determining the type of lane in the dense form of the color of the pixels forming the lane, and calculating the curvature of the dense form.

차선의 형태로는 전술한 모든 슬라이드(적색블록)에서 차선이 검출된 경우, 도 6a처럼 실선 형태의 차선으로 판단하고, 그렇지 않은 경우에는 도 6b처럼 점선 형태의 차선으로 판단한다. 여기서 모든 슬라이드에서 차선이 검출되더라도 슬라이드가 X축을 기준으로 좌표 값이 유동적일 경우에는 도 6c처럼 지그재그 형태의 차선으로 판단한다.When the lane is detected in all of the slides (red blocks) in the form of a lane, it is determined as a lane of a solid line shape as shown in FIG. 6A. Otherwise, a lane of a dotted line is determined as shown in FIG. 6B. Here, even if lanes are detected on all the slides, if the coordinates of the slides are based on the X axis, the lane is determined as a zigzag shape as shown in FIG. 6C.

차선의 색상으로는 보정영상에서 검출한 좌표(슬라이드)를 토대로 원본 영상의 슬라이드내의 화소를 아래의 식에 따라 차선의 대표 색상(청, 노란, 백,)을 판단한다.For the color of the lane, the representative color (blue, yellow, white) of the lane is determined according to the following formula based on the coordinates (slides) detected in the corrected image.

Figure 112017041824506-pat00001
Figure 112017041824506-pat00001

즉, 차선이 검출된 슬라이드 윈도우 내의 RGB 화소 중 rB(청색)나 rY(노란색)화소의 수가 없거나 0에 가깝다면, 차선을 백색으로 판단한다. 여기서 rB(청색)나 rY(노란색)화소가 하나 이상으로 검출되었다면, rB(청색)나 rY(노란색)화소의 수를 비교하여 많은 수의 화소를 차선의 색상으로 판단한다. 이러한 차선의 색상과 형태로 점선, 실선, 중앙선, 전용차선 등의 종류를 최종적으로 식별할 수가 있다.That is, if the number of rB (blue) or rY (yellow) pixels among the RGB pixels in the slide window in which the lane is detected is absent or is close to 0, the lane is determined as white. If more than one pixel of rB (blue) or rY (yellow) is detected, the number of pixels of rB (blue) or rY (yellow) is compared to judge a large number of pixels as lane colors. The types of dotted lines, solid lines, center lines, and dedicated lanes can be finally identified in the color and shape of the lane.

이어서 도로의 유형은 크게 직선도로와 커브도로로 구분되는데, 도 7처럼 앞에서 검출한 슬라이드의 중심좌표를 이용하여 아래의 식을 토대로 곡률 값을 연산한다.Next, the road type is largely divided into a straight road and a curve road. The curvature value is calculated based on the following equation using the center coordinates of the slide detected in FIG. 7.

Figure 112017041824506-pat00002
Figure 112017041824506-pat00002

여기서 차선의 곡률은 RANSAC알고리즘을 적용하여 화소 사이에 여백을 이웃하는 화소들과 어울리게 채워 정확도를 향상하는 것이 바람직하다.In this case, it is desirable to apply the RANSAC algorithm to improve the accuracy of the curvature of the lane by filling the margins between pixels adjacent to each other.

이때, 본 발명의 차선판단부(40)는 좌측 차선에 대한 슬라이드 중심좌표와 우측 차선에 대한 슬라이드 중심좌표로 차선의 폭을 검출하고, 검출된 폭 값에 따라 차선내의 주행 중인 차량의 위치를 검출한다.In this case, the lane determining unit 40 of the present invention detects the width of the lane on the center coordinates of the slide with respect to the left lane and the center coordinates of the slide with respect to the right lane and detects the position of the vehicle in the lane according to the detected width value do.

한편, 본 발명에 따른 시스템은 도 7처럼 차선판단부(40)가 식별한 차선의 오류를 여과하는 차선검증부(50)를 더 포함할 수 있다. 이러한 차선검증부(50)는 도 8처럼 차선판단부(40)가 도출한 차선의 색상과 형태를 누적한 식별정보들을 로드하여 현재 도출한 차선의 색상과 형태를 비교해 오류를 여과한다.The system according to the present invention may further include a lane verifying unit 50 for filtering an error of the lane identified by the lane determining unit 40 as shown in FIG. The lane verifying unit 50 loads the identification information accumulated in the color and shape of the lane derived by the lane determining unit 40 as shown in FIG. 8, and compares the color and shape of the currently derived lane to filter the error.

만일, 앞서 카메라(10)가 초당 60프레임의 영상을 생성할 경우, 10초간 주행 시 600프레임이 생성되며 각 프레임별로 차선의 색상과 형태를 식별한 정보가 누적되어진다. 여기서 차선을 최종적으로 도출하는 여과시간을 1초로 설정한 경우, 60프레임에 대한 누적정보를 종합하여 식별된 차선의 오류를 여과하여 최종적인 판단을 유도한다.If the camera 10 generates an image of 60 frames per second, 600 frames are generated for 10 seconds, and information identifying the color and shape of the lane is accumulated for each frame. If the filtering time for finally deriving the lane is set to 1 second, the cumulative information of 60 frames is combined to filter the errors of the identified lane to induce the final judgment.

예컨대 1초 동안 누적된 60프레임 중 차선을 백색과 실선으로 식별한 수가 45프레임이고, 나머지 15프레임에서 식별된 차선이 백색과 점선이라면, 15프레임에서 식별된 차선은 오류로 처리하여 최종 백색과 실선의 차선으로 판단토록 한다.For example, if the number of lanes identified by white and solid lines among the accumulated 60 frames for one second is 45 frames, and the lanes identified in the remaining 15 frames are white and dotted, the lanes identified in 15 frames are treated as errors, Of the lane.

본 발명은 기재된 실시예에 한정되는 것은 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서 그러한 변형예 또는 수정예들은 본 발명의 특허청구범위에 속한다 해야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit and scope of the invention as defined by the appended claims. It is therefore intended that such variations and modifications fall within the scope of the appended claims.

10: 카메라 20: 영상정보부
30: 차선감지부 40: 차선판단부
50: 차선검증부
10: camera 20: image information section
30: lane detecting unit 40: lane determining unit
50: lane verification unit

Claims (10)

도로의 차선을 식별하는 시스템에 있어서:
주행하는 차량으로부터 도로를 촬영하여 영상을 생성하는 카메라;
상기 영상의 불필요한 화소를 삭제하여 간략화시키도록 영상을 둘 이상으로 복제시키고, 상기 복제한 컬러영상을 그레이영상으로 변환한 다음, 수평방향 소벨 에지를 찾아서 에지 기울기(gradient)의 세기를 임계값으로 설정한 이진화 영상과, 상기 복제한 컬러영상을 HLS 컬러영상으로 변환 후 S채널을 임계값으로 설정하여 채도가 제거된 무채색 영상을 하나로 융합하고, 상기 이진화 영상과 무채색 영상이 융합된 영상 중 차선이 위치하는 관심영역을 역투영으로 변환시켜 원근감을 제거한 조감도 영상으로 처리하는 영상보정부;
상기 영상에서 평균 화소와 대조되는 화소를 추적하여 수직방향으로 누적 히스토그램을 구한 다음, 관심영역의 경계 주변에서 히스토그램의 최대 피크 위치로 차선을 검출하는 차선감지부;
상기 영상의 차선을 이루는 화소들의 색상과 밀집형태로 차선의 종류를 판단하고, 상기 영상의 차선을 이루는 화소들에 RANSAC알고리즘을 적용하여 화소 사이에 여백을 이웃하는 화소들과 어울리게 채우진 곡률을 연산하여 도로의 유형을 판단하는 차선판단부; 및
상기 차선판단부가 도출한 차선의 색상과 형태를 누적한 정보들을 로드하고, 현재 도출한 차선의 색상과 형태를 비교해 오류를 여과하여 최종적인 판단을 유도하는 차선검증부;를 포함하여 이루어지는 것을 특징으로 하는 자율주행용 차선 식별 시스템.
A system for identifying a lane in a road, comprising:
A camera for photographing a road from a driving vehicle to generate an image;
The image is copied to two or more images in order to simplify and delete unnecessary pixels of the image, and the duplicated color image is converted into a gray image, and then the horizontal direction sole edge is found and the intensity of the edge gradient is set as a threshold value The binarized image is converted into the HLS color image, and the S channel is set to the threshold value to fuse the achromatic image with the chroma removed, and the binarized image and the achromatic image are merged into one, An image correction unit for converting a region of interest into a back projection to process the image as a bird's-eye image with the perspective removed;
A lane detection unit for tracking a pixel to be compared with an average pixel in the image to obtain a cumulative histogram in a vertical direction and detecting a lane at a maximum peak position of the histogram around the boundary of the region of interest;
The lane type is determined by the color of the pixels forming the lane of the image, and the RANSAC algorithm is applied to the pixels forming the lane of the image to calculate the curvature corresponding to the neighboring pixels between the pixels A lane determining unit for determining the type of road; And
And a lane verifying unit for loading the information of the color and the shape of the lane derived by the lane determining unit and for comparing the color and shape of the lane that is currently obtained to filter the error to thereby induce a final judgment Autonomous lane identification system.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020170054899A 2017-04-28 2017-04-28 Lane identification system for autonomous drive KR101840974B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170054899A KR101840974B1 (en) 2017-04-28 2017-04-28 Lane identification system for autonomous drive

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170054899A KR101840974B1 (en) 2017-04-28 2017-04-28 Lane identification system for autonomous drive

Publications (1)

Publication Number Publication Date
KR101840974B1 true KR101840974B1 (en) 2018-03-22

Family

ID=61901113

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170054899A KR101840974B1 (en) 2017-04-28 2017-04-28 Lane identification system for autonomous drive

Country Status (1)

Country Link
KR (1) KR101840974B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020036295A1 (en) * 2018-08-17 2020-02-20 에스케이텔레콤 주식회사 Apparatus and method for acquiring coordinate conversion information
KR102365360B1 (en) 2021-04-22 2022-02-23 (주)에이아이매틱스 An apparatus and method for determining a driving state of a vehicle
KR102366201B1 (en) 2021-04-22 2022-02-23 (주)에이아이매틱스 An apparatus and method for determining a opposite direction lane driving of a vehicle
KR102365361B1 (en) 2021-04-22 2022-02-23 (주)에이아이매틱스 An apparatus and method for determining a driving state of a vehicle
KR102366199B1 (en) 2021-04-22 2022-02-23 (주)에이아이매틱스 An apparatus and method for determining u-turn of a vehicle in a prohibited area
EP4177849A1 (en) * 2021-11-08 2023-05-10 Bayerische Motoren Werke Aktiengesellschaft Method and device for determining a color of a lane marking

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101094752B1 (en) * 2009-06-30 2011-12-16 호서대학교 산학협력단 Lane Classification Method Using Statistical Model of HSI Color Information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101094752B1 (en) * 2009-06-30 2011-12-16 호서대학교 산학협력단 Lane Classification Method Using Statistical Model of HSI Color Information

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020036295A1 (en) * 2018-08-17 2020-02-20 에스케이텔레콤 주식회사 Apparatus and method for acquiring coordinate conversion information
US11954871B2 (en) 2018-08-17 2024-04-09 Sk Telecom Co., Ltd. Apparatus and method for acquiring coordinate conversion information
KR102365360B1 (en) 2021-04-22 2022-02-23 (주)에이아이매틱스 An apparatus and method for determining a driving state of a vehicle
KR102366201B1 (en) 2021-04-22 2022-02-23 (주)에이아이매틱스 An apparatus and method for determining a opposite direction lane driving of a vehicle
KR102365361B1 (en) 2021-04-22 2022-02-23 (주)에이아이매틱스 An apparatus and method for determining a driving state of a vehicle
KR102366199B1 (en) 2021-04-22 2022-02-23 (주)에이아이매틱스 An apparatus and method for determining u-turn of a vehicle in a prohibited area
EP4177849A1 (en) * 2021-11-08 2023-05-10 Bayerische Motoren Werke Aktiengesellschaft Method and device for determining a color of a lane marking

Similar Documents

Publication Publication Date Title
KR101840974B1 (en) Lane identification system for autonomous drive
Narote et al. A review of recent advances in lane detection and departure warning system
US11093783B2 (en) Vehicle detection apparatus
CN106485233B (en) Method and device for detecting travelable area and electronic equipment
Cheng et al. Lane detection with moving vehicles in the traffic scenes
US8750567B2 (en) Road structure detection and tracking
US8670592B2 (en) Clear path detection using segmentation-based method
Srinivasa Vision-based vehicle detection and tracking method for forward collision warning in automobiles
US8634593B2 (en) Pixel-based texture-less clear path detection
CN105981042B (en) Vehicle detection system and method
US9783111B2 (en) Method and apparatus for vehicle driving assistance
US8848980B2 (en) Front vehicle detecting method and front vehicle detecting apparatus
US9352746B2 (en) Lane relative position estimation method and system for driver assistance systems
WO2014132729A1 (en) Stereo camera device
US20200074212A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
EP3115933B1 (en) Image processing device, image capturing device, mobile body control system, image processing method, and computer-readable recording medium
KR20110001427A (en) High speed road lane detection method based on extraction of roi-lb
KR20110001425A (en) Lane classification method using statistical model of hsi color information
Suddamalla et al. A novel algorithm of lane detection addressing varied scenarios of curved and dashed lanemarks
Devane et al. Lane detection techniques using image processing
KR20200133920A (en) Apparatus for recognizing projected information based on ann and method tnereof
CN110809767B (en) Advanced driver assistance system and method
US20210117706A1 (en) Vehicle exterior environment recognition apparatus
JP2020095623A (en) Image processing device and image processing method
US9911049B2 (en) Lane boundary line recognition apparatus

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant