KR20190103508A - Method for extracting driving lane, device and computer readable medium for performing the method - Google Patents

Method for extracting driving lane, device and computer readable medium for performing the method Download PDF

Info

Publication number
KR20190103508A
KR20190103508A KR1020180017071A KR20180017071A KR20190103508A KR 20190103508 A KR20190103508 A KR 20190103508A KR 1020180017071 A KR1020180017071 A KR 1020180017071A KR 20180017071 A KR20180017071 A KR 20180017071A KR 20190103508 A KR20190103508 A KR 20190103508A
Authority
KR
South Korea
Prior art keywords
lane
region
interest
road
roi
Prior art date
Application number
KR1020180017071A
Other languages
Korean (ko)
Other versions
KR102043089B1 (en
Inventor
한동석
강석준
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020180017071A priority Critical patent/KR102043089B1/en
Publication of KR20190103508A publication Critical patent/KR20190103508A/en
Application granted granted Critical
Publication of KR102043089B1 publication Critical patent/KR102043089B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • G06K9/00798
    • G06K9/4652
    • G06K9/627
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

According to the present invention, provided is a method for detecting a lane, which sets a first ROI estimated as a road area from a reverse projection converted image when a brightness value of an inputted road image is equal to or less than a threshold value, sets a second ROI estimated as a road area from the road image using a deep neural network, and detects a driving lane from a final ROI determined based on the first ROI and the second ROI, thereby searching a driving lane at constant performance regardless of the quality of the inputted road image.

Description

차선 검출 방법, 이를 수행하기 위한 장치 및 기록매체 {METHOD FOR EXTRACTING DRIVING LANE, DEVICE AND COMPUTER READABLE MEDIUM FOR PERFORMING THE METHOD}Lane detection method, apparatus and recording medium for performing the same {METHOD FOR EXTRACTING DRIVING LANE, DEVICE AND COMPUTER READABLE MEDIUM FOR PERFORMING THE METHOD}

본 발명은 차선 검출 방법, 이를 수행하기 위한 장치 및 기록매체에 관한 것으로서, 더욱 상세하게는 도로 영상으로부터 주행차선을 검출하는 차선 검출 방법, 이를 수행하기 위한 장치 및 기록매체에 관한 것이다.The present invention relates to a lane detection method, an apparatus and a recording medium for performing the same, and more particularly, to a lane detection method for detecting a driving lane from a road image, an apparatus and a recording medium for performing the same.

자동차 기술의 발전으로 인해, 자동차에는 운전자와 보행자의 안전을 보장하고, 운전자의 편의를 향상시킬 수 있는 기술이 적용되고 있다. 이러한 기술의 일 예로는 크루즈 컨트롤시스템(adaptive cruise control)과 차선이탈경보시스템(lane departure warning system) 등이 있으며, 이러한 자동차 안전성 향상기술들을 융합하고 제어하여 차량 주변 환경을 인지해서 차량이 스스로 모든 안전관련 기능을 제어하고 자율주행을 실시한다. BACKGROUND ART Due to the development of automobile technology, automobiles are being applied with technologies to ensure the safety of drivers and pedestrians and to improve the convenience of drivers. Examples of such technologies include adaptive cruise control and lane departure warning systems, and by combining and controlling these safety enhancement technologies, the vehicle is aware of the surroundings of the vehicle so that the vehicle itself can Control relevant functions and implement autonomous driving.

더 나아가, 최근에는 비전 센서(vision sensor)를 활용하여 도로 위의 물체를 인식하고 검출하는 기술이 개발되고 있으며, 대표적으로 보행자, 차량, 신호등, 표지판 및 차선 검출 기술 등이 있다. 이러한 기술들은 카메라로부터 획득한 영상을 영상처리(image procession)와 기계학습(machine learning)등을 이용하여 개발되고 있다.Furthermore, recently, technologies for recognizing and detecting an object on a road using a vision sensor have been developed, and pedestrians, vehicles, traffic lights, signs, and lane detection technologies are representatively developed. These technologies are being developed using image processing and machine learning of images acquired from cameras.

비전 센서를 활용한 객체 인식 기술은 운전자에게 주행 안정성과 편의성을 제공해주는 ADAS 중에서도 가장 기본적으로 활용되는 기술이다. 특히 비전 센서는 다른 센서에 비해 가격이 저렴하며 차량 주변 환경을 인지하는데 탁월한 성능을 가지고 있어 향후 자율주행차량에도 필수적으로 들어가는 센서이다. 비전 센서 기술은 블랙박스 시스템과 같은 영상 저장 장치뿐만 아니라 차선이탈경보시스템, 자동긴급제동 시스템(autonomous emergency braking, AEB)에도 활용되고 있다. ADAS와 자율주행기술의 향상에 따라 비전 센서를 활용한 영상 처리(image processing) 기술은 개발을 넘어 현재 최적화 작업 및 양산 단계에 접어들고 있다. Object recognition technology using vision sensor is the most basic technology among ADAS that provides driving stability and convenience to the driver. In particular, vision sensors are inexpensive compared to other sensors and have excellent performance in recognizing the surrounding environment of vehicles. Therefore, vision sensors are essential for future autonomous vehicles. Vision sensor technology is being used in lane departure warning systems and autonomous emergency braking (AEB) as well as video storage devices such as black box systems. With the advancement of ADAS and autonomous driving technology, image processing technology using vision sensor is moving beyond development to the optimization and mass production stage.

하지만 종래의 비전 센서를 활용한 객체 검출 기술은 아직까지 인간의 눈을 대신하기에는 한계가 있으며, 특히 차량의 현재 위치를 파악하고 다른 차량과의 충돌을 방지하며 차량의 위치를 유지하는데 필수적인 기술인 차선 검출은 비전 센서로 차선을 검출하지 못하는 환경, 차선 노후화로 인한 부분 혹은 전체 유실, 야간 주행 및 조명 문제 등에서 제 기능을 발휘하지 못하고 있다. 이러한 문제점들은 향후 자율주행차량에 있어 치명적인 결함이 될 수 있기 때문에 다양한 환경에서도 차선을 검출하는 시스템의 개발 혹은 차선 정보가 부족하더라도 차선을 추정하고 경로를 예측하는 시스템이 요구되고 있다.However, the object detection technology using the conventional vision sensor is still limited to replace the human eye, and in particular, lane detection, an essential technology for determining the current position of the vehicle, preventing collision with other vehicles, and maintaining the position of the vehicle Is not functioning in the environment where the vision sensor cannot detect the lane, part or total loss due to lane aging, night driving and lighting problems. These problems may be fatal defects in autonomous vehicles in the future, so it is required to develop a system for detecting a lane even in a variety of environments or to estimate a lane and predict a path even if lane information is insufficient.

한국등록특허 제10-1240499호Korean Patent Registration No. 10-1240499 한국공개특허 제10-2014-0068475호Korean Patent Publication No. 10-2014-0068475

본 발명의 일측면은 도로 영상의 품질과 주행 상황에 따라 서로 다른 방법을 이용하여 주행차선을 검출하는 차선 검출 방법, 이를 수행하기 위한 장치 및 기록매체를 제공한다.One aspect of the present invention provides a lane detection method for detecting a driving lane using different methods according to the quality of a road image and driving conditions, and an apparatus and a recording medium for performing the same.

본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problem of the present invention is not limited to the technical problem mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 차선 검출 방법은, 도로 영상의 밝기 값을 추출하여, 상기 밝기 값을 미리 설정된 임계값과 비교하는 단계, 상기 도로 영상에 대한 역 투영 변환 영상으로부터 도로 영역으로 추정되는 제1 관심 영역을 설정하는 단계, 상기 밝기 값이 상기 임계값보다 작은 것으로 확인되면, 미리 학습된 심층 신경망을 이용하여 상기 도로 영상으로부터 차선과 도로로 판단된 객체가 포함된 제2 관심 영역을 설정하는 단계, 상기 제1 관심 영역과 상기 제2 관심 영역을 기초로 상기 도로 영상에서 도로 영역으로 추정되는 최종 관심 영역을 결정하는 단계 및 미리 정해진 차선 검출 알고리즘을 이용하여 상기 최종 관심 영역으로부터 적어도 하나의 주행차선을 검출하는 단계를 포함한다.In the lane detection method according to an embodiment of the present invention, extracting a brightness value of a road image, comparing the brightness value with a preset threshold value, estimated as a road area from a reverse projection converted image for the road image Setting a first ROI, and when it is determined that the brightness value is smaller than the threshold value, setting a second ROI including an object determined to be a lane and a road from the road image by using a pre-trained deep neural network; Determining a final region of interest estimated as a road region in the road image based on the first region of interest and the second region of interest and at least one driving from the final region of interest using a predetermined lane detection algorithm. Detecting a lane.

상기 제2 관심 영역으로 설정하는 것은, 상기 심층 신경망을 이용하여 상기 도로 영상을 구성하는 각각의 픽셀을 미리 학습된 클래스 중 어느 하나의 클래스로 레이블링하여, 상기 도로 영상의 픽셀들을 학습된 클래스에 대한 객체로 그룹화하고, 도로 영역 클래스로 그룹화된 픽셀들을 상기 관심 영역으로 설정하는 것일 수 있다.The setting of the second region of interest may include: labeling each pixel constituting the road image with any one of a pre-learned class by using the deep neural network, and classifying the pixels of the road image with respect to the learned class. It may be grouping into an object and setting pixels grouped into a road area class as the ROI.

상기 제1 관심 영역으로 설정하는 것은, 상기 역 투영 변환 영상의 최좌측 실선을 기준 차선으로 설정하고, 상기 기준 차선으로부터 미리 정해진 기준거리 이내에 위치한 점선을 차선으로 판단하고, 상기 차선으로터 상기 기준거리 이내에 위치한 어느 하나의 실선을 상기 가장자리 차선으로 설정하며, 상기 기준 차선으로부터 상기 가장자리 차선까지의 영역을 상기 제1 관심 영역으로 검출하는 것일 수 있다. The setting of the first ROI includes setting the leftmost solid line of the reverse projection converted image as a reference lane, determining a dotted line located within a predetermined reference distance from the reference lane as the lane, and setting the reference distance from the lane. One solid line located within the edge lane may be set as the edge lane, and the area from the reference lane to the edge lane may be detected as the first ROI.

상기 제1 관심 영역으로 설정하는 것은, 상기 역 투영 변환 영상의 밝기 값이 기준값보다 작은 경우, 상기 기준 차선으로부터 미리 정해진 기준거리 이내에 위치한 실선을 차선으로 더 판단하고, 상기 기준거리를 기초로 연속적으로 판단되는 차선 중 최우측 차선을 상기 가장자리 차선으로 설정하는 것이고, 상기 기준값은 상기 임계값보다 작은 값을 설정되는 것을 특징으로 할 수 있다.The setting of the first ROI may further include determining a solid line located within a predetermined reference distance from the reference lane as a lane when the brightness value of the reverse projection converted image is smaller than a reference value, and continuously based on the reference distance. Among the determined lanes, the rightmost lane may be set as the edge lane, and the reference value may be set to a value smaller than the threshold.

상기 최종 관심 영역을 결정하는 것은, 상기 제1 관심 영역에 상기 제2 관심 영역을 매핑하여, 상기 제1 관심 영역과 상기 제2 관심 영역의 공통 영역을 상기 기준 차선과 상기 가장자리 차선을 기준으로 하는 다각형 형태의 영역으로 추출하여 상기 최종 관심 영역으로 결정하는 것을 특징으로 할 수 있다.The determining of the final region of interest may include mapping the second region of interest to the first region of interest so that the common region of the first region of interest and the second region of interest is based on the reference lane and the edge lane. Extracting a polygonal region may determine the final region of interest.

상기 다각형 형태의 영역으로 추출하는 것은, 상기 기준 차선으로부터 상기 가장자리 차선까지를 상기 최종 관심 영역의 폭으로 설정하고, 상기 차선에 의해 분할된 차로별 높이를 이용하여 상기 다각형 형태의 구간별 높이값을 설정하는 것을 특징으로 할 수 있다.Extracting into the polygonal region may include setting the width of the final region of interest from the reference lane to the edge lane, and using the height of each lane divided by the lanes to determine the height of each polygonal section. It can be characterized by the setting.

상기 적어도 하나의 주행차선을 검출하는 것은, 상기 최종 관심 영역의 직선을 구성하는 어느 하나의 점을 직선 방정식으로 변환하고, 각각의 점에 대하여 변환된 복수의 직선 방정식이 서로 교차하는 교점을 검출하고, 상기 교점을 지나는 직선 방정식의 개수가 임계값 이상인 직선 방정식들을 이용하여 주행차선 후보군을 추출하는 것일 수 있다.Detecting the at least one driving lane converts any one point constituting a straight line of the final ROI into a straight line equation, and detects an intersection where a plurality of straight line equations converted for each point cross each other. The driving lane candidate group may be extracted using linear equations having a number of linear equations passing through the intersection point greater than or equal to a threshold.

상기 적어도 하나의 주행차선을 검출하는 것은, RANSAC 알고리즘을 이용하여 상기 주행차선 후보군으로부터 상기 적어도 하나의 주행차선을 검출하는 것일 수 있다.The detecting of the at least one driving lane may include detecting the at least one driving lane from the driving lane candidate group using a RANSAC algorithm.

상기 최종 관심 영역을 결정하는 것은, 상기 밝기 값이 상기 임계값보다 작은 것으로 확인되면, 검출된 상기 제1 관심 영역을 상기 최종 관심 영역으로 결정하는 것을 특징으로 할 수 있다.The determining of the final region of interest may include determining the detected first region of interest as the final region of interest when it is determined that the brightness value is smaller than the threshold value.

상기 도로 영상의 밝기 값을 추출하기 이전에, 상기 도로 영상의 전처리 과정을 수행하는 단계를 더 포함하고, 상기 전처리 과정을 수행하는 것은, 상기 도로 영상을 그레이 스케일 영상으로 변환하고, 탑-햇 필터를 이용하여 상기 그레이 스케일 영상을 변환하는 것을 포함할 수 있다.Before extracting the brightness value of the road image, the method may further include performing a preprocessing process of the road image, and performing the preprocessing process may include converting the road image into a gray scale image and using a top-hat filter. It may include converting the gray scale image using.

또한, 본 발명에 따른 차선 검출 방법을 수행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체일 수 있다.Further, it may be a computer-readable recording medium having a computer program recorded thereon for performing the lane detection method according to the present invention.

또한, 본 발명의 일 실시예에 따른 차선 검출 장치는, 도로 영상의 밝기 값을 추출하여, 상기 밝기 값을 미리 설정된 임계값과 비교하는 주행 환경 판단부, 상기 도로 영상에 대한 역 투영 변환 영상으로부터 도로 영역으로 추정되는 제1 관심 영역을 설정하는 제1 관심 영역 설정부와, 상기 밝기 값이 상기 임계값보다 작은 것으로 확인되면, 미리 학습된 심층 신경망을 이용하여 상기 도로 영상으로부터 차선과 도로로 판단된 객체가 포함된 제2 관심 영역을 설정하는 제2 관심 영역 설정부를 포함하며, 상기 제1 관심 영역과 상기 제2 관심 영역을 기초로 상기 도로 영상에서 도로 영역으로 추정되는 최종 관심 영역을 결정하는 도로 영역 추정부 및 미리 정해진 차선 검출 알고리즘을 이용하여 상기 최종 관심 영역으로부터 적어도 하나의 주행차선을 검출하는 차선 검출부를 포함한다.In addition, the lane detection apparatus according to an embodiment of the present invention, a driving environment determination unit for extracting the brightness value of the road image, and comparing the brightness value with a predetermined threshold value, from the reverse projection conversion image for the road image A first ROI setting unit configured to set a first ROI estimated as a road area, and when the brightness value is determined to be smaller than the threshold value, it is determined as a lane and a road from the road image by using a pre-trained deep neural network. A second region of interest setter configured to set a second region of interest including an object, and determine a final region of interest estimated as a road region in the road image based on the first region of interest and the second region of interest; At least one traveling lane is detected from the final region of interest using an area estimator and a predetermined lane detection algorithm. It includes a lane detecting unit.

상기 제2 관심 영역 설정부는, 상기 심층 신경망을 이용하여 상기 도로 영상을 구성하는 각각의 픽셀을 미리 학습된 클래스 중 어느 하나의 클래스로 레이블링하여, 상기 도로 영상의 픽셀들을 학습된 클래스에 대한 객체로 그룹화하고, 도로 영역 클래스로 그룹화된 픽셀들을 상기 제2 관심 영역으로 설정할 수 있다.The second ROI setting unit labels each pixel constituting the road image by using any one of a pre-learned class by using the deep neural network, and converts the pixels of the road image into an object for the learned class. The pixels grouped in the road region class may be set as the second region of interest.

상기 제1 관심 영역 설정부는, 상기 역 투영 변환 영상의 최좌측 실선을 기준 차선으로 설정하고, 상기 기준 차선으로부터 미리 정해진 기준거리 이내에 위치한 점선을 차선으로 판단하고, 상기 차선으로터 상기 기준거리 이내에 위치한 어느 하나의 실선을 상기 가장자리 차선으로 설정하며, 상기 기준 차선으로부터 상기 가장자리 차선까지의 영역을 상기 제1 관심 영역으로 검출할 수 있다.The first ROI setting unit sets the left-most solid line of the reverse projection converted image as a reference lane, determines a dotted line located within a predetermined reference distance from the reference lane as a lane, and located within the reference distance from the lane. One solid line may be set as the edge lane, and a region from the reference lane to the edge lane may be detected as the first ROI.

상기 도로 영역 추정부는, 상기 제1 관심 영역에 상기 제2 관심 영역을 매핑하여, 상기 제1 관심 영역과 상기 제2 관심 영역의 공통 영역을 상기 기준 차선과 상기 가장자리 차선을 기준으로 하는 다각형 형태의 영역으로 추출하여 상기 최종 관심 영역으로 결정할 수 있다.The road area estimator may be configured to map the second region of interest to the first region of interest so that the common region of the first region of interest and the second region of interest has a polygonal shape based on the reference lane and the edge lane. The region of interest may be extracted to determine the final region of interest.

상술한 본 발명의 일측면에 따르면, 야간 주행, 우천 상황 및 차선 유실 문제 등 도로 영상에 포함된 차선의 가시도가 현저히 낮은 상황에서도 도로 영상을 의미적으로 구분함으로써 차선의 위치를 정확하게 추정할 수 있으며, 관심 영역을 능동적으로 설정함으로써 차선 검출율과 차선 검출에 소요되는 처리속도가 향상될 수 있다.According to one aspect of the present invention, the position of the lane can be accurately estimated by semantically distinguishing the road image even in a situation where visibility of the lane included in the road image is significantly low, such as night driving, rainy weather, and lane loss problems. By actively setting the ROI, the lane detection rate and the processing speed required for lane detection can be improved.

도 1 및 도 2는 본 발명의 일 실시예에 따른 차선 검출 장치의 개략적인 구성이 도시된 블록도이다.
도 3 및 도 4는 제1 관심 영역 및 제2 관심 영역을 설정하는 실시예들이 도시된 도면이다.
도 5는 최종 관심 영역을 설정하는 일 예가 도시된 도면이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 차선 검출 방법의 개략적인 흐름이 도시된 순서도이다.
1 and 2 are block diagrams showing a schematic configuration of a lane detection apparatus according to an embodiment of the present invention.
3 and 4 illustrate embodiments of setting a first region of interest and a second region of interest.
5 is a diagram illustrating an example of setting a final region of interest.
6 and 7 are flowcharts illustrating a schematic flow of a lane detection method according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION The following detailed description of the invention refers to the accompanying drawings that show, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be embodied in other embodiments without departing from the spirit and scope of the invention in connection with one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. The following detailed description, therefore, is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is defined only by the appended claims, along with the full range of equivalents to which such claims are entitled. Like reference numerals in the drawings refer to the same or similar functions throughout the several aspects.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 차선 검출 장치의 개략적인 구성이 도시된 블록도이다.1 is a block diagram showing a schematic configuration of a lane detection apparatus according to an embodiment of the present invention.

구체적으로, 본 발명의 일 실시예에 따른 차선 검출 장치(1)는 전처리부(10), 주행 환경 판단부(20), 도로 영역 추정부(30) 및 주행차선 검출부(40)를 포함한다.Specifically, the lane detection apparatus 1 according to an embodiment of the present invention includes a preprocessing unit 10, a driving environment determination unit 20, a road area estimation unit 30, and a driving lane detection unit 40.

전처리부(10)는 입력된 도로 영상에서 차선 영역을 강조시키기 위한 전처리 과정을 수행할 수 있다. 도로 영상은 차량에 탑재되거나 설치된 촬영 장치로부터 획득될 수 있으며, 촬영 장치는 블랙 박스의 카메라 모듈 등과 같이 차량에 장착되어 차량의 전방 또는 후방을 촬영하여 도로 영상을 생성하는 다양한 장치 중 어느 하나일 수 있다.The preprocessor 10 may perform a preprocessing process for emphasizing the lane area in the input road image. The road image may be obtained from a photographing apparatus mounted on or installed in a vehicle, and the photographing apparatus may be any one of various devices mounted on the vehicle such as a camera module of a black box and photographing the front or rear of the vehicle to generate a road image. have.

전처리부(10)는 전처리 과정의 일환으로, 도로 영상을 그레이 스케일 영상 또는 이진 영상으로 변환할 수 있다. 이 과정에서, 전처리부(10)는 촬영 장치에 의한 렌즈 왜곡이 발생되지 않도록 카메라 내부 매개변수의 영향을 제거할 수 있다. 또한, 촬영 장치에 의해 촬영된 도로 영상에는 차량의 일부 영역이 포함될 수도 있기 때문에, 경우에 따라 전처리부(10)는 왜곡 보정을 한 영상의 하단 일부를 잘라내어 차선 이외의 정보를 1차적으로 제거할 수 있다.As part of the preprocessing process, the preprocessor 10 may convert the road image into a gray scale image or a binary image. In this process, the preprocessor 10 may remove the influence of the camera internal parameters so that lens distortion by the imaging device does not occur. In addition, since the road image photographed by the photographing apparatus may include a partial region of the vehicle, the preprocessing unit 10 may cut a portion of the lower end of the distortion corrected image to remove information other than the lane in some cases. Can be.

이후, 전처리부(10)는 탑-햇 필터(top-hat filter)를 이용하여 입력된 도로 영상으로부터 잡음이 제거되면서 차선 영역이 강조되는 탑-햇 변환 영상을 생성할 수 있다. 하지만, 전처리부(10)가 반드시 탑-햇 필터로 영상을 변환할 필요는 없으며, 사용 환경에 따라 적응 히스토그램 평활화(Adaptive Histogram Equalization) 알고리즘, CLAHE(Contrast Limited Adaptive Histogram Equalization), 엣지 정보 추출 등을 이용하여 도로 영상을 전처리할 수도 있다. 이하에서는, 설명의 편의를 위해 전처리부(10)에 의해 전처리 과정이 수행된 도로 영상을 전처리된 도로 영상으로 정의하여 설명하기로 한다.Thereafter, the preprocessor 10 may generate a top-hat converted image in which a lane area is emphasized while noise is removed from the input road image by using a top-hat filter. However, the preprocessing unit 10 does not necessarily need to convert the image to the top-hat filter. You can also preprocess the road image. Hereinafter, for convenience of description, the road image in which the preprocessing process is performed by the preprocessor 10 will be defined and described as a preprocessed road image.

주행 환경 판단부(20)는 도로 영상을 분석하여 차량이 현재 주행 중인 도로의 상황을 판단함으로써, 입력된 도로 영상으로부터 차선 검출이 용이한지 여부를 판단할 수 있다. 예를 들어, 우천 상황에서는 빗물과 구름 등의 영향으로 촬영된 도로 영상의 흐릿함(blur)이 발생하여 맑은 날에 촬영된 도로 영상에 비해 차선 검출에 어려움이 발생할 수 있다.The driving environment determiner 20 may determine whether the lane is easily detected from the input road image by analyzing a road image to determine a situation of a road on which the vehicle is currently driving. For example, in rainy conditions, blur may occur in the road image photographed due to rain or cloud, which may cause difficulty in detecting a lane compared to the road image photographed on a clear day.

이를 위해, 주행 환경 판단부(20)는 도로 영상의 RGB값을 YCbCr값으로 변환하여 밝기 값을 추출할 수 있다. 이를 수학식으로 표현하면 다음과 같다.To this end, the driving environment determiner 20 may extract the brightness value by converting the RGB value of the road image into a YCbCr value. This is expressed as an equation.

Figure pat00001
Figure pat00001

YCbCr값에서 Y값은 도로 영상의 밝기에 해당되며, 따라서, 주행 환경 판단부(20)는 상술한 수학식을 이용하여 도로 영상의 밝기 값을 추출할 수 있다. In the YCbCr value, the Y value corresponds to the brightness of the road image, and thus, the driving environment determiner 20 may extract the brightness value of the road image by using the above-described equation.

주행 환경 판단부(20)는 산출된 밝기 값이 미리 정해진 임계값 이상인 경우 도로면과 차선간의 명암비가 뚜렷하여 도로 영상으로부터 차선 검출이 용이한 환경으로 판단하고, 우천 등의 영향으로 인해 도로 영상의 밝기 값이 미리 정해진 임계값 미만인 경우 도로 영상의 가시성이 떨어져 차선 검출이 어려운 환경으로 판단할 수 있다. 주행 환경 판단부(20)는 판단된 결과를 도로 영역 추정부(30)로 제공할 수 있다.If the calculated brightness value is greater than or equal to a predetermined threshold value, the driving environment determiner 20 determines that the contrast ratio between the road surface and the lane is clear and makes it easy to detect the lane from the road image. If the brightness value is less than a predetermined threshold value, it may be determined that the road image is difficult to detect lanes because visibility of the road image is poor. The driving environment determiner 20 may provide the determined result to the road area estimator 30.

도로 영역 추정부(30)는 전처리된 도로 영상을 이용하여 도로 영상으로부터 도로 영역을 추정하여 관심 영역으로 설정할 수 있다. 이때, 도로 영역 추정부(30)는 주행 환경 판단부(20)에 의해 판단된 결과에 따라 서로 다른 방법으로 관심 영역을 설정할 수 있다. 이를 위해, 후술하는 도 2에 도시된 바와 같이 도로 영역 추정부(30)는 제1 관심 영역 설정부(31)와 제2 관심 영역 설정부(32)를 포함할 수 있다.The road area estimator 30 may estimate the road area from the road image by using the preprocessed road image and set the area of interest. In this case, the road area estimation unit 30 may set the ROI in different ways according to the result determined by the driving environment determination unit 20. To this end, as shown in FIG. 2 to be described later, the road area estimator 30 may include a first ROI setting unit 31 and a second ROI setting unit 32.

도로 영역 추정부(30)는 제1 관심 영역 설정부(31)에 의해 설정된 제1 관심 영역 또는 제2 관심 영역 설정부(32)에 의해 설정된 제2 관심 영역을 이용하여 최종적인 관심 영역을 설정할 수 있다. 이때, 상술한 바와 같이 도로 영역 추정부(30)는 주행 환경 판단부(20)에 의해 판단된 결과에 따라 서로 다른 방법으로 관심 영역을 설정할 수 있다.The road area estimator 30 sets the final ROI by using the first ROI set by the first ROI setter 31 or the second ROI set by the second ROI setter 32. Can be. In this case, as described above, the road area estimator 30 may set the ROIs in different ways according to the result determined by the driving environment determiner 20.

구체적으로, 도로 영역 추정부(30)는 도로 영상의 밝기 값이 임계값 이상인 것으로 판단되면, 제1 관심 영역을 최종 관심 영역으로 설정할 수 있다. 즉, 도로 영역 추정부(30)는 도로 영상이 충분히 밝아 제1 관심 영역 설정부(31)에 의해 수행된 영상 처리 기술 만으로도 차선 구분이 용이하다고 판단되는 경우, 제1 관심 영역 설정부(31)에 의해 설정된 관심 영역을 최종적인 관심 영역(도로 영역)으로 설정할 수 있다.In detail, when it is determined that the brightness value of the road image is greater than or equal to the threshold value, the road region estimator 30 may set the first ROI as the final ROI. That is, when the road region estimator 30 determines that the road image is sufficiently bright to distinguish lanes only by the image processing technique performed by the first ROI setting unit 31, the first ROI setting unit 31 The region of interest set by the user may be set as the final region of interest (road region).

반면, 도로 영역 추정부(30)는 도로 영상의 밝기 값이 임계값 미만인 것으로 판단되면, 제2 관심 영역 설정부(32)를 통해 제2 관심 영역이 추가적으로 설정되도록 제어하고, 제1 관심 영역과 제2 관심 영역을 함께 고려하여 최종 관심 영역을 설정할 수 있다. 이와 관련된 구체적인 설명은 후술하기로 한다.On the other hand, when it is determined that the brightness value of the road image is less than the threshold value, the road region estimator 30 controls the second ROI to be additionally set through the second ROI setting unit 32 and controls the first ROI. The final region of interest may be set in consideration of the second region of interest. Detailed description thereof will be described later.

주행차선 검출부(40)는 최종 관심 영역으로부터 적어도 하나의 주행 차선을 검출할 수 있다.The driving lane detector 40 may detect at least one driving lane from the final ROI.

주행차선 검출부(40)는 허프 변환과 RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 최종 관심 영역으로부터 적어도 하나의 주행 차선을 검출할 수 있다. 먼저, 주행차선 검출부(40)는 허프 변환을 이용하여 최종 관심 영역에 포함된 직선을 구성하는 점들에 대한 각각의 직선 방정식을 산출하고, 직선 방정식에 따라 생성된 직선들의 교점을 추출할 수 있다. 주행차선 검출부(40)는 어느 하나의 교점을 통과하는 직선의 개수가 미리 정해진 개수 이상인 것으로 해당되면, 해당 교점을 통과하는 직선들에 대응되는 점들이 직선을 구성하는 점들인 것으로 판단하여 이들을 주행차선 후보군으로 설정할 수 있다. 주행차선 검출부(40)는 임의의 두 개의 점을 추출하여 두 점을 직선으로 연결하고, 모든 점들에 대하여 이와 같은 과정을 수행한 후 RANSAC 알고리즘을 이용하여 가장 많은 지지를 받는 주행차선 후보군을 최종적인 주행차선으로 검출할 수 있다.The driving lane detection unit 40 may detect at least one driving lane from the final region of interest using a Hough transform and a random SAmple consensus (RANSAC) algorithm. First, the driving lane detection unit 40 may calculate respective linear equations for the points constituting the straight lines included in the final ROI by using the Hough transform, and extract intersection points of the straight lines generated according to the straight line equations. If the number of straight lines passing through any one intersection is equal to or greater than a predetermined number, the driving lane detection unit 40 determines that the points corresponding to the straight lines passing through the intersection are points forming a straight line, and the driving lanes are determined as these. Can be set as a candidate group. The driving lane detection unit 40 extracts two arbitrary points, connects the two points in a straight line, performs the same process for all the points, and then uses the RANSAC algorithm to finally determine the driving lane candidate group receiving the most support. It can be detected by the traveling lane.

허프 변환은 영상에서 직선 성분을 검출하기 위한 기법이고, RANSAC 알고리즘은 참(inlier) 정보들 중에서 가장 많은 동의를 받는 모델을 추출하는 방법으로, 허프 변환과 RANSAC 알고리즘은 영상 처리 기술 분야 및 회귀분석 분야에서 널리 알려진 기술이므로, 각각의 구체적인 알고리즘에 대한 설명은 생략하기로 한다.The Hough transform is a technique for detecting linear components in an image, and the RANSAC algorithm extracts a model with the most agreement among inlier information. The HANS transform and RANSAC algorithm are used for image processing technology and regression analysis. Since the technology is well known in the description of each specific algorithm will be omitted.

이때, 최종 관심 영역은 도로 영역으로 추정된 영역으로 설정되므로, 주행차선 검출부(40)는 도로 영상의 모든 직선이 아닌 최종 관심 영역의 직선만을 고려하여 차선 후보군 및 주행차선을 검출할 수 있어 차선 검출율과 처리속도가 향상될 수 있다.In this case, since the final ROI is set as an area estimated as the road area, the driving lane detector 40 may detect the lane candidate group and the driving lane in consideration of only the straight lines of the final ROI, not all the straight lines of the road image. Rate and throughput can be improved.

도 2는 도 1의 도로 영역 추정부(30)의 구체적인 구성이 도시된 도면이다.FIG. 2 is a diagram illustrating a specific configuration of the road area estimating unit 30 of FIG. 1.

구체적으로, 본 발명의 일 실시예에 따른 도로 영역 추정부(30)는 제1 관심 영역 설정부(31)와 제2 관심 영역 설정부(32)를 포함할 수 있다.In detail, the road area estimator 30 according to an embodiment of the present invention may include a first ROI setting unit 31 and a second ROI setting unit 32.

제1 관심 영역 설정부(31)는 전처리된 도로 영상으로부터 도로 영역으로 추정되는 제1 관심 영역을 설정할 수 있다. 이때, 제1 관심 영역 설정부(31)는 전처리된 도로 영상에 대한 역 투영 변환 영상으로부터 제1 관심 영역을 설정할 수 있다. 이와 관련하여, 도 3을 함께 참조하여 설명하기로 한다.The first ROI setting unit 31 may set a first ROI estimated as a road region from the preprocessed road image. In this case, the first ROI setting unit 31 may set the first ROI from the reverse projection converted image of the preprocessed road image. In this regard, it will be described with reference to FIG.

도 3은 제1 관심 영역 설정부(31)가 제1 관심 영역을 설정하는 일 예가 도시된 도면이다. 도 2a는 도로 영상의 원본의 일 예가 도시된 도면이고, 도 2b는 역 투영 변환 영상의 일 예가 도시된 도면이다.3 illustrates an example in which the first ROI setting unit 31 sets the first ROI. FIG. 2A is a diagram illustrating an example of an original image of a road image, and FIG. 2B is a diagram illustrating an example of a reverse projection converted image.

상술한 바와 같이, 제1 관심 영역 설정부(31)는 역 투영 변환 영상으로부터 제1 관심 영역을 설정할 수 있다. 제1 관심 영역 설정부(31)는 도 2a에 도시된 바와 같은 도로 영상을 도 2b에 도시된 바와 같이 원근감이 제거된 영상으로 변환한 역 투영 변환 영상을 생성할 수 있다. As described above, the first ROI setting unit 31 may set the first ROI from the reverse projection converted image. The first ROI setting unit 31 may generate a reverse projection converted image obtained by converting a road image as illustrated in FIG. 2A into an image from which perspective is removed as illustrated in FIG. 2B.

도로 폭을 추정하기 위해서는 도로와 비도로간의 경계선을 검출할 필요가 있다. 도로 경계면은 다른 차선들과는 구조적인 차이가 있으며, 국내의 경우 차량은 우측으로 주행하기 때문에 좌측에 위치한 실선은 대부분 중앙선일 수 있다. 이러한 경우, 우측 가장자리에 있는 실선이 차선의 끝인 경우가 많으며, 따라서 중앙선과 우측 가장자리의 실선까지를 도로 폭으로 추정할 수 있다. 또한, 일반적으로 주행 차선의 폭은 일정한 간격만큼 이격되어 배치되어 있다.In order to estimate the road width, it is necessary to detect the boundary between the road and the non-road. The road boundary is structurally different from other lanes. In Korea, since the vehicle travels to the right side, the solid line on the left side may be the center line. In this case, the solid line at the right edge is often the end of the lane, and thus the road width can be estimated from the center line and the solid line at the right edge. In general, the widths of the driving lanes are spaced apart by a predetermined interval.

이러한 특징을 이용하여, 제1 관심 영역 설정부(31)는 역 투영 변환 영상의 가장 좌측에 위치한 실선을 검출하여 이를 기준 차선으로 설정할 수 있다. 제1 관심 영역 설정부(31)는 기준 차선을 중심으로 우측 방향으로 미리 설정된 기준거리 이내에 위치한 점선을 차선으로 판단할 수 있다. 점선으로 판단된 차선이 존재하는 경우, 제1 관심 영역 설정부(31)는 판단된 점선(제1 차선)을 기준으로 다시 우측 방향으로 기준거리 이내에 위치한 점선(제2 차선)이 있는지를 확인할 수 있다. 여기서, 기준거리는 3m 내지 3.5m로 설정될 수 있으나, 기준거리는 이에 한정되지 않으며 국가별 또는 지역별 도로 환경에 따라 다양한 값으로 설정될 수 있다. Using this feature, the first ROI setting unit 31 may detect the solid line located to the left of the reverse projection converted image and set it as the reference lane. The first ROI setting unit 31 may determine a dotted line located within a preset reference distance in a right direction with respect to the reference lane as the lane. If there is a lane determined as a dotted line, the first ROI setting unit 31 may check whether there is a dotted line (second lane) located within a reference distance in the right direction again based on the determined dotted line (first lane). have. Here, the reference distance may be set to 3m to 3.5m, but the reference distance is not limited thereto and may be set to various values according to road conditions for each country or region.

이러한 방법으로, 제1 관심 영역 설정부(31)는 우측 방향으로 실선이 검출될 때까지 상술한 방법을 반복하여 수행함으로써 도로 영역에 배치된 차선들을 검출할 수 있다. 이후, 제1 관심 영역 설정부(31)는 설정된 기준 차선으로부터 가장자리 차선까지의 영역을 도로 영역으로 추정하고, 이를 제1 관심 영역(도시된 도면의 음영 처리된 영역)으로 설정할 수 있다.In this way, the first ROI setting unit 31 may detect the lanes arranged in the road area by repeatedly performing the above-described method until the solid line is detected in the right direction. Thereafter, the first ROI setting unit 31 may estimate the area from the set reference lane to the edge lane as the road area, and set it as the first ROI (shaded area of the drawing).

몇몇 다른 실시예에서, 제1 관심 영역 설정부(31)는 역 투영 변환 영상의 밝기 값에 따라 다른 방법으로 제1 관심 영역을 설정할 수 있다.In some other embodiments, the first ROI setting unit 31 may set the first ROI in another method according to the brightness value of the reverse projection converted image.

예를 들어, 터널 내에서는 차량의 차선 이동을 금지하기 위해 모든 차선이 실선으로 배치되어 있다. 이러한 경우, 상술한 방법을 이용하여 제1 관심영역을 설정하는 경우 하나의 차선만을 도로 영역으로 추정하는 문제점이 발생할 수 있다. 따라서, 도로가 야외에 있는지 또는 터널 내부에 있는지에 따라 서로 다른 방법으로 관심 영역을 추출할 필요가 있다. For example, in a tunnel, all lanes are arranged in solid lines to prohibit lane movement of the vehicle. In this case, when setting the first ROI using the above-described method, a problem of estimating only one lane as a road area may occur. Therefore, it is necessary to extract the region of interest in different ways depending on whether the road is outdoors or inside the tunnel.

이를 위해, 제1 관심 영역 설정부(31)는 역 투영 변환 영상의 밝기 값을 추출하고, 역 투영 변환 영상의 밝기 값이 미리 정해진 기준값보다 작은 것으로 판단되면, 차량이 현재 터널 내부에 위치한 것으로 판단하여 다른 방법으로 제1 관심 영역을 설정할 수 있다. 일반적으로, 터널 내부에서 촬영되는 도로 영상은 우천 시 촬영되는 도로 영상보다 어두운 밝기값을 가지기 때문에, 기준값은 상술한 임계값보다 작은 값으로 설정되는 것이 바람직하다.To this end, the first ROI setting unit 31 extracts the brightness value of the reverse projection converted image, and if it is determined that the brightness value of the reverse projection converted image is smaller than a predetermined reference value, it is determined that the vehicle is currently located inside the tunnel. In another way, the first ROI may be set. In general, since the road image photographed inside the tunnel has a darker brightness value than the road image photographed in rainy weather, the reference value is preferably set to a value smaller than the above-described threshold value.

구체적으로, 제1 관심 영역 설정부(31)는 역 투영 변환 영상의 밝기 값이 기준값보다 작은 경우, 역 투영 변환 영상의 최우측 실선으로 설정되는 기준 차선으로부터 우측 방향으로 기준거리 이내에 위치한 실선 또한 차선인 것으로 판단할 수 있다. 제1 관심 영역 설정부(31)는 판단된 차선을 기준으로 기준거리 이내에 위치한 다른 실선이 검출되지 않을 때까지 이러한 과정을 반복 수행하여 도로의 차선들을 구분할 수 있다. 이때, 제1 관심 영역 설정부(31)는 미리 설정된 근접거리 이내에서 실선이 검출되는 경우, 이를 정상적인 차선이 아닌 것으로 판단할 수 있다. 예를 들어, 터널 내의 갓길의 경우에는 정상적인 차선 폭보다 좁게 설정될 수 있으며, 갓길은 비상 상황에서 사용되는 차선이므로 도로 영역에서 제외시킬 필요가 있다. In detail, when the brightness value of the reverse projection conversion image is smaller than the reference value, the first ROI setting unit 31 may further include a solid line located within a reference distance in a right direction from the reference lane set as the rightmost solid line of the reverse projection conversion image. It can be judged that The first ROI setting unit 31 may repeat the process until the other solid line located within the reference distance is not detected based on the determined lane to distinguish the lanes of the road. In this case, when the solid line is detected within a preset proximity distance, the first ROI setting unit 31 may determine that the first ROI is not a normal lane. For example, a shoulder in a tunnel may be set to be narrower than a normal lane width, and a shoulder is a lane used in an emergency situation and needs to be excluded from the road area.

따라서, 제1 관심 영역 설정부(31)는 가장 마지막에 검출된 차선을 기준으로 근접거리 이내에서 차선이 검출되거나, 기준거리 이내에서 차선이 검출되지 않는 경우, 가장 마지막에 검출된 차선을 가장자리 차선으로 설정할 수 있다. 이때, 근접거리는 기준거리보다 작도록 설정될 수 있으며, 예를 들어 기준거리는 3m~3.5m 사이의 값으로 설정되고, 근접거리는 2.5m로 설정될 수 있으나, 근접거리가 기준거리보다 작은 값을 갖도록 설정되면 구체적인 수치값에는 제한을 두지 않는다. 제1 관심 영역 설정부(31)는 기준 차선으로부터 가장자리 차선까지의 영역을 도로 영역으로 추정하고, 이를 제1 관심 영역으로 설정할 수 있다.Therefore, when the lane of interest is detected within a close distance based on the last detected lane, or the lane is not detected within the reference distance, the first ROI setting unit 31 edges the last detected lane. Can be set. In this case, the proximity distance may be set to be smaller than the reference distance. For example, the reference distance may be set to a value between 3m and 3.5m, and the proximity distance may be set to 2.5m, but the proximity distance is smaller than the reference distance. When set, no specific numerical value is imposed. The first ROI setting unit 31 may estimate a region from the reference lane to the edge lane as the road region and set it as the first ROI.

제2 관심 영역 설정부(32)는 미리 학습된 심층 신경망을 이용하여 도로 영상으로부터 도로 영역으로 추정되는 제2 관심 영역을 설정할 수 있다. 이와 관련하여, 도 4를 함께 참조하여 설명하기로 한다.The second region of interest setting unit 32 may set a second region of interest estimated from the road image as a road region by using the previously learned deep neural network. In this regard, it will be described with reference to FIG.

도 4는 제 2 관심 영역 설정부(32)에 의해 제2 관심 영역이 설정되는 일 예가 도시된 도면이다.4 is a diagram illustrating an example in which a second ROI is set by the second ROI setting unit 32.

제2 관심 영역 설정부(32)는 미리 학습된 심층 신경망을 이용하여 도로 영상의 인코더 과정과 디코더 과정을 수행할 수 있다.The second ROI setting unit 32 may perform an encoder process and a decoder process of the road image by using the deeply trained deep neural network.

인코더 과정에서, 제2 관심 영역 설정부(32)는 도로 영상에 컨벌루션 필터(convolution filter)를 적용하여 특징 맵을 추출할 수 있다. 제2 관심 영역 설정부(32)는 생성된 특징 맵의 최대 풀링(max plooing) 과정을 수행하여 특징 맵의 사이즈를 감소시킬 수 있다. 제2 관심 영역 설정부(32)는 컨벌루션 계층과 최대 풀링 계층을 소정 횟수 반복한 후, 디코더 과정에서는 디컨벌루션(deconvolution) 과정을 통해 최대 풀링한 RGB 값들을 업샘플링(upsampling)함으로써 도로 영상을 원래의 사이즈로 복원시킬 수 있다. 이러한 과정을 거친 도로 영상은 도 4의 (b)에 도시된 바와 같이 유사한 특징을 갖는 픽셀끼리 동일한 색상을 갖는 영상으로 변환될 수 있다.In the encoder process, the second ROI setting unit 32 may extract a feature map by applying a convolution filter to the road image. The second ROI setting unit 32 may reduce the size of the feature map by performing a maximum plooing process of the generated feature map. The second ROI setting unit 32 repeats the convolutional layer and the maximum pooling layer a predetermined number of times, and then, in the decoder process, up-samples the maximum pooled RGB values through a deconvolution process, thereby reconstructing the road image. Can be restored to the size of. As shown in (b) of FIG. 4, the road image that has undergone this process may be converted into an image having the same color among pixels having similar characteristics.

즉, 제2 관심 영역 설정부(32)는 심층 신경망을 이용하여 도로 영상을 구성하는 각각의 픽셀들 중 유사한 특징을 가진 픽셀끼리 동일한 색상을 갖도록 레이블링(labeling)할 수 있다. 이후, 제2 관심 영역 설정부(32)는 미리 학습된 클래스 정보를 조회하여 동일한 그룹으로 레이블링된 픽셀들이 어떠한 객체인지를 구분할 수 있다. 이에 따라, 제2 관심 영역 설정부(32)는 특정 색상(도시된 실시예에서는 보라색 영역)으로 레이블링된 객체 영역을 도로 영역으로 추정하여 이를 제2 관심 영역으로 설정할 수 있다.That is, the second ROI setting unit 32 may label the pixels having similar characteristics among the pixels constituting the road image by using the deep neural network to have the same color. Subsequently, the second ROI setting unit 32 may search for pre-learned class information to distinguish which objects are pixels labeled with the same group. Accordingly, the second region of interest setting unit 32 may estimate the object region labeled with a specific color (in the illustrated embodiment, the purple region) as the road region and set it as the second region of interest.

여기서, 미리 학습된 클래스 정보는 도로, 차선, 울타리, 건물 등과 같이 도로 영상에 분류 가능한 객체들에 대한 클래스를 포함할 수 있다. 또한, 미리 학습된 심층 신경망은 컨벌루션(convolution) 신경망의 일종인 세그넷(SegNet) 신경망 알고리즘의 형태일 수 있으나, Here, the pre-learned class information may include classes for objects that can be classified in the road image, such as roads, lanes, fences, buildings, and the like. In addition, the pre-learned deep neural network may be in the form of a SegNet neural network algorithm, which is a kind of convolutional neural network.

이후, 제2 관심 영역 설정부(32)는 추출된 확률 결과를 역전파(backpropagation) 과정을 거쳐 모델을 구성 하는 매개변수를 업데이트할 수 있다. 최종적으로 학습된 매개변수들을 RGB 영상으로 재구성 하여 의미상의 분류를 진행할 수 있다.Thereafter, the second ROI setting unit 32 may update the parameters constituting the model through a backpropagation process of the extracted probability result. Finally, the learned parameters can be reconstructed into RGB images for semantic classification.

한편, 상술한 바와 같이 도로 영역 추정부(30)는 도로 영상의 밝기 값이 임계값 미만인 것으로 판단되면, 제1 관심 영역과 제2 관심 영역을 함께 고려하여 최종 관심 영역을 설정할 수 있다. 이와 관련하여, 도 5를 함께 참조하여 설명하기로 한다.As described above, when it is determined that the brightness value of the road image is less than the threshold value, the road region estimator 30 may set the final ROI by considering the first ROI and the second ROI. In this regard, it will be described with reference to FIG.

도 5는 도로 영역 추정부(30)가 최종 관심 영역을 설정하는 일 예가 도시된 도면이다.5 is a diagram illustrating an example in which the road area estimation unit 30 sets a final ROI.

도로 영상의 품질이 좋지 않아 제1 관심 영역 설정부(31)에서 기준차선 또는 가장자리 차선 등과 같은 도로 경계를 검출하지 못하게 되는 경우, 제1 관심 영역을 결정지을 수 없는 문제를 방지하기 위해, 도로 영역 추정부(30)는 도로 영상의 가시성이 좋지 않다고 판단되면 제2 관심 영역 설정부(32)에 의해 설정된 제2 관심 영역을 제1 관심 영역과 병합하여 검증하는 작업을 수행할 수 있다.In order to prevent a problem in which the first ROI cannot be determined when the road image such as the reference lane or the edge lane cannot be detected by the first ROI setting unit 31 due to poor quality of the road image, If it is determined that the visibility of the road image is not good, the estimator 30 may perform the operation of merging the second ROI set by the second ROI setting unit 32 with the first ROI.

일 예로, 도로 영역 추정부(30)는 도시된 바와 같이 제1 관심 영역에 제2 관심 영역을 매핑하여 최종 관심 영역을 설정할 수 있다. 도로 영역 추정부(30)는 제1 관심 영역에 제2 관심 영역을 매핑하여, 제1 관심 영역과 제2 관심 영역의 공통 영역을 최종 관심 영역으로 설정할 수 있다. 이때, 도로 영역 추정부(30)에 의해 설정되는 최종 관심 영역은 기준 차선과 가장자리 차선을 기준으로 하는 다각형 형태의 영역으로 설정될 수 있다. For example, the road region estimator 30 may set the final ROI by mapping the second ROI to the first ROI as illustrated. The road region estimator 30 may map the second region of interest to the first region of interest and set a common region of the first region of interest and the second region of interest as the final region of interest. In this case, the final ROI set by the road area estimator 30 may be set as a polygonal area based on the reference lane and the edge lane.

구체적으로, 도로 영역 추정부(30)는 제2 관심 영역을 차로 별로 구분할 수 있다. 상술한 바와 같이, 제2 관심 영역 설정부(32)는 도로 영상을 구성하는 픽셀들을 특정한 의미를 갖는 픽셀끼리 레이블링할 수 있다. 이때, 제2 관심 영역 설정부(32)에 의해 레이블링되는 객체의 종류는 차선, 도로, 펜스, 차량 및 비관심객체를 포함할 수 있다. 제2 관심 영역 설정부(32)는 차선과 도로 객체가 포함된 영역을 제2 관심 영역으로 설정할 수 있으며, 이에 따라 도로 영역 추정부(30)는 제2 관심 영역을 차선에 의해 차로별(제1 차로, 제2 차로, 제3 차로)로 구분하는 것이 가능하다. 도로 영역 추정부(30)는 각각의 차로별 높이값(h1, h2, h3)을 추출할 수 있다.In detail, the road area estimator 30 may divide the second ROI by lane. As described above, the second ROI setting unit 32 may label pixels constituting the road image with pixels having a specific meaning. In this case, the type of the object labeled by the second region of interest setting unit 32 may include a lane, a road, a fence, a vehicle, and an uninterested object. The second ROI setting unit 32 may set an area including the lane and the road object as the second ROI, and accordingly, the road area estimation unit 30 separates the second ROI by lanes. Primary, secondary, and tertiary lanes). The road area estimator 30 may extract the height values h1, h2, and h3 for each lane.

최종적으로, 도로 영역 추정부(30)는 제1 관심 영역으로부터 설정된 기준 차선으로부터 상기 가장자리 차선까지를 최종 관심 영역의 폭으로 설정하고, 제2 관심 영역을 분석하여 차선에 의해 분할된 차로별 높이값(h1, h2, h3)을 이웃하는 차로별 높이값과 연결하여 다각형 형태의 구간별 높이값을 설정함으로써, 최종 관심 영역의 높이값을 차로 별로 설정할 수 있다. 이에 따라, 도로 영역 추정부(30)는 도로 영역으로 추정된 영역 이외에서 감지되는 직선을 잡음으로 판단하여 제거하고, 도로 영역으로 추정된 영역 내에서 감지되는 직선 또는 점선을 차선으로 추정하기 위하여 도로 영상에서 최종 관심 영역을 설정할 수 있다.Finally, the road area estimator 30 sets the width of the final ROI from the reference lane set from the first ROI to the edge lane, analyzes the second ROI, and divides the height value of each lane divided by the lanes. By connecting (h1, h2, h3) with the height value for each lane adjacent to each other and setting the height value for each section of the polygonal shape, it is possible to set the height value of the final ROI by car. Accordingly, the road area estimator 30 determines and removes a straight line detected outside the area estimated as the road area as noise, and estimates the straight line or the dotted line detected in the area estimated as the road area as a lane. The final ROI may be set in the image.

다른 예로, 도로 영역 추정부(30)는 제1 관심 영역과 제2 관심 영역의 유사도를 산출하고, 유사도에 따라 최종 관심 영역을 설정할 수 있다.As another example, the road area estimator 30 may calculate a similarity degree between the first ROI and the second ROI and set the final ROI based on the similarity.

도로 영역 추정부(30)는 최종적으로 병합된 결과인 최종 관심 영역을 설정하고, 주행 차선 검출부(40)는 이를 기반으로 최종 도로 영역을 추출할 수 있다.The road area estimator 30 may set the final ROI that is a result of the merged finally, and the driving lane detector 40 may extract the final road area based on this.

도 6 및 도 7은 본 발명의 일 실시예에 따른 차선 검출 방법의 개략적인 흐름이 도시된 순서도이다.6 and 7 are flowcharts illustrating a schematic flow of a lane detection method according to an embodiment of the present invention.

먼저, 도 6에 도시된 바와 같이, 본 발명에 따른 차선 검출 장치(1)는 차량에 장착된 촬영 장치로부터 차량 전방에 대한 도로 영상을 입력받으면, 도로 영상의 밝기 값을 추출할 수 있다(510). 이때, 본 발명에 따른 차선 검출 장치(1)는 밝기 값을 임계값과 비교한 결과에 따라 서로 다른 방법으로 최종 관심 영역을 설정할 수 있다.First, as shown in FIG. 6, when the lane detecting apparatus 1 according to the present invention receives a road image for the front of the vehicle from a photographing apparatus mounted on the vehicle, the lane detecting apparatus 1 may extract a brightness value of the road image (510). ). In this case, the lane detection apparatus 1 according to the present invention may set the final ROI in different ways according to a result of comparing the brightness value with the threshold value.

구체적으로, 차선 검출 장치(1)는 추출된 밝기 값이 미리 설정된 임계값 이상인 것으로 확인되면(520의 YES), 제1 관심 영역 설정부(31)를 통해 설정된 제1 관심 영역을 최종 관심 영역으로 설정할 수 있다(530). 반면, 차선 검출 장치(1)는 추출된 밝기 값이 미리 설정된 임계값 미만인 것으로 확인되면(520의 NO), 후속 과정(535)을 수행한 후 최종 관심 영역을 설정할 수 있다. 이와 관련하여, 도 7을 함께 참조하여 설명하기로 한다.Specifically, when it is determined that the extracted brightness value is greater than or equal to a preset threshold value (YES at 520), the lane detection apparatus 1 sets the first ROI set through the first ROI setting unit 31 as the final ROI. Can be set (530). On the other hand, if it is determined that the extracted brightness value is less than the preset threshold value (NO in 520), the lane detection apparatus 1 may set the final ROI after performing the subsequent process 535. In this regard, it will be described with reference to FIG.

도 7은 차선 검출 장치(1)의 후속 처리 과정(535)의 구체적인 흐름이 도시된 순서도이다.7 is a flowchart illustrating a specific flow of the subsequent processing 535 of the lane detection apparatus 1.

처선 검출 장치(1)는 밝기 값이 미리 설정된 임계값 미만인 것으로 확인되면, 제1 관심 영역 설정부(31)로부터 설정된 제1 관심 영역을 제공받을 수 있다(535_1). 구체적으로, 차선 검출 장치(1)의 제1 관심 영역 설정부(31)는 영상 처리 기술의 일종으로, 역 투영 변환 영상으로부터 기준차선과 기준거리에 따라 제1 관심 영역을 생성할 수 있다.When it is determined that the brightness value is less than the preset threshold value, the line detection device 1 may be provided with the first region of interest set by the first region of interest setting unit 31 (535_1). In detail, the first ROI setting unit 31 of the lane detection apparatus 1 is a kind of image processing technology. The first ROI setting unit 31 may generate the first ROI based on the reference lane and the reference distance from the reverse projection converted image.

이와 동시에, 차선 검출 장치(1)는 제2 관심 영역 설정부(32)로부터 설정된 제2 관심 영역을 제공받을 수 있다(535_2). 차선 검출 장치(1)의 제2 관심 영역 설정부(32)는 심층 신경망 방식을 이용하여 도로 영상을 의미적으로 분류할 수 있으며, 구체적으로는 도로 영상의 픽셀을 레이블링하여 레이블링된 픽셀 그룹이 어떤 종류의 객체인지를 구분할 수 있다. 제2 관심 영역 설정부(32)는 도로 객체로 구분된 픽셀 그룹을 기초로 제2 관심 영역을 설정할 수 있다.At the same time, the lane detection apparatus 1 may be provided with the second region of interest set by the second region of interest setting unit 32 (535_2). The second ROI setting unit 32 of the lane detection apparatus 1 may semantically classify the road image by using a deep neural network method. Specifically, the pixel group labeled by labeling the pixels of the road image may be used. You can tell if it's a kind of object. The second ROI setting unit 32 may set the second ROI based on the pixel group divided into the road object.

차선 검출 장치(1)는 제1 관심 영역과 제2 관심 영역을 함께 고려하여 최종 관심 영역을 설정할 수 있다(535_3).The lane detection apparatus 1 may set the final ROI in consideration of the first ROI and the second ROI (535_3).

이후, 차선 검출 장치(1)는 설정된 최종 관심 영역으로부터 주행차선 후보군을 추출할 수 있다(540). 최종적으로, 차선 검출 장치(1)는 추출된 주행차선 후보군으로부터 적어도 하나의 주행차선을 검출할 수 있다(550).Thereafter, the lane detection apparatus 1 may extract the driving lane candidate group from the set final region of interest (540). Finally, the lane detecting apparatus 1 may detect at least one driving lane from the extracted driving lane candidate group (550).

이와 같은, 차선 검출 방법을 제공하는 기술은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Such a technique for providing a lane detection method may be implemented in the form of program instructions that may be implemented as an application or executed through various computer components, and recorded on a computer readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium are those specially designed and configured for the present invention, and may be known and available to those skilled in the computer software arts.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the embodiments, those skilled in the art will understand that various modifications and changes can be made without departing from the spirit and scope of the invention as set forth in the claims below. Could be.

1: 차선 검출 장치
10: 전처리부
20: 주행 환경 판단부
30: 도로 영역 추정부
31: 제1 관심 영역 설정부
32: 제2 관심 영역 설정부
40: 주행차선 검출부
1: lane detection device
10: pretreatment unit
20: driving environment determination unit
30: road area estimation unit
31: first region of interest setting unit
32: second region of interest setting unit
40: driving lane detection unit

Claims (15)

도로 영상의 밝기 값을 추출하여, 상기 밝기 값을 미리 설정된 임계값과 비교하는 단계;
상기 도로 영상에 대한 역 투영 변환 영상으로부터 도로 영역으로 추정되는 제1 관심 영역을 설정하는 단계;
상기 밝기 값이 상기 임계값보다 작은 것으로 확인되면, 미리 학습된 심층 신경망을 이용하여 상기 도로 영상으로부터 차선과 도로로 판단된 객체가 포함된 제2 관심 영역을 설정하는 단계;
상기 제1 관심 영역과 상기 제2 관심 영역을 기초로 상기 도로 영상에서 도로 영역으로 추정되는 최종 관심 영역을 결정하는 단계; 및
미리 정해진 차선 검출 알고리즘을 이용하여 상기 최종 관심 영역으로부터 적어도 하나의 주행차선을 검출하는 단계를 포함하는, 차선 검출 방법.
Extracting a brightness value of a road image and comparing the brightness value with a preset threshold value;
Setting a first ROI estimated as a road area from a reverse projection transformation image of the road image;
If it is determined that the brightness value is smaller than the threshold value, setting a second ROI including an object determined to be a lane and a road from the road image by using a pre-learned deep neural network;
Determining a final region of interest estimated as a road region in the road image based on the first region of interest and the second region of interest; And
Detecting at least one traveling lane from the last region of interest using a predetermined lane detection algorithm.
제1항에 있어서,
상기 제2 관심 영역으로 설정하는 것은,
상기 심층 신경망을 이용하여 상기 도로 영상을 구성하는 각각의 픽셀을 미리 학습된 클래스 중 어느 하나의 클래스로 레이블링하여, 상기 도로 영상의 픽셀들을 학습된 클래스에 대한 객체로 그룹화하고, 도로 영역 클래스로 그룹화된 픽셀들을 상기 관심 영역으로 설정하는 것인, 차선 검출 방법.
The method of claim 1,
Setting to the second region of interest,
Each pixel constituting the road image is labeled with any one of a pre-learned class by using the deep neural network, and the pixels of the road image are grouped into objects for the learned class and grouped into a road area class. Setting the selected pixels as the region of interest.
제1항에 있어서,
상기 제1 관심 영역으로 설정하는 것은,
상기 역 투영 변환 영상의 최좌측 실선을 기준 차선으로 설정하고, 상기 기준 차선으로부터 미리 정해진 기준거리 이내에 위치한 점선을 차선으로 판단하고, 상기 차선으로터 상기 기준거리 이내에 위치한 어느 하나의 실선을 상기 가장자리 차선으로 설정하며, 상기 기준 차선으로부터 상기 가장자리 차선까지의 영역을 상기 제1 관심 영역으로 검출하는, 차선 검출 방법.
The method of claim 1,
Setting as the first region of interest,
The leftmost solid line of the reverse projection converted image is set as a reference lane, a dotted line located within a predetermined reference distance from the reference lane is determined as a lane, and any one solid line located within the reference distance from the lane is the edge lane And detecting the area from the reference lane to the edge lane as the first region of interest.
제3항에 있어서,
상기 제1 관심 영역으로 설정하는 것은,
상기 역 투영 변환 영상의 밝기 값이 기준값보다 작은 경우, 상기 기준 차선으로부터 미리 정해진 기준거리 이내에 위치한 실선을 차선으로 더 판단하고, 상기 기준거리를 기초로 연속적으로 판단되는 차선 중 최우측 차선을 상기 가장자리 차선으로 설정하는 것이고, 상기 기준값은 상기 임계값보다 작은 값을 설정되는 것을 특징으로 하는, 차선 검출 방법.
The method of claim 3,
Setting as the first region of interest,
If the brightness value of the reverse projection converted image is smaller than a reference value, the solid line located within a predetermined reference distance from the reference lane is further determined as a lane, and the rightmost lane among the lanes continuously determined based on the reference distance is the edge. The lane detection method, and the reference value is set to a value smaller than the threshold value, lane detection method.
제3항에 있어서,
상기 최종 관심 영역을 결정하는 것은,
상기 제1 관심 영역에 상기 제2 관심 영역을 매핑하여, 상기 제1 관심 영역과 상기 제2 관심 영역의 공통 영역을 상기 기준 차선과 상기 가장자리 차선을 기준으로 하는 다각형 형태의 영역으로 추출하여 상기 최종 관심 영역으로 결정하는 것인, 차선 검출 방법.
The method of claim 3,
Determining the final region of interest is
The second region of interest is mapped to the first region of interest, and a common region of the first region of interest and the second region of interest is extracted as a region having a polygonal shape based on the reference lane and the edge lane. The lane detection method of determining to the region of interest.
제6항에 있어서,
상기 다각형 형태의 영역으로 추출하는 것은,
상기 기준 차선으로부터 상기 가장자리 차선까지를 상기 최종 관심 영역의 폭으로 설정하고, 상기 차선에 의해 분할된 차로별 높이를 이용하여 상기 다각형 형태의 영역의 구간별 높이값을 설정하는 것을 특징으로 하는, 차선 검출 방법.
The method of claim 6,
Extracting to the area of the polygonal form,
And setting the height value of each section of the polygonal area using the height of each lane divided by the lane from the reference lane to the edge lane and setting the width of the final ROI. Detection method.
제1항에 있어서,
상기 적어도 하나의 주행차선을 검출하는 것은,
상기 최종 관심 영역의 직선을 구성하는 어느 하나의 점을 직선 방정식으로 변환하고, 각각의 점에 대하여 변환된 복수의 직선 방정식이 서로 교차하는 교점을 검출하고, 상기 교점을 지나는 직선 방정식의 개수가 임계값 이상인 직선 방정식들을 이용하여 주행차선 후보군을 추출하는 것인, 차선 검출 방법.
The method of claim 1,
Detecting the at least one driving lane,
Convert any one point constituting a straight line of the final region of interest to a straight line equation, detect an intersection where a plurality of straight line equations converted for each point cross each other, and the number of straight line equations passing through the intersection is critical And extracting a driving lane candidate group using linear equations having a value or more.
제1항에 있어서,
상기 적어도 하나의 주행차선을 검출하는 것은,
RANSAC 알고리즘을 이용하여 상기 주행차선 후보군으로부터 상기 적어도 하나의 주행차선을 검출하는 것인, 차선 검출 방법.
The method of claim 1,
Detecting the at least one driving lane,
And detecting the at least one driving lane from the driving lane candidate group using a RANSAC algorithm.
제1항에 있어서,
상기 최종 관심 영역을 결정하는 것은,
상기 밝기 값이 상기 임계값보다 작은 것으로 확인되면, 검출된 상기 제1 관심 영역을 상기 최종 관심 영역으로 결정하는 것을 특징으로 하는, 차선 검출 방법.
The method of claim 1,
Determining the final region of interest is
And if it is determined that the brightness value is smaller than the threshold value, determining the detected first ROI as the final ROI.
제1항에 있어서,
상기 도로 영상의 밝기 값을 추출하기 이전에, 상기 도로 영상의 전처리 과정을 수행하는 단계를 더 포함하고,
상기 전처리 과정을 수행하는 것은,
상기 도로 영상을 그레이 스케일 영상으로 변환하고, 탑-햇 필터를 이용하여 상기 그레이 스케일 영상을 변환하는 것을 포함하는, 차선 검출 방법.
The method of claim 1,
Before extracting the brightness value of the road image, further comprising the step of performing a pre-processing of the road image,
Performing the pretreatment process,
And converting the road image into a gray scale image, and converting the gray scale image using a top-hat filter.
제1항 내지 제10항 중 어느 하나의 항에 따른 차선 검출 방법을 수행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체.
A computer-readable recording medium having a computer program recorded thereon for performing the lane detection method according to any one of claims 1 to 10.
도로 영상의 밝기 값을 추출하여, 상기 밝기 값을 미리 설정된 임계값과 비교하는 주행 환경 판단부;
상기 도로 영상에 대한 역 투영 변환 영상으로부터 도로 영역으로 추정되는 제1 관심 영역을 설정하는 제1 관심 영역 설정부와, 상기 밝기 값이 상기 임계값보다 작은 것으로 확인되면, 미리 학습된 심층 신경망을 이용하여 상기 도로 영상으로부터 차선과 도로로 판단된 객체가 포함된 제2 관심 영역을 설정하는 제2 관심 영역 설정부를 포함하며, 상기 제1 관심 영역과 상기 제2 관심 영역을 기초로 상기 도로 영상에서 도로 영역으로 추정되는 최종 관심 영역을 결정하는 도로 영역 추정부; 및
미리 정해진 차선 검출 알고리즘을 이용하여 상기 최종 관심 영역으로부터 적어도 하나의 주행차선을 검출하는 차선 검출부를 포함하는, 차선 검출 장치.
A driving environment determination unit which extracts a brightness value of a road image and compares the brightness value with a preset threshold value;
A first ROI setting unit configured to set a first ROI estimated as a road region from an inverse projection transform image of the road image, and when the brightness value is smaller than the threshold value, a deeply trained deep neural network is used. And a second ROI setting unit configured to set a second ROI including an object determined to be a lane and a road from the road image, and based on the first ROI and the second ROI, a road region in the road image. A road area estimator for determining a final region of interest estimated to be; And
And a lane detector for detecting at least one driving lane from the last region of interest using a predetermined lane detection algorithm.
제12항에 있어서,
상기 제2 관심 영역 설정부는,
상기 심층 신경망을 이용하여 상기 도로 영상을 구성하는 각각의 픽셀을 미리 학습된 클래스 중 어느 하나의 클래스로 레이블링하여, 상기 도로 영상의 픽셀들을 학습된 클래스에 대한 객체로 그룹화하고, 도로 영역 클래스로 그룹화된 픽셀들을 상기 제2 관심 영역으로 설정하는, 차선 검출 장치.
The method of claim 12,
The second region of interest setting unit,
Each pixel constituting the road image is labeled with any one of a pre-learned class by using the deep neural network, and the pixels of the road image are grouped into objects for the learned class and grouped into a road area class. And set the pixels as the second region of interest.
제12항에 있어서,
상기 제1 관심 영역 설정부는,
상기 역 투영 변환 영상의 최좌측 실선을 기준 차선으로 설정하고, 상기 기준 차선으로부터 미리 정해진 기준거리 이내에 위치한 점선을 차선으로 판단하고, 상기 차선으로터 상기 기준거리 이내에 위치한 어느 하나의 실선을 상기 가장자리 차선으로 설정하며, 상기 기준 차선으로부터 상기 가장자리 차선까지의 영역을 상기 제1 관심 영역으로 검출하는, 차선 검출 장치.
The method of claim 12,
The first ROI setting unit may include
The leftmost solid line of the reverse projection converted image is set as a reference lane, a dotted line located within a predetermined reference distance from the reference lane is determined as a lane, and any one solid line located within the reference distance from the lane is the edge lane And detecting the area from the reference lane to the edge lane as the first region of interest.
제14항에 있어서,
상기 도로 영역 추정부는,
상기 제1 관심 영역에 상기 제2 관심 영역을 매핑하여, 상기 제1 관심 영역과 상기 제2 관심 영역의 공통 영역을 상기 기준 차선과 상기 가장자리 차선을 기준으로 하는 다각형 형태의 영역으로 추출하여 상기 최종 관심 영역으로 결정하는, 차선 검출 장치.
The method of claim 14,
The road area estimation unit,
The second region of interest is mapped to the first region of interest, and a common region of the first region of interest and the second region of interest is extracted as a region having a polygonal shape based on the reference lane and the edge lane. A lane detecting apparatus for determining the region of interest.
KR1020180017071A 2018-02-12 2018-02-12 Method for extracting driving lane, device and computer readable medium for performing the method KR102043089B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180017071A KR102043089B1 (en) 2018-02-12 2018-02-12 Method for extracting driving lane, device and computer readable medium for performing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180017071A KR102043089B1 (en) 2018-02-12 2018-02-12 Method for extracting driving lane, device and computer readable medium for performing the method

Publications (2)

Publication Number Publication Date
KR20190103508A true KR20190103508A (en) 2019-09-05
KR102043089B1 KR102043089B1 (en) 2019-11-11

Family

ID=67949639

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180017071A KR102043089B1 (en) 2018-02-12 2018-02-12 Method for extracting driving lane, device and computer readable medium for performing the method

Country Status (1)

Country Link
KR (1) KR102043089B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126204A (en) * 2019-12-09 2020-05-08 上海博泰悦臻电子设备制造有限公司 Drivable region detection method and related device
KR20210042203A (en) * 2019-10-08 2021-04-19 재단법인대구경북과학기술원 Cart-path recognition apparatus for autonomous driving of cart in golf cource and method thereof
CN112686831A (en) * 2019-10-17 2021-04-20 神讯电脑(昆山)有限公司 Method for detecting surface form of object based on artificial neural network
CN113313071A (en) * 2021-06-28 2021-08-27 浙江同善人工智能技术有限公司 Road area identification method and system
CN113343746A (en) * 2020-03-03 2021-09-03 通用汽车环球科技运作有限责任公司 Method and device for lane detection on a vehicle driving surface
KR102363924B1 (en) * 2020-10-06 2022-02-15 한국산업기술대학교산학협력단 Distance measuring device and method for nearing vehicle using image
KR102498538B1 (en) * 2022-03-02 2023-02-10 렉스젠(주) Image analysis system, method, computer program and computer readable recording medium that analyzes image based on segmentation

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102399519B1 (en) * 2020-01-31 2022-05-19 경북대학교 산학협력단 Device for recognizing lane and vehicle position information and controlling mmthod thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101240499B1 (en) 2011-10-28 2013-03-11 인하대학교 산학협력단 Device and method for real time lane recogniton and car detection
KR20140068475A (en) 2012-11-28 2014-06-09 현대모비스 주식회사 System by detection of lane marking
KR20150068196A (en) * 2013-12-11 2015-06-19 삼성테크윈 주식회사 System and method for lane detection
KR20160126254A (en) * 2015-04-23 2016-11-02 선문대학교 산학협력단 System for detecting road area

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101240499B1 (en) 2011-10-28 2013-03-11 인하대학교 산학협력단 Device and method for real time lane recogniton and car detection
KR20140068475A (en) 2012-11-28 2014-06-09 현대모비스 주식회사 System by detection of lane marking
KR20150068196A (en) * 2013-12-11 2015-06-19 삼성테크윈 주식회사 System and method for lane detection
KR20160126254A (en) * 2015-04-23 2016-11-02 선문대학교 산학협력단 System for detecting road area

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210042203A (en) * 2019-10-08 2021-04-19 재단법인대구경북과학기술원 Cart-path recognition apparatus for autonomous driving of cart in golf cource and method thereof
CN112686831A (en) * 2019-10-17 2021-04-20 神讯电脑(昆山)有限公司 Method for detecting surface form of object based on artificial neural network
CN111126204A (en) * 2019-12-09 2020-05-08 上海博泰悦臻电子设备制造有限公司 Drivable region detection method and related device
CN113343746A (en) * 2020-03-03 2021-09-03 通用汽车环球科技运作有限责任公司 Method and device for lane detection on a vehicle driving surface
CN113343746B (en) * 2020-03-03 2024-04-16 通用汽车环球科技运作有限责任公司 Method and device for lane detection on a vehicle driving surface
KR102363924B1 (en) * 2020-10-06 2022-02-15 한국산업기술대학교산학협력단 Distance measuring device and method for nearing vehicle using image
CN113313071A (en) * 2021-06-28 2021-08-27 浙江同善人工智能技术有限公司 Road area identification method and system
KR102498538B1 (en) * 2022-03-02 2023-02-10 렉스젠(주) Image analysis system, method, computer program and computer readable recording medium that analyzes image based on segmentation

Also Published As

Publication number Publication date
KR102043089B1 (en) 2019-11-11

Similar Documents

Publication Publication Date Title
KR102043089B1 (en) Method for extracting driving lane, device and computer readable medium for performing the method
US9384401B2 (en) Method for fog detection
KR100912746B1 (en) Method for traffic sign detection
US10380434B2 (en) Vehicle detection system and method
US8773535B2 (en) Adaptation for clear path detection using reliable local model updating
US20190122059A1 (en) Signal light detection
CN103984950B (en) A kind of moving vehicle brake light status recognition methods for adapting to detection on daytime
CN109145798B (en) Driving scene target identification and travelable region segmentation integration method
US9626599B2 (en) Reconfigurable clear path detection system
KR101176552B1 (en) Method and apparatus for recognizing speed limit signs and method for recognizing image
CN112990065B (en) Vehicle classification detection method based on optimized YOLOv5 model
JP2018063680A (en) Traffic signal recognition method and traffic signal recognition device
KR101134857B1 (en) Apparatus and method for detecting a navigation vehicle in day and night according to luminous state
JP4969359B2 (en) Moving object recognition device
Zarbakht et al. Lane detection under adverse conditions based on dual color space
JP7264428B2 (en) Road sign recognition device and its program
EP3627378A1 (en) Enhancing the detection of non-structured objects on a driveway
Merugu et al. Multi lane detection, curve fitting and lane type classification
WO2017077261A1 (en) A monocular camera cognitive imaging system for a vehicle
Vijverberg et al. High-level traffic-violation detection for embedded traffic analysis
CN113743226A (en) Daytime headlamp language recognition and early warning method and system
KR20220072510A (en) Apparatus for recognizing obstacle of vehicle and method thereof
EP3392797B1 (en) Device for determining vehicle navigation information
CN111611942B (en) Method for extracting and building database by perspective self-adaptive lane skeleton
Kundu et al. Speed limit sign recognition using MSER and artificial neural networks

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant