KR20190103508A - Method for extracting driving lane, device and computer readable medium for performing the method - Google Patents
Method for extracting driving lane, device and computer readable medium for performing the method Download PDFInfo
- Publication number
- KR20190103508A KR20190103508A KR1020180017071A KR20180017071A KR20190103508A KR 20190103508 A KR20190103508 A KR 20190103508A KR 1020180017071 A KR1020180017071 A KR 1020180017071A KR 20180017071 A KR20180017071 A KR 20180017071A KR 20190103508 A KR20190103508 A KR 20190103508A
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- region
- interest
- road
- roi
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000013528 artificial neural network Methods 0.000 claims abstract description 15
- 238000001514 detection method Methods 0.000 claims description 43
- 239000000284 extract Substances 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 3
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 2
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 2
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G06K9/00798—
-
- G06K9/4652—
-
- G06K9/627—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 차선 검출 방법, 이를 수행하기 위한 장치 및 기록매체에 관한 것으로서, 더욱 상세하게는 도로 영상으로부터 주행차선을 검출하는 차선 검출 방법, 이를 수행하기 위한 장치 및 기록매체에 관한 것이다.The present invention relates to a lane detection method, an apparatus and a recording medium for performing the same, and more particularly, to a lane detection method for detecting a driving lane from a road image, an apparatus and a recording medium for performing the same.
자동차 기술의 발전으로 인해, 자동차에는 운전자와 보행자의 안전을 보장하고, 운전자의 편의를 향상시킬 수 있는 기술이 적용되고 있다. 이러한 기술의 일 예로는 크루즈 컨트롤시스템(adaptive cruise control)과 차선이탈경보시스템(lane departure warning system) 등이 있으며, 이러한 자동차 안전성 향상기술들을 융합하고 제어하여 차량 주변 환경을 인지해서 차량이 스스로 모든 안전관련 기능을 제어하고 자율주행을 실시한다. BACKGROUND ART Due to the development of automobile technology, automobiles are being applied with technologies to ensure the safety of drivers and pedestrians and to improve the convenience of drivers. Examples of such technologies include adaptive cruise control and lane departure warning systems, and by combining and controlling these safety enhancement technologies, the vehicle is aware of the surroundings of the vehicle so that the vehicle itself can Control relevant functions and implement autonomous driving.
더 나아가, 최근에는 비전 센서(vision sensor)를 활용하여 도로 위의 물체를 인식하고 검출하는 기술이 개발되고 있으며, 대표적으로 보행자, 차량, 신호등, 표지판 및 차선 검출 기술 등이 있다. 이러한 기술들은 카메라로부터 획득한 영상을 영상처리(image procession)와 기계학습(machine learning)등을 이용하여 개발되고 있다.Furthermore, recently, technologies for recognizing and detecting an object on a road using a vision sensor have been developed, and pedestrians, vehicles, traffic lights, signs, and lane detection technologies are representatively developed. These technologies are being developed using image processing and machine learning of images acquired from cameras.
비전 센서를 활용한 객체 인식 기술은 운전자에게 주행 안정성과 편의성을 제공해주는 ADAS 중에서도 가장 기본적으로 활용되는 기술이다. 특히 비전 센서는 다른 센서에 비해 가격이 저렴하며 차량 주변 환경을 인지하는데 탁월한 성능을 가지고 있어 향후 자율주행차량에도 필수적으로 들어가는 센서이다. 비전 센서 기술은 블랙박스 시스템과 같은 영상 저장 장치뿐만 아니라 차선이탈경보시스템, 자동긴급제동 시스템(autonomous emergency braking, AEB)에도 활용되고 있다. ADAS와 자율주행기술의 향상에 따라 비전 센서를 활용한 영상 처리(image processing) 기술은 개발을 넘어 현재 최적화 작업 및 양산 단계에 접어들고 있다. Object recognition technology using vision sensor is the most basic technology among ADAS that provides driving stability and convenience to the driver. In particular, vision sensors are inexpensive compared to other sensors and have excellent performance in recognizing the surrounding environment of vehicles. Therefore, vision sensors are essential for future autonomous vehicles. Vision sensor technology is being used in lane departure warning systems and autonomous emergency braking (AEB) as well as video storage devices such as black box systems. With the advancement of ADAS and autonomous driving technology, image processing technology using vision sensor is moving beyond development to the optimization and mass production stage.
하지만 종래의 비전 센서를 활용한 객체 검출 기술은 아직까지 인간의 눈을 대신하기에는 한계가 있으며, 특히 차량의 현재 위치를 파악하고 다른 차량과의 충돌을 방지하며 차량의 위치를 유지하는데 필수적인 기술인 차선 검출은 비전 센서로 차선을 검출하지 못하는 환경, 차선 노후화로 인한 부분 혹은 전체 유실, 야간 주행 및 조명 문제 등에서 제 기능을 발휘하지 못하고 있다. 이러한 문제점들은 향후 자율주행차량에 있어 치명적인 결함이 될 수 있기 때문에 다양한 환경에서도 차선을 검출하는 시스템의 개발 혹은 차선 정보가 부족하더라도 차선을 추정하고 경로를 예측하는 시스템이 요구되고 있다.However, the object detection technology using the conventional vision sensor is still limited to replace the human eye, and in particular, lane detection, an essential technology for determining the current position of the vehicle, preventing collision with other vehicles, and maintaining the position of the vehicle Is not functioning in the environment where the vision sensor cannot detect the lane, part or total loss due to lane aging, night driving and lighting problems. These problems may be fatal defects in autonomous vehicles in the future, so it is required to develop a system for detecting a lane even in a variety of environments or to estimate a lane and predict a path even if lane information is insufficient.
본 발명의 일측면은 도로 영상의 품질과 주행 상황에 따라 서로 다른 방법을 이용하여 주행차선을 검출하는 차선 검출 방법, 이를 수행하기 위한 장치 및 기록매체를 제공한다.One aspect of the present invention provides a lane detection method for detecting a driving lane using different methods according to the quality of a road image and driving conditions, and an apparatus and a recording medium for performing the same.
본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problem of the present invention is not limited to the technical problem mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명의 일 실시예에 따른 차선 검출 방법은, 도로 영상의 밝기 값을 추출하여, 상기 밝기 값을 미리 설정된 임계값과 비교하는 단계, 상기 도로 영상에 대한 역 투영 변환 영상으로부터 도로 영역으로 추정되는 제1 관심 영역을 설정하는 단계, 상기 밝기 값이 상기 임계값보다 작은 것으로 확인되면, 미리 학습된 심층 신경망을 이용하여 상기 도로 영상으로부터 차선과 도로로 판단된 객체가 포함된 제2 관심 영역을 설정하는 단계, 상기 제1 관심 영역과 상기 제2 관심 영역을 기초로 상기 도로 영상에서 도로 영역으로 추정되는 최종 관심 영역을 결정하는 단계 및 미리 정해진 차선 검출 알고리즘을 이용하여 상기 최종 관심 영역으로부터 적어도 하나의 주행차선을 검출하는 단계를 포함한다.In the lane detection method according to an embodiment of the present invention, extracting a brightness value of a road image, comparing the brightness value with a preset threshold value, estimated as a road area from a reverse projection converted image for the road image Setting a first ROI, and when it is determined that the brightness value is smaller than the threshold value, setting a second ROI including an object determined to be a lane and a road from the road image by using a pre-trained deep neural network; Determining a final region of interest estimated as a road region in the road image based on the first region of interest and the second region of interest and at least one driving from the final region of interest using a predetermined lane detection algorithm. Detecting a lane.
상기 제2 관심 영역으로 설정하는 것은, 상기 심층 신경망을 이용하여 상기 도로 영상을 구성하는 각각의 픽셀을 미리 학습된 클래스 중 어느 하나의 클래스로 레이블링하여, 상기 도로 영상의 픽셀들을 학습된 클래스에 대한 객체로 그룹화하고, 도로 영역 클래스로 그룹화된 픽셀들을 상기 관심 영역으로 설정하는 것일 수 있다.The setting of the second region of interest may include: labeling each pixel constituting the road image with any one of a pre-learned class by using the deep neural network, and classifying the pixels of the road image with respect to the learned class. It may be grouping into an object and setting pixels grouped into a road area class as the ROI.
상기 제1 관심 영역으로 설정하는 것은, 상기 역 투영 변환 영상의 최좌측 실선을 기준 차선으로 설정하고, 상기 기준 차선으로부터 미리 정해진 기준거리 이내에 위치한 점선을 차선으로 판단하고, 상기 차선으로터 상기 기준거리 이내에 위치한 어느 하나의 실선을 상기 가장자리 차선으로 설정하며, 상기 기준 차선으로부터 상기 가장자리 차선까지의 영역을 상기 제1 관심 영역으로 검출하는 것일 수 있다. The setting of the first ROI includes setting the leftmost solid line of the reverse projection converted image as a reference lane, determining a dotted line located within a predetermined reference distance from the reference lane as the lane, and setting the reference distance from the lane. One solid line located within the edge lane may be set as the edge lane, and the area from the reference lane to the edge lane may be detected as the first ROI.
상기 제1 관심 영역으로 설정하는 것은, 상기 역 투영 변환 영상의 밝기 값이 기준값보다 작은 경우, 상기 기준 차선으로부터 미리 정해진 기준거리 이내에 위치한 실선을 차선으로 더 판단하고, 상기 기준거리를 기초로 연속적으로 판단되는 차선 중 최우측 차선을 상기 가장자리 차선으로 설정하는 것이고, 상기 기준값은 상기 임계값보다 작은 값을 설정되는 것을 특징으로 할 수 있다.The setting of the first ROI may further include determining a solid line located within a predetermined reference distance from the reference lane as a lane when the brightness value of the reverse projection converted image is smaller than a reference value, and continuously based on the reference distance. Among the determined lanes, the rightmost lane may be set as the edge lane, and the reference value may be set to a value smaller than the threshold.
상기 최종 관심 영역을 결정하는 것은, 상기 제1 관심 영역에 상기 제2 관심 영역을 매핑하여, 상기 제1 관심 영역과 상기 제2 관심 영역의 공통 영역을 상기 기준 차선과 상기 가장자리 차선을 기준으로 하는 다각형 형태의 영역으로 추출하여 상기 최종 관심 영역으로 결정하는 것을 특징으로 할 수 있다.The determining of the final region of interest may include mapping the second region of interest to the first region of interest so that the common region of the first region of interest and the second region of interest is based on the reference lane and the edge lane. Extracting a polygonal region may determine the final region of interest.
상기 다각형 형태의 영역으로 추출하는 것은, 상기 기준 차선으로부터 상기 가장자리 차선까지를 상기 최종 관심 영역의 폭으로 설정하고, 상기 차선에 의해 분할된 차로별 높이를 이용하여 상기 다각형 형태의 구간별 높이값을 설정하는 것을 특징으로 할 수 있다.Extracting into the polygonal region may include setting the width of the final region of interest from the reference lane to the edge lane, and using the height of each lane divided by the lanes to determine the height of each polygonal section. It can be characterized by the setting.
상기 적어도 하나의 주행차선을 검출하는 것은, 상기 최종 관심 영역의 직선을 구성하는 어느 하나의 점을 직선 방정식으로 변환하고, 각각의 점에 대하여 변환된 복수의 직선 방정식이 서로 교차하는 교점을 검출하고, 상기 교점을 지나는 직선 방정식의 개수가 임계값 이상인 직선 방정식들을 이용하여 주행차선 후보군을 추출하는 것일 수 있다.Detecting the at least one driving lane converts any one point constituting a straight line of the final ROI into a straight line equation, and detects an intersection where a plurality of straight line equations converted for each point cross each other. The driving lane candidate group may be extracted using linear equations having a number of linear equations passing through the intersection point greater than or equal to a threshold.
상기 적어도 하나의 주행차선을 검출하는 것은, RANSAC 알고리즘을 이용하여 상기 주행차선 후보군으로부터 상기 적어도 하나의 주행차선을 검출하는 것일 수 있다.The detecting of the at least one driving lane may include detecting the at least one driving lane from the driving lane candidate group using a RANSAC algorithm.
상기 최종 관심 영역을 결정하는 것은, 상기 밝기 값이 상기 임계값보다 작은 것으로 확인되면, 검출된 상기 제1 관심 영역을 상기 최종 관심 영역으로 결정하는 것을 특징으로 할 수 있다.The determining of the final region of interest may include determining the detected first region of interest as the final region of interest when it is determined that the brightness value is smaller than the threshold value.
상기 도로 영상의 밝기 값을 추출하기 이전에, 상기 도로 영상의 전처리 과정을 수행하는 단계를 더 포함하고, 상기 전처리 과정을 수행하는 것은, 상기 도로 영상을 그레이 스케일 영상으로 변환하고, 탑-햇 필터를 이용하여 상기 그레이 스케일 영상을 변환하는 것을 포함할 수 있다.Before extracting the brightness value of the road image, the method may further include performing a preprocessing process of the road image, and performing the preprocessing process may include converting the road image into a gray scale image and using a top-hat filter. It may include converting the gray scale image using.
또한, 본 발명에 따른 차선 검출 방법을 수행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체일 수 있다.Further, it may be a computer-readable recording medium having a computer program recorded thereon for performing the lane detection method according to the present invention.
또한, 본 발명의 일 실시예에 따른 차선 검출 장치는, 도로 영상의 밝기 값을 추출하여, 상기 밝기 값을 미리 설정된 임계값과 비교하는 주행 환경 판단부, 상기 도로 영상에 대한 역 투영 변환 영상으로부터 도로 영역으로 추정되는 제1 관심 영역을 설정하는 제1 관심 영역 설정부와, 상기 밝기 값이 상기 임계값보다 작은 것으로 확인되면, 미리 학습된 심층 신경망을 이용하여 상기 도로 영상으로부터 차선과 도로로 판단된 객체가 포함된 제2 관심 영역을 설정하는 제2 관심 영역 설정부를 포함하며, 상기 제1 관심 영역과 상기 제2 관심 영역을 기초로 상기 도로 영상에서 도로 영역으로 추정되는 최종 관심 영역을 결정하는 도로 영역 추정부 및 미리 정해진 차선 검출 알고리즘을 이용하여 상기 최종 관심 영역으로부터 적어도 하나의 주행차선을 검출하는 차선 검출부를 포함한다.In addition, the lane detection apparatus according to an embodiment of the present invention, a driving environment determination unit for extracting the brightness value of the road image, and comparing the brightness value with a predetermined threshold value, from the reverse projection conversion image for the road image A first ROI setting unit configured to set a first ROI estimated as a road area, and when the brightness value is determined to be smaller than the threshold value, it is determined as a lane and a road from the road image by using a pre-trained deep neural network. A second region of interest setter configured to set a second region of interest including an object, and determine a final region of interest estimated as a road region in the road image based on the first region of interest and the second region of interest; At least one traveling lane is detected from the final region of interest using an area estimator and a predetermined lane detection algorithm. It includes a lane detecting unit.
상기 제2 관심 영역 설정부는, 상기 심층 신경망을 이용하여 상기 도로 영상을 구성하는 각각의 픽셀을 미리 학습된 클래스 중 어느 하나의 클래스로 레이블링하여, 상기 도로 영상의 픽셀들을 학습된 클래스에 대한 객체로 그룹화하고, 도로 영역 클래스로 그룹화된 픽셀들을 상기 제2 관심 영역으로 설정할 수 있다.The second ROI setting unit labels each pixel constituting the road image by using any one of a pre-learned class by using the deep neural network, and converts the pixels of the road image into an object for the learned class. The pixels grouped in the road region class may be set as the second region of interest.
상기 제1 관심 영역 설정부는, 상기 역 투영 변환 영상의 최좌측 실선을 기준 차선으로 설정하고, 상기 기준 차선으로부터 미리 정해진 기준거리 이내에 위치한 점선을 차선으로 판단하고, 상기 차선으로터 상기 기준거리 이내에 위치한 어느 하나의 실선을 상기 가장자리 차선으로 설정하며, 상기 기준 차선으로부터 상기 가장자리 차선까지의 영역을 상기 제1 관심 영역으로 검출할 수 있다.The first ROI setting unit sets the left-most solid line of the reverse projection converted image as a reference lane, determines a dotted line located within a predetermined reference distance from the reference lane as a lane, and located within the reference distance from the lane. One solid line may be set as the edge lane, and a region from the reference lane to the edge lane may be detected as the first ROI.
상기 도로 영역 추정부는, 상기 제1 관심 영역에 상기 제2 관심 영역을 매핑하여, 상기 제1 관심 영역과 상기 제2 관심 영역의 공통 영역을 상기 기준 차선과 상기 가장자리 차선을 기준으로 하는 다각형 형태의 영역으로 추출하여 상기 최종 관심 영역으로 결정할 수 있다.The road area estimator may be configured to map the second region of interest to the first region of interest so that the common region of the first region of interest and the second region of interest has a polygonal shape based on the reference lane and the edge lane. The region of interest may be extracted to determine the final region of interest.
상술한 본 발명의 일측면에 따르면, 야간 주행, 우천 상황 및 차선 유실 문제 등 도로 영상에 포함된 차선의 가시도가 현저히 낮은 상황에서도 도로 영상을 의미적으로 구분함으로써 차선의 위치를 정확하게 추정할 수 있으며, 관심 영역을 능동적으로 설정함으로써 차선 검출율과 차선 검출에 소요되는 처리속도가 향상될 수 있다.According to one aspect of the present invention, the position of the lane can be accurately estimated by semantically distinguishing the road image even in a situation where visibility of the lane included in the road image is significantly low, such as night driving, rainy weather, and lane loss problems. By actively setting the ROI, the lane detection rate and the processing speed required for lane detection can be improved.
도 1 및 도 2는 본 발명의 일 실시예에 따른 차선 검출 장치의 개략적인 구성이 도시된 블록도이다.
도 3 및 도 4는 제1 관심 영역 및 제2 관심 영역을 설정하는 실시예들이 도시된 도면이다.
도 5는 최종 관심 영역을 설정하는 일 예가 도시된 도면이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 차선 검출 방법의 개략적인 흐름이 도시된 순서도이다.1 and 2 are block diagrams showing a schematic configuration of a lane detection apparatus according to an embodiment of the present invention.
3 and 4 illustrate embodiments of setting a first region of interest and a second region of interest.
5 is a diagram illustrating an example of setting a final region of interest.
6 and 7 are flowcharts illustrating a schematic flow of a lane detection method according to an embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION The following detailed description of the invention refers to the accompanying drawings that show, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be embodied in other embodiments without departing from the spirit and scope of the invention in connection with one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. The following detailed description, therefore, is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is defined only by the appended claims, along with the full range of equivalents to which such claims are entitled. Like reference numerals in the drawings refer to the same or similar functions throughout the several aspects.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 차선 검출 장치의 개략적인 구성이 도시된 블록도이다.1 is a block diagram showing a schematic configuration of a lane detection apparatus according to an embodiment of the present invention.
구체적으로, 본 발명의 일 실시예에 따른 차선 검출 장치(1)는 전처리부(10), 주행 환경 판단부(20), 도로 영역 추정부(30) 및 주행차선 검출부(40)를 포함한다.Specifically, the
전처리부(10)는 입력된 도로 영상에서 차선 영역을 강조시키기 위한 전처리 과정을 수행할 수 있다. 도로 영상은 차량에 탑재되거나 설치된 촬영 장치로부터 획득될 수 있으며, 촬영 장치는 블랙 박스의 카메라 모듈 등과 같이 차량에 장착되어 차량의 전방 또는 후방을 촬영하여 도로 영상을 생성하는 다양한 장치 중 어느 하나일 수 있다.The
전처리부(10)는 전처리 과정의 일환으로, 도로 영상을 그레이 스케일 영상 또는 이진 영상으로 변환할 수 있다. 이 과정에서, 전처리부(10)는 촬영 장치에 의한 렌즈 왜곡이 발생되지 않도록 카메라 내부 매개변수의 영향을 제거할 수 있다. 또한, 촬영 장치에 의해 촬영된 도로 영상에는 차량의 일부 영역이 포함될 수도 있기 때문에, 경우에 따라 전처리부(10)는 왜곡 보정을 한 영상의 하단 일부를 잘라내어 차선 이외의 정보를 1차적으로 제거할 수 있다.As part of the preprocessing process, the
이후, 전처리부(10)는 탑-햇 필터(top-hat filter)를 이용하여 입력된 도로 영상으로부터 잡음이 제거되면서 차선 영역이 강조되는 탑-햇 변환 영상을 생성할 수 있다. 하지만, 전처리부(10)가 반드시 탑-햇 필터로 영상을 변환할 필요는 없으며, 사용 환경에 따라 적응 히스토그램 평활화(Adaptive Histogram Equalization) 알고리즘, CLAHE(Contrast Limited Adaptive Histogram Equalization), 엣지 정보 추출 등을 이용하여 도로 영상을 전처리할 수도 있다. 이하에서는, 설명의 편의를 위해 전처리부(10)에 의해 전처리 과정이 수행된 도로 영상을 전처리된 도로 영상으로 정의하여 설명하기로 한다.Thereafter, the
주행 환경 판단부(20)는 도로 영상을 분석하여 차량이 현재 주행 중인 도로의 상황을 판단함으로써, 입력된 도로 영상으로부터 차선 검출이 용이한지 여부를 판단할 수 있다. 예를 들어, 우천 상황에서는 빗물과 구름 등의 영향으로 촬영된 도로 영상의 흐릿함(blur)이 발생하여 맑은 날에 촬영된 도로 영상에 비해 차선 검출에 어려움이 발생할 수 있다.The driving
이를 위해, 주행 환경 판단부(20)는 도로 영상의 RGB값을 YCbCr값으로 변환하여 밝기 값을 추출할 수 있다. 이를 수학식으로 표현하면 다음과 같다.To this end, the driving
YCbCr값에서 Y값은 도로 영상의 밝기에 해당되며, 따라서, 주행 환경 판단부(20)는 상술한 수학식을 이용하여 도로 영상의 밝기 값을 추출할 수 있다. In the YCbCr value, the Y value corresponds to the brightness of the road image, and thus, the driving
주행 환경 판단부(20)는 산출된 밝기 값이 미리 정해진 임계값 이상인 경우 도로면과 차선간의 명암비가 뚜렷하여 도로 영상으로부터 차선 검출이 용이한 환경으로 판단하고, 우천 등의 영향으로 인해 도로 영상의 밝기 값이 미리 정해진 임계값 미만인 경우 도로 영상의 가시성이 떨어져 차선 검출이 어려운 환경으로 판단할 수 있다. 주행 환경 판단부(20)는 판단된 결과를 도로 영역 추정부(30)로 제공할 수 있다.If the calculated brightness value is greater than or equal to a predetermined threshold value, the driving
도로 영역 추정부(30)는 전처리된 도로 영상을 이용하여 도로 영상으로부터 도로 영역을 추정하여 관심 영역으로 설정할 수 있다. 이때, 도로 영역 추정부(30)는 주행 환경 판단부(20)에 의해 판단된 결과에 따라 서로 다른 방법으로 관심 영역을 설정할 수 있다. 이를 위해, 후술하는 도 2에 도시된 바와 같이 도로 영역 추정부(30)는 제1 관심 영역 설정부(31)와 제2 관심 영역 설정부(32)를 포함할 수 있다.The
도로 영역 추정부(30)는 제1 관심 영역 설정부(31)에 의해 설정된 제1 관심 영역 또는 제2 관심 영역 설정부(32)에 의해 설정된 제2 관심 영역을 이용하여 최종적인 관심 영역을 설정할 수 있다. 이때, 상술한 바와 같이 도로 영역 추정부(30)는 주행 환경 판단부(20)에 의해 판단된 결과에 따라 서로 다른 방법으로 관심 영역을 설정할 수 있다.The
구체적으로, 도로 영역 추정부(30)는 도로 영상의 밝기 값이 임계값 이상인 것으로 판단되면, 제1 관심 영역을 최종 관심 영역으로 설정할 수 있다. 즉, 도로 영역 추정부(30)는 도로 영상이 충분히 밝아 제1 관심 영역 설정부(31)에 의해 수행된 영상 처리 기술 만으로도 차선 구분이 용이하다고 판단되는 경우, 제1 관심 영역 설정부(31)에 의해 설정된 관심 영역을 최종적인 관심 영역(도로 영역)으로 설정할 수 있다.In detail, when it is determined that the brightness value of the road image is greater than or equal to the threshold value, the
반면, 도로 영역 추정부(30)는 도로 영상의 밝기 값이 임계값 미만인 것으로 판단되면, 제2 관심 영역 설정부(32)를 통해 제2 관심 영역이 추가적으로 설정되도록 제어하고, 제1 관심 영역과 제2 관심 영역을 함께 고려하여 최종 관심 영역을 설정할 수 있다. 이와 관련된 구체적인 설명은 후술하기로 한다.On the other hand, when it is determined that the brightness value of the road image is less than the threshold value, the
주행차선 검출부(40)는 최종 관심 영역으로부터 적어도 하나의 주행 차선을 검출할 수 있다.The
주행차선 검출부(40)는 허프 변환과 RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 최종 관심 영역으로부터 적어도 하나의 주행 차선을 검출할 수 있다. 먼저, 주행차선 검출부(40)는 허프 변환을 이용하여 최종 관심 영역에 포함된 직선을 구성하는 점들에 대한 각각의 직선 방정식을 산출하고, 직선 방정식에 따라 생성된 직선들의 교점을 추출할 수 있다. 주행차선 검출부(40)는 어느 하나의 교점을 통과하는 직선의 개수가 미리 정해진 개수 이상인 것으로 해당되면, 해당 교점을 통과하는 직선들에 대응되는 점들이 직선을 구성하는 점들인 것으로 판단하여 이들을 주행차선 후보군으로 설정할 수 있다. 주행차선 검출부(40)는 임의의 두 개의 점을 추출하여 두 점을 직선으로 연결하고, 모든 점들에 대하여 이와 같은 과정을 수행한 후 RANSAC 알고리즘을 이용하여 가장 많은 지지를 받는 주행차선 후보군을 최종적인 주행차선으로 검출할 수 있다.The driving
허프 변환은 영상에서 직선 성분을 검출하기 위한 기법이고, RANSAC 알고리즘은 참(inlier) 정보들 중에서 가장 많은 동의를 받는 모델을 추출하는 방법으로, 허프 변환과 RANSAC 알고리즘은 영상 처리 기술 분야 및 회귀분석 분야에서 널리 알려진 기술이므로, 각각의 구체적인 알고리즘에 대한 설명은 생략하기로 한다.The Hough transform is a technique for detecting linear components in an image, and the RANSAC algorithm extracts a model with the most agreement among inlier information. The HANS transform and RANSAC algorithm are used for image processing technology and regression analysis. Since the technology is well known in the description of each specific algorithm will be omitted.
이때, 최종 관심 영역은 도로 영역으로 추정된 영역으로 설정되므로, 주행차선 검출부(40)는 도로 영상의 모든 직선이 아닌 최종 관심 영역의 직선만을 고려하여 차선 후보군 및 주행차선을 검출할 수 있어 차선 검출율과 처리속도가 향상될 수 있다.In this case, since the final ROI is set as an area estimated as the road area, the
도 2는 도 1의 도로 영역 추정부(30)의 구체적인 구성이 도시된 도면이다.FIG. 2 is a diagram illustrating a specific configuration of the road
구체적으로, 본 발명의 일 실시예에 따른 도로 영역 추정부(30)는 제1 관심 영역 설정부(31)와 제2 관심 영역 설정부(32)를 포함할 수 있다.In detail, the
제1 관심 영역 설정부(31)는 전처리된 도로 영상으로부터 도로 영역으로 추정되는 제1 관심 영역을 설정할 수 있다. 이때, 제1 관심 영역 설정부(31)는 전처리된 도로 영상에 대한 역 투영 변환 영상으로부터 제1 관심 영역을 설정할 수 있다. 이와 관련하여, 도 3을 함께 참조하여 설명하기로 한다.The first
도 3은 제1 관심 영역 설정부(31)가 제1 관심 영역을 설정하는 일 예가 도시된 도면이다. 도 2a는 도로 영상의 원본의 일 예가 도시된 도면이고, 도 2b는 역 투영 변환 영상의 일 예가 도시된 도면이다.3 illustrates an example in which the first
상술한 바와 같이, 제1 관심 영역 설정부(31)는 역 투영 변환 영상으로부터 제1 관심 영역을 설정할 수 있다. 제1 관심 영역 설정부(31)는 도 2a에 도시된 바와 같은 도로 영상을 도 2b에 도시된 바와 같이 원근감이 제거된 영상으로 변환한 역 투영 변환 영상을 생성할 수 있다. As described above, the first
도로 폭을 추정하기 위해서는 도로와 비도로간의 경계선을 검출할 필요가 있다. 도로 경계면은 다른 차선들과는 구조적인 차이가 있으며, 국내의 경우 차량은 우측으로 주행하기 때문에 좌측에 위치한 실선은 대부분 중앙선일 수 있다. 이러한 경우, 우측 가장자리에 있는 실선이 차선의 끝인 경우가 많으며, 따라서 중앙선과 우측 가장자리의 실선까지를 도로 폭으로 추정할 수 있다. 또한, 일반적으로 주행 차선의 폭은 일정한 간격만큼 이격되어 배치되어 있다.In order to estimate the road width, it is necessary to detect the boundary between the road and the non-road. The road boundary is structurally different from other lanes. In Korea, since the vehicle travels to the right side, the solid line on the left side may be the center line. In this case, the solid line at the right edge is often the end of the lane, and thus the road width can be estimated from the center line and the solid line at the right edge. In general, the widths of the driving lanes are spaced apart by a predetermined interval.
이러한 특징을 이용하여, 제1 관심 영역 설정부(31)는 역 투영 변환 영상의 가장 좌측에 위치한 실선을 검출하여 이를 기준 차선으로 설정할 수 있다. 제1 관심 영역 설정부(31)는 기준 차선을 중심으로 우측 방향으로 미리 설정된 기준거리 이내에 위치한 점선을 차선으로 판단할 수 있다. 점선으로 판단된 차선이 존재하는 경우, 제1 관심 영역 설정부(31)는 판단된 점선(제1 차선)을 기준으로 다시 우측 방향으로 기준거리 이내에 위치한 점선(제2 차선)이 있는지를 확인할 수 있다. 여기서, 기준거리는 3m 내지 3.5m로 설정될 수 있으나, 기준거리는 이에 한정되지 않으며 국가별 또는 지역별 도로 환경에 따라 다양한 값으로 설정될 수 있다. Using this feature, the first
이러한 방법으로, 제1 관심 영역 설정부(31)는 우측 방향으로 실선이 검출될 때까지 상술한 방법을 반복하여 수행함으로써 도로 영역에 배치된 차선들을 검출할 수 있다. 이후, 제1 관심 영역 설정부(31)는 설정된 기준 차선으로부터 가장자리 차선까지의 영역을 도로 영역으로 추정하고, 이를 제1 관심 영역(도시된 도면의 음영 처리된 영역)으로 설정할 수 있다.In this way, the first
몇몇 다른 실시예에서, 제1 관심 영역 설정부(31)는 역 투영 변환 영상의 밝기 값에 따라 다른 방법으로 제1 관심 영역을 설정할 수 있다.In some other embodiments, the first
예를 들어, 터널 내에서는 차량의 차선 이동을 금지하기 위해 모든 차선이 실선으로 배치되어 있다. 이러한 경우, 상술한 방법을 이용하여 제1 관심영역을 설정하는 경우 하나의 차선만을 도로 영역으로 추정하는 문제점이 발생할 수 있다. 따라서, 도로가 야외에 있는지 또는 터널 내부에 있는지에 따라 서로 다른 방법으로 관심 영역을 추출할 필요가 있다. For example, in a tunnel, all lanes are arranged in solid lines to prohibit lane movement of the vehicle. In this case, when setting the first ROI using the above-described method, a problem of estimating only one lane as a road area may occur. Therefore, it is necessary to extract the region of interest in different ways depending on whether the road is outdoors or inside the tunnel.
이를 위해, 제1 관심 영역 설정부(31)는 역 투영 변환 영상의 밝기 값을 추출하고, 역 투영 변환 영상의 밝기 값이 미리 정해진 기준값보다 작은 것으로 판단되면, 차량이 현재 터널 내부에 위치한 것으로 판단하여 다른 방법으로 제1 관심 영역을 설정할 수 있다. 일반적으로, 터널 내부에서 촬영되는 도로 영상은 우천 시 촬영되는 도로 영상보다 어두운 밝기값을 가지기 때문에, 기준값은 상술한 임계값보다 작은 값으로 설정되는 것이 바람직하다.To this end, the first
구체적으로, 제1 관심 영역 설정부(31)는 역 투영 변환 영상의 밝기 값이 기준값보다 작은 경우, 역 투영 변환 영상의 최우측 실선으로 설정되는 기준 차선으로부터 우측 방향으로 기준거리 이내에 위치한 실선 또한 차선인 것으로 판단할 수 있다. 제1 관심 영역 설정부(31)는 판단된 차선을 기준으로 기준거리 이내에 위치한 다른 실선이 검출되지 않을 때까지 이러한 과정을 반복 수행하여 도로의 차선들을 구분할 수 있다. 이때, 제1 관심 영역 설정부(31)는 미리 설정된 근접거리 이내에서 실선이 검출되는 경우, 이를 정상적인 차선이 아닌 것으로 판단할 수 있다. 예를 들어, 터널 내의 갓길의 경우에는 정상적인 차선 폭보다 좁게 설정될 수 있으며, 갓길은 비상 상황에서 사용되는 차선이므로 도로 영역에서 제외시킬 필요가 있다. In detail, when the brightness value of the reverse projection conversion image is smaller than the reference value, the first
따라서, 제1 관심 영역 설정부(31)는 가장 마지막에 검출된 차선을 기준으로 근접거리 이내에서 차선이 검출되거나, 기준거리 이내에서 차선이 검출되지 않는 경우, 가장 마지막에 검출된 차선을 가장자리 차선으로 설정할 수 있다. 이때, 근접거리는 기준거리보다 작도록 설정될 수 있으며, 예를 들어 기준거리는 3m~3.5m 사이의 값으로 설정되고, 근접거리는 2.5m로 설정될 수 있으나, 근접거리가 기준거리보다 작은 값을 갖도록 설정되면 구체적인 수치값에는 제한을 두지 않는다. 제1 관심 영역 설정부(31)는 기준 차선으로부터 가장자리 차선까지의 영역을 도로 영역으로 추정하고, 이를 제1 관심 영역으로 설정할 수 있다.Therefore, when the lane of interest is detected within a close distance based on the last detected lane, or the lane is not detected within the reference distance, the first
제2 관심 영역 설정부(32)는 미리 학습된 심층 신경망을 이용하여 도로 영상으로부터 도로 영역으로 추정되는 제2 관심 영역을 설정할 수 있다. 이와 관련하여, 도 4를 함께 참조하여 설명하기로 한다.The second region of
도 4는 제 2 관심 영역 설정부(32)에 의해 제2 관심 영역이 설정되는 일 예가 도시된 도면이다.4 is a diagram illustrating an example in which a second ROI is set by the second
제2 관심 영역 설정부(32)는 미리 학습된 심층 신경망을 이용하여 도로 영상의 인코더 과정과 디코더 과정을 수행할 수 있다.The second
인코더 과정에서, 제2 관심 영역 설정부(32)는 도로 영상에 컨벌루션 필터(convolution filter)를 적용하여 특징 맵을 추출할 수 있다. 제2 관심 영역 설정부(32)는 생성된 특징 맵의 최대 풀링(max plooing) 과정을 수행하여 특징 맵의 사이즈를 감소시킬 수 있다. 제2 관심 영역 설정부(32)는 컨벌루션 계층과 최대 풀링 계층을 소정 횟수 반복한 후, 디코더 과정에서는 디컨벌루션(deconvolution) 과정을 통해 최대 풀링한 RGB 값들을 업샘플링(upsampling)함으로써 도로 영상을 원래의 사이즈로 복원시킬 수 있다. 이러한 과정을 거친 도로 영상은 도 4의 (b)에 도시된 바와 같이 유사한 특징을 갖는 픽셀끼리 동일한 색상을 갖는 영상으로 변환될 수 있다.In the encoder process, the second
즉, 제2 관심 영역 설정부(32)는 심층 신경망을 이용하여 도로 영상을 구성하는 각각의 픽셀들 중 유사한 특징을 가진 픽셀끼리 동일한 색상을 갖도록 레이블링(labeling)할 수 있다. 이후, 제2 관심 영역 설정부(32)는 미리 학습된 클래스 정보를 조회하여 동일한 그룹으로 레이블링된 픽셀들이 어떠한 객체인지를 구분할 수 있다. 이에 따라, 제2 관심 영역 설정부(32)는 특정 색상(도시된 실시예에서는 보라색 영역)으로 레이블링된 객체 영역을 도로 영역으로 추정하여 이를 제2 관심 영역으로 설정할 수 있다.That is, the second
여기서, 미리 학습된 클래스 정보는 도로, 차선, 울타리, 건물 등과 같이 도로 영상에 분류 가능한 객체들에 대한 클래스를 포함할 수 있다. 또한, 미리 학습된 심층 신경망은 컨벌루션(convolution) 신경망의 일종인 세그넷(SegNet) 신경망 알고리즘의 형태일 수 있으나, Here, the pre-learned class information may include classes for objects that can be classified in the road image, such as roads, lanes, fences, buildings, and the like. In addition, the pre-learned deep neural network may be in the form of a SegNet neural network algorithm, which is a kind of convolutional neural network.
이후, 제2 관심 영역 설정부(32)는 추출된 확률 결과를 역전파(backpropagation) 과정을 거쳐 모델을 구성 하는 매개변수를 업데이트할 수 있다. 최종적으로 학습된 매개변수들을 RGB 영상으로 재구성 하여 의미상의 분류를 진행할 수 있다.Thereafter, the second
한편, 상술한 바와 같이 도로 영역 추정부(30)는 도로 영상의 밝기 값이 임계값 미만인 것으로 판단되면, 제1 관심 영역과 제2 관심 영역을 함께 고려하여 최종 관심 영역을 설정할 수 있다. 이와 관련하여, 도 5를 함께 참조하여 설명하기로 한다.As described above, when it is determined that the brightness value of the road image is less than the threshold value, the
도 5는 도로 영역 추정부(30)가 최종 관심 영역을 설정하는 일 예가 도시된 도면이다.5 is a diagram illustrating an example in which the road
도로 영상의 품질이 좋지 않아 제1 관심 영역 설정부(31)에서 기준차선 또는 가장자리 차선 등과 같은 도로 경계를 검출하지 못하게 되는 경우, 제1 관심 영역을 결정지을 수 없는 문제를 방지하기 위해, 도로 영역 추정부(30)는 도로 영상의 가시성이 좋지 않다고 판단되면 제2 관심 영역 설정부(32)에 의해 설정된 제2 관심 영역을 제1 관심 영역과 병합하여 검증하는 작업을 수행할 수 있다.In order to prevent a problem in which the first ROI cannot be determined when the road image such as the reference lane or the edge lane cannot be detected by the first
일 예로, 도로 영역 추정부(30)는 도시된 바와 같이 제1 관심 영역에 제2 관심 영역을 매핑하여 최종 관심 영역을 설정할 수 있다. 도로 영역 추정부(30)는 제1 관심 영역에 제2 관심 영역을 매핑하여, 제1 관심 영역과 제2 관심 영역의 공통 영역을 최종 관심 영역으로 설정할 수 있다. 이때, 도로 영역 추정부(30)에 의해 설정되는 최종 관심 영역은 기준 차선과 가장자리 차선을 기준으로 하는 다각형 형태의 영역으로 설정될 수 있다. For example, the
구체적으로, 도로 영역 추정부(30)는 제2 관심 영역을 차로 별로 구분할 수 있다. 상술한 바와 같이, 제2 관심 영역 설정부(32)는 도로 영상을 구성하는 픽셀들을 특정한 의미를 갖는 픽셀끼리 레이블링할 수 있다. 이때, 제2 관심 영역 설정부(32)에 의해 레이블링되는 객체의 종류는 차선, 도로, 펜스, 차량 및 비관심객체를 포함할 수 있다. 제2 관심 영역 설정부(32)는 차선과 도로 객체가 포함된 영역을 제2 관심 영역으로 설정할 수 있으며, 이에 따라 도로 영역 추정부(30)는 제2 관심 영역을 차선에 의해 차로별(제1 차로, 제2 차로, 제3 차로)로 구분하는 것이 가능하다. 도로 영역 추정부(30)는 각각의 차로별 높이값(h1, h2, h3)을 추출할 수 있다.In detail, the
최종적으로, 도로 영역 추정부(30)는 제1 관심 영역으로부터 설정된 기준 차선으로부터 상기 가장자리 차선까지를 최종 관심 영역의 폭으로 설정하고, 제2 관심 영역을 분석하여 차선에 의해 분할된 차로별 높이값(h1, h2, h3)을 이웃하는 차로별 높이값과 연결하여 다각형 형태의 구간별 높이값을 설정함으로써, 최종 관심 영역의 높이값을 차로 별로 설정할 수 있다. 이에 따라, 도로 영역 추정부(30)는 도로 영역으로 추정된 영역 이외에서 감지되는 직선을 잡음으로 판단하여 제거하고, 도로 영역으로 추정된 영역 내에서 감지되는 직선 또는 점선을 차선으로 추정하기 위하여 도로 영상에서 최종 관심 영역을 설정할 수 있다.Finally, the
다른 예로, 도로 영역 추정부(30)는 제1 관심 영역과 제2 관심 영역의 유사도를 산출하고, 유사도에 따라 최종 관심 영역을 설정할 수 있다.As another example, the
도로 영역 추정부(30)는 최종적으로 병합된 결과인 최종 관심 영역을 설정하고, 주행 차선 검출부(40)는 이를 기반으로 최종 도로 영역을 추출할 수 있다.The
도 6 및 도 7은 본 발명의 일 실시예에 따른 차선 검출 방법의 개략적인 흐름이 도시된 순서도이다.6 and 7 are flowcharts illustrating a schematic flow of a lane detection method according to an embodiment of the present invention.
먼저, 도 6에 도시된 바와 같이, 본 발명에 따른 차선 검출 장치(1)는 차량에 장착된 촬영 장치로부터 차량 전방에 대한 도로 영상을 입력받으면, 도로 영상의 밝기 값을 추출할 수 있다(510). 이때, 본 발명에 따른 차선 검출 장치(1)는 밝기 값을 임계값과 비교한 결과에 따라 서로 다른 방법으로 최종 관심 영역을 설정할 수 있다.First, as shown in FIG. 6, when the
구체적으로, 차선 검출 장치(1)는 추출된 밝기 값이 미리 설정된 임계값 이상인 것으로 확인되면(520의 YES), 제1 관심 영역 설정부(31)를 통해 설정된 제1 관심 영역을 최종 관심 영역으로 설정할 수 있다(530). 반면, 차선 검출 장치(1)는 추출된 밝기 값이 미리 설정된 임계값 미만인 것으로 확인되면(520의 NO), 후속 과정(535)을 수행한 후 최종 관심 영역을 설정할 수 있다. 이와 관련하여, 도 7을 함께 참조하여 설명하기로 한다.Specifically, when it is determined that the extracted brightness value is greater than or equal to a preset threshold value (YES at 520), the
도 7은 차선 검출 장치(1)의 후속 처리 과정(535)의 구체적인 흐름이 도시된 순서도이다.7 is a flowchart illustrating a specific flow of the
처선 검출 장치(1)는 밝기 값이 미리 설정된 임계값 미만인 것으로 확인되면, 제1 관심 영역 설정부(31)로부터 설정된 제1 관심 영역을 제공받을 수 있다(535_1). 구체적으로, 차선 검출 장치(1)의 제1 관심 영역 설정부(31)는 영상 처리 기술의 일종으로, 역 투영 변환 영상으로부터 기준차선과 기준거리에 따라 제1 관심 영역을 생성할 수 있다.When it is determined that the brightness value is less than the preset threshold value, the
이와 동시에, 차선 검출 장치(1)는 제2 관심 영역 설정부(32)로부터 설정된 제2 관심 영역을 제공받을 수 있다(535_2). 차선 검출 장치(1)의 제2 관심 영역 설정부(32)는 심층 신경망 방식을 이용하여 도로 영상을 의미적으로 분류할 수 있으며, 구체적으로는 도로 영상의 픽셀을 레이블링하여 레이블링된 픽셀 그룹이 어떤 종류의 객체인지를 구분할 수 있다. 제2 관심 영역 설정부(32)는 도로 객체로 구분된 픽셀 그룹을 기초로 제2 관심 영역을 설정할 수 있다.At the same time, the
차선 검출 장치(1)는 제1 관심 영역과 제2 관심 영역을 함께 고려하여 최종 관심 영역을 설정할 수 있다(535_3).The
이후, 차선 검출 장치(1)는 설정된 최종 관심 영역으로부터 주행차선 후보군을 추출할 수 있다(540). 최종적으로, 차선 검출 장치(1)는 추출된 주행차선 후보군으로부터 적어도 하나의 주행차선을 검출할 수 있다(550).Thereafter, the
이와 같은, 차선 검출 방법을 제공하는 기술은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Such a technique for providing a lane detection method may be implemented in the form of program instructions that may be implemented as an application or executed through various computer components, and recorded on a computer readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium are those specially designed and configured for the present invention, and may be known and available to those skilled in the computer software arts.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the embodiments, those skilled in the art will understand that various modifications and changes can be made without departing from the spirit and scope of the invention as set forth in the claims below. Could be.
1: 차선 검출 장치
10: 전처리부
20: 주행 환경 판단부
30: 도로 영역 추정부
31: 제1 관심 영역 설정부
32: 제2 관심 영역 설정부
40: 주행차선 검출부1: lane detection device
10: pretreatment unit
20: driving environment determination unit
30: road area estimation unit
31: first region of interest setting unit
32: second region of interest setting unit
40: driving lane detection unit
Claims (15)
상기 도로 영상에 대한 역 투영 변환 영상으로부터 도로 영역으로 추정되는 제1 관심 영역을 설정하는 단계;
상기 밝기 값이 상기 임계값보다 작은 것으로 확인되면, 미리 학습된 심층 신경망을 이용하여 상기 도로 영상으로부터 차선과 도로로 판단된 객체가 포함된 제2 관심 영역을 설정하는 단계;
상기 제1 관심 영역과 상기 제2 관심 영역을 기초로 상기 도로 영상에서 도로 영역으로 추정되는 최종 관심 영역을 결정하는 단계; 및
미리 정해진 차선 검출 알고리즘을 이용하여 상기 최종 관심 영역으로부터 적어도 하나의 주행차선을 검출하는 단계를 포함하는, 차선 검출 방법.
Extracting a brightness value of a road image and comparing the brightness value with a preset threshold value;
Setting a first ROI estimated as a road area from a reverse projection transformation image of the road image;
If it is determined that the brightness value is smaller than the threshold value, setting a second ROI including an object determined to be a lane and a road from the road image by using a pre-learned deep neural network;
Determining a final region of interest estimated as a road region in the road image based on the first region of interest and the second region of interest; And
Detecting at least one traveling lane from the last region of interest using a predetermined lane detection algorithm.
상기 제2 관심 영역으로 설정하는 것은,
상기 심층 신경망을 이용하여 상기 도로 영상을 구성하는 각각의 픽셀을 미리 학습된 클래스 중 어느 하나의 클래스로 레이블링하여, 상기 도로 영상의 픽셀들을 학습된 클래스에 대한 객체로 그룹화하고, 도로 영역 클래스로 그룹화된 픽셀들을 상기 관심 영역으로 설정하는 것인, 차선 검출 방법.
The method of claim 1,
Setting to the second region of interest,
Each pixel constituting the road image is labeled with any one of a pre-learned class by using the deep neural network, and the pixels of the road image are grouped into objects for the learned class and grouped into a road area class. Setting the selected pixels as the region of interest.
상기 제1 관심 영역으로 설정하는 것은,
상기 역 투영 변환 영상의 최좌측 실선을 기준 차선으로 설정하고, 상기 기준 차선으로부터 미리 정해진 기준거리 이내에 위치한 점선을 차선으로 판단하고, 상기 차선으로터 상기 기준거리 이내에 위치한 어느 하나의 실선을 상기 가장자리 차선으로 설정하며, 상기 기준 차선으로부터 상기 가장자리 차선까지의 영역을 상기 제1 관심 영역으로 검출하는, 차선 검출 방법.
The method of claim 1,
Setting as the first region of interest,
The leftmost solid line of the reverse projection converted image is set as a reference lane, a dotted line located within a predetermined reference distance from the reference lane is determined as a lane, and any one solid line located within the reference distance from the lane is the edge lane And detecting the area from the reference lane to the edge lane as the first region of interest.
상기 제1 관심 영역으로 설정하는 것은,
상기 역 투영 변환 영상의 밝기 값이 기준값보다 작은 경우, 상기 기준 차선으로부터 미리 정해진 기준거리 이내에 위치한 실선을 차선으로 더 판단하고, 상기 기준거리를 기초로 연속적으로 판단되는 차선 중 최우측 차선을 상기 가장자리 차선으로 설정하는 것이고, 상기 기준값은 상기 임계값보다 작은 값을 설정되는 것을 특징으로 하는, 차선 검출 방법.
The method of claim 3,
Setting as the first region of interest,
If the brightness value of the reverse projection converted image is smaller than a reference value, the solid line located within a predetermined reference distance from the reference lane is further determined as a lane, and the rightmost lane among the lanes continuously determined based on the reference distance is the edge. The lane detection method, and the reference value is set to a value smaller than the threshold value, lane detection method.
상기 최종 관심 영역을 결정하는 것은,
상기 제1 관심 영역에 상기 제2 관심 영역을 매핑하여, 상기 제1 관심 영역과 상기 제2 관심 영역의 공통 영역을 상기 기준 차선과 상기 가장자리 차선을 기준으로 하는 다각형 형태의 영역으로 추출하여 상기 최종 관심 영역으로 결정하는 것인, 차선 검출 방법.
The method of claim 3,
Determining the final region of interest is
The second region of interest is mapped to the first region of interest, and a common region of the first region of interest and the second region of interest is extracted as a region having a polygonal shape based on the reference lane and the edge lane. The lane detection method of determining to the region of interest.
상기 다각형 형태의 영역으로 추출하는 것은,
상기 기준 차선으로부터 상기 가장자리 차선까지를 상기 최종 관심 영역의 폭으로 설정하고, 상기 차선에 의해 분할된 차로별 높이를 이용하여 상기 다각형 형태의 영역의 구간별 높이값을 설정하는 것을 특징으로 하는, 차선 검출 방법.
The method of claim 6,
Extracting to the area of the polygonal form,
And setting the height value of each section of the polygonal area using the height of each lane divided by the lane from the reference lane to the edge lane and setting the width of the final ROI. Detection method.
상기 적어도 하나의 주행차선을 검출하는 것은,
상기 최종 관심 영역의 직선을 구성하는 어느 하나의 점을 직선 방정식으로 변환하고, 각각의 점에 대하여 변환된 복수의 직선 방정식이 서로 교차하는 교점을 검출하고, 상기 교점을 지나는 직선 방정식의 개수가 임계값 이상인 직선 방정식들을 이용하여 주행차선 후보군을 추출하는 것인, 차선 검출 방법.
The method of claim 1,
Detecting the at least one driving lane,
Convert any one point constituting a straight line of the final region of interest to a straight line equation, detect an intersection where a plurality of straight line equations converted for each point cross each other, and the number of straight line equations passing through the intersection is critical And extracting a driving lane candidate group using linear equations having a value or more.
상기 적어도 하나의 주행차선을 검출하는 것은,
RANSAC 알고리즘을 이용하여 상기 주행차선 후보군으로부터 상기 적어도 하나의 주행차선을 검출하는 것인, 차선 검출 방법.
The method of claim 1,
Detecting the at least one driving lane,
And detecting the at least one driving lane from the driving lane candidate group using a RANSAC algorithm.
상기 최종 관심 영역을 결정하는 것은,
상기 밝기 값이 상기 임계값보다 작은 것으로 확인되면, 검출된 상기 제1 관심 영역을 상기 최종 관심 영역으로 결정하는 것을 특징으로 하는, 차선 검출 방법.
The method of claim 1,
Determining the final region of interest is
And if it is determined that the brightness value is smaller than the threshold value, determining the detected first ROI as the final ROI.
상기 도로 영상의 밝기 값을 추출하기 이전에, 상기 도로 영상의 전처리 과정을 수행하는 단계를 더 포함하고,
상기 전처리 과정을 수행하는 것은,
상기 도로 영상을 그레이 스케일 영상으로 변환하고, 탑-햇 필터를 이용하여 상기 그레이 스케일 영상을 변환하는 것을 포함하는, 차선 검출 방법.
The method of claim 1,
Before extracting the brightness value of the road image, further comprising the step of performing a pre-processing of the road image,
Performing the pretreatment process,
And converting the road image into a gray scale image, and converting the gray scale image using a top-hat filter.
A computer-readable recording medium having a computer program recorded thereon for performing the lane detection method according to any one of claims 1 to 10.
상기 도로 영상에 대한 역 투영 변환 영상으로부터 도로 영역으로 추정되는 제1 관심 영역을 설정하는 제1 관심 영역 설정부와, 상기 밝기 값이 상기 임계값보다 작은 것으로 확인되면, 미리 학습된 심층 신경망을 이용하여 상기 도로 영상으로부터 차선과 도로로 판단된 객체가 포함된 제2 관심 영역을 설정하는 제2 관심 영역 설정부를 포함하며, 상기 제1 관심 영역과 상기 제2 관심 영역을 기초로 상기 도로 영상에서 도로 영역으로 추정되는 최종 관심 영역을 결정하는 도로 영역 추정부; 및
미리 정해진 차선 검출 알고리즘을 이용하여 상기 최종 관심 영역으로부터 적어도 하나의 주행차선을 검출하는 차선 검출부를 포함하는, 차선 검출 장치.
A driving environment determination unit which extracts a brightness value of a road image and compares the brightness value with a preset threshold value;
A first ROI setting unit configured to set a first ROI estimated as a road region from an inverse projection transform image of the road image, and when the brightness value is smaller than the threshold value, a deeply trained deep neural network is used. And a second ROI setting unit configured to set a second ROI including an object determined to be a lane and a road from the road image, and based on the first ROI and the second ROI, a road region in the road image. A road area estimator for determining a final region of interest estimated to be; And
And a lane detector for detecting at least one driving lane from the last region of interest using a predetermined lane detection algorithm.
상기 제2 관심 영역 설정부는,
상기 심층 신경망을 이용하여 상기 도로 영상을 구성하는 각각의 픽셀을 미리 학습된 클래스 중 어느 하나의 클래스로 레이블링하여, 상기 도로 영상의 픽셀들을 학습된 클래스에 대한 객체로 그룹화하고, 도로 영역 클래스로 그룹화된 픽셀들을 상기 제2 관심 영역으로 설정하는, 차선 검출 장치.
The method of claim 12,
The second region of interest setting unit,
Each pixel constituting the road image is labeled with any one of a pre-learned class by using the deep neural network, and the pixels of the road image are grouped into objects for the learned class and grouped into a road area class. And set the pixels as the second region of interest.
상기 제1 관심 영역 설정부는,
상기 역 투영 변환 영상의 최좌측 실선을 기준 차선으로 설정하고, 상기 기준 차선으로부터 미리 정해진 기준거리 이내에 위치한 점선을 차선으로 판단하고, 상기 차선으로터 상기 기준거리 이내에 위치한 어느 하나의 실선을 상기 가장자리 차선으로 설정하며, 상기 기준 차선으로부터 상기 가장자리 차선까지의 영역을 상기 제1 관심 영역으로 검출하는, 차선 검출 장치.
The method of claim 12,
The first ROI setting unit may include
The leftmost solid line of the reverse projection converted image is set as a reference lane, a dotted line located within a predetermined reference distance from the reference lane is determined as a lane, and any one solid line located within the reference distance from the lane is the edge lane And detecting the area from the reference lane to the edge lane as the first region of interest.
상기 도로 영역 추정부는,
상기 제1 관심 영역에 상기 제2 관심 영역을 매핑하여, 상기 제1 관심 영역과 상기 제2 관심 영역의 공통 영역을 상기 기준 차선과 상기 가장자리 차선을 기준으로 하는 다각형 형태의 영역으로 추출하여 상기 최종 관심 영역으로 결정하는, 차선 검출 장치.
The method of claim 14,
The road area estimation unit,
The second region of interest is mapped to the first region of interest, and a common region of the first region of interest and the second region of interest is extracted as a region having a polygonal shape based on the reference lane and the edge lane. A lane detecting apparatus for determining the region of interest.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180017071A KR102043089B1 (en) | 2018-02-12 | 2018-02-12 | Method for extracting driving lane, device and computer readable medium for performing the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180017071A KR102043089B1 (en) | 2018-02-12 | 2018-02-12 | Method for extracting driving lane, device and computer readable medium for performing the method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190103508A true KR20190103508A (en) | 2019-09-05 |
KR102043089B1 KR102043089B1 (en) | 2019-11-11 |
Family
ID=67949639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180017071A KR102043089B1 (en) | 2018-02-12 | 2018-02-12 | Method for extracting driving lane, device and computer readable medium for performing the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102043089B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126204A (en) * | 2019-12-09 | 2020-05-08 | 上海博泰悦臻电子设备制造有限公司 | Drivable region detection method and related device |
KR20210042203A (en) * | 2019-10-08 | 2021-04-19 | 재단법인대구경북과학기술원 | Cart-path recognition apparatus for autonomous driving of cart in golf cource and method thereof |
CN112686831A (en) * | 2019-10-17 | 2021-04-20 | 神讯电脑(昆山)有限公司 | Method for detecting surface form of object based on artificial neural network |
CN113313071A (en) * | 2021-06-28 | 2021-08-27 | 浙江同善人工智能技术有限公司 | Road area identification method and system |
CN113343746A (en) * | 2020-03-03 | 2021-09-03 | 通用汽车环球科技运作有限责任公司 | Method and device for lane detection on a vehicle driving surface |
KR102363924B1 (en) * | 2020-10-06 | 2022-02-15 | 한국산업기술대학교산학협력단 | Distance measuring device and method for nearing vehicle using image |
KR102498538B1 (en) * | 2022-03-02 | 2023-02-10 | 렉스젠(주) | Image analysis system, method, computer program and computer readable recording medium that analyzes image based on segmentation |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102399519B1 (en) * | 2020-01-31 | 2022-05-19 | 경북대학교 산학협력단 | Device for recognizing lane and vehicle position information and controlling mmthod thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101240499B1 (en) | 2011-10-28 | 2013-03-11 | 인하대학교 산학협력단 | Device and method for real time lane recogniton and car detection |
KR20140068475A (en) | 2012-11-28 | 2014-06-09 | 현대모비스 주식회사 | System by detection of lane marking |
KR20150068196A (en) * | 2013-12-11 | 2015-06-19 | 삼성테크윈 주식회사 | System and method for lane detection |
KR20160126254A (en) * | 2015-04-23 | 2016-11-02 | 선문대학교 산학협력단 | System for detecting road area |
-
2018
- 2018-02-12 KR KR1020180017071A patent/KR102043089B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101240499B1 (en) | 2011-10-28 | 2013-03-11 | 인하대학교 산학협력단 | Device and method for real time lane recogniton and car detection |
KR20140068475A (en) | 2012-11-28 | 2014-06-09 | 현대모비스 주식회사 | System by detection of lane marking |
KR20150068196A (en) * | 2013-12-11 | 2015-06-19 | 삼성테크윈 주식회사 | System and method for lane detection |
KR20160126254A (en) * | 2015-04-23 | 2016-11-02 | 선문대학교 산학협력단 | System for detecting road area |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210042203A (en) * | 2019-10-08 | 2021-04-19 | 재단법인대구경북과학기술원 | Cart-path recognition apparatus for autonomous driving of cart in golf cource and method thereof |
CN112686831A (en) * | 2019-10-17 | 2021-04-20 | 神讯电脑(昆山)有限公司 | Method for detecting surface form of object based on artificial neural network |
CN111126204A (en) * | 2019-12-09 | 2020-05-08 | 上海博泰悦臻电子设备制造有限公司 | Drivable region detection method and related device |
CN113343746A (en) * | 2020-03-03 | 2021-09-03 | 通用汽车环球科技运作有限责任公司 | Method and device for lane detection on a vehicle driving surface |
CN113343746B (en) * | 2020-03-03 | 2024-04-16 | 通用汽车环球科技运作有限责任公司 | Method and device for lane detection on a vehicle driving surface |
KR102363924B1 (en) * | 2020-10-06 | 2022-02-15 | 한국산업기술대학교산학협력단 | Distance measuring device and method for nearing vehicle using image |
CN113313071A (en) * | 2021-06-28 | 2021-08-27 | 浙江同善人工智能技术有限公司 | Road area identification method and system |
KR102498538B1 (en) * | 2022-03-02 | 2023-02-10 | 렉스젠(주) | Image analysis system, method, computer program and computer readable recording medium that analyzes image based on segmentation |
Also Published As
Publication number | Publication date |
---|---|
KR102043089B1 (en) | 2019-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102043089B1 (en) | Method for extracting driving lane, device and computer readable medium for performing the method | |
US9384401B2 (en) | Method for fog detection | |
KR100912746B1 (en) | Method for traffic sign detection | |
US10380434B2 (en) | Vehicle detection system and method | |
US8773535B2 (en) | Adaptation for clear path detection using reliable local model updating | |
US20190122059A1 (en) | Signal light detection | |
CN103984950B (en) | A kind of moving vehicle brake light status recognition methods for adapting to detection on daytime | |
CN109145798B (en) | Driving scene target identification and travelable region segmentation integration method | |
US9626599B2 (en) | Reconfigurable clear path detection system | |
KR101176552B1 (en) | Method and apparatus for recognizing speed limit signs and method for recognizing image | |
CN112990065B (en) | Vehicle classification detection method based on optimized YOLOv5 model | |
JP2018063680A (en) | Traffic signal recognition method and traffic signal recognition device | |
KR101134857B1 (en) | Apparatus and method for detecting a navigation vehicle in day and night according to luminous state | |
JP4969359B2 (en) | Moving object recognition device | |
Zarbakht et al. | Lane detection under adverse conditions based on dual color space | |
JP7264428B2 (en) | Road sign recognition device and its program | |
EP3627378A1 (en) | Enhancing the detection of non-structured objects on a driveway | |
Merugu et al. | Multi lane detection, curve fitting and lane type classification | |
WO2017077261A1 (en) | A monocular camera cognitive imaging system for a vehicle | |
Vijverberg et al. | High-level traffic-violation detection for embedded traffic analysis | |
CN113743226A (en) | Daytime headlamp language recognition and early warning method and system | |
KR20220072510A (en) | Apparatus for recognizing obstacle of vehicle and method thereof | |
EP3392797B1 (en) | Device for determining vehicle navigation information | |
CN111611942B (en) | Method for extracting and building database by perspective self-adaptive lane skeleton | |
Kundu et al. | Speed limit sign recognition using MSER and artificial neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |