KR101620425B1 - 주변 환경 정보를 이용한 차선 인식 시스템 및 그 방법 - Google Patents

주변 환경 정보를 이용한 차선 인식 시스템 및 그 방법 Download PDF

Info

Publication number
KR101620425B1
KR101620425B1 KR1020150003189A KR20150003189A KR101620425B1 KR 101620425 B1 KR101620425 B1 KR 101620425B1 KR 1020150003189 A KR1020150003189 A KR 1020150003189A KR 20150003189 A KR20150003189 A KR 20150003189A KR 101620425 B1 KR101620425 B1 KR 101620425B1
Authority
KR
South Korea
Prior art keywords
lane
vehicle
image
information
interest
Prior art date
Application number
KR1020150003189A
Other languages
English (en)
Other versions
KR20150146374A (ko
Inventor
진석식
박대혁
Original Assignee
주식회사 세인전장
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 세인전장 filed Critical 주식회사 세인전장
Publication of KR20150146374A publication Critical patent/KR20150146374A/ko
Application granted granted Critical
Publication of KR101620425B1 publication Critical patent/KR101620425B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/10Number of lanes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Abstract

실시간 차선 인식 시스템 및 그 방법을 개시한다. 실시간 차선 인식 시스템은 차량 탑재 카메라 또는 블랙박스로부터 획득된 영상과 이미지를 전처리 하는 전처리 모듈, 전처리 모듈로부터 획득한 전 처리된 이미지로부터 관심영역(RoI, Region of Interest)을 설정하는 관심영역 설정 모듈, 차량의 위치정보를 GPS 를 통해 획득하여, 획득된 차량 위치 정보를 이용하여 상기 설정된 관심영역에서 차선을 인식하는 차선 인식 모듈 및 인식된 차선 정보를 디스플레이 하는 디스플레이 모듈을 포함한다.

Description

주변 환경 정보를 이용한 차선 인식 시스템 및 그 방법 {SYSTEM FOR LANE RECOGNITION USING ENVIRONMENTAL INFORMATION AND METHOD THEREOF}
본 발명은 차선 인식 시스템 및 그 방법에 관한 것으로서, 구체적으로 주변 환경 정보를 이용하여 실시간으로 차선 인식을 수행하는 시스템 및 그 방법에 관한 것이다.
최근 지능형 자동차에 대한 연구가 활발히 이루어 지고 있다. 그 중에서도 영상을 통한 정보 처리 기술에 대한 관심이 날로 증가되고 있다. 특히, 차량 전방 또는 후방에 탑재된 카메라를 통해 획득하는 영상을 이용하여 차선인식을 함으로써, 운전자에게 주행 최적 차선 정보를 실시간으로 제공하여, 주행 편의 및 안전사고 예방을 위한 노력이 계속되고 있다.
차선 인식 기술은 이전부터 활발하게 연구되어 왔다. 하지만, 종래의 차선 인식 기술은 주행 중 촬영된 동영상 데이터의 모든 프레임에 대한 이미지 정보를 추출하여 차선 인식을 위해 사용하기 때문에 영상처리에 많은 시간이 소요된다.
또한, 차선 인식을 위한 데이터로 차선 이미지를 주로 사용하였기 때문에, 이미지 인식 오류비율이 높아, 운전자들의 주행편의를 향상시키기 어려웠다.
본 발명의 목적은 블랙박스 영상과, 네비게이션을 통해 획득하는 위치정보를 이용하여, 차선 인식을 보다 정확하게 수행한다.
또한, 이미지 전처리와 ROI(Region of Interest) 추출 작업을 보다 효율적으로 수행하여, 차선인식에 소요되는 연산량을 감소시켜, 운전자에게 신속하고 정확한 차선 인식 정보를 실시간으로 제공한다.
상술한 본 발명의 목적을 달성하기 위한 본 발명의 일 면에 따른 차선인식 시스템은 차량 탑재 카메라 또는 블랙박스로부터 획득된 영상과 이미지를 전처리 하는 전처리 모듈, 전처리 모듈로부터 획득한 전처리된 이미지로부터 관심영역(RoI, Region of Interest)을 설정하는 관심영역 설정 모듈, 차량의 위치정보를 GPS 를 통해 획득하여, 획득된 차량 위치 정보에 포함된 주행 중 차선 수와 차량의 진행 방향 정보에서 차량의 커브량을 추출하여, 추출된 정보 및 위치 정보를 통해 영상에서 취득되는 차선 정보를 매핑하고, 매핑 결과에 따라 차선의 위치 및 차선의 종류를 판별하여 상기 설정된 관심영역에서 차선을 인식하는 차선 인식 모듈 및 된 차선 정보를 디스플레이 하는 디스플레이 모듈을 포함한다.
바람직한 실시예에 있어서, 차선 인식 시스템은 GPS 를 통해 상기 주행중인 차량의 위치 정보 및 차선 (TOP VIEW)를 통해 차선 인식과정의 오류를 검출하는 오류검출 모듈을 더 포함한다.
바람직한 실시예에 있어서, 전처리 모듈은 YCbCr 및 RGB를 포함하는 색 공간 표현 데이터를 통해 획득된 영상과 이미지에서 색 공간을 추출하여 차선 영역을 강조하는 차선 후보 선택부, 차선 후보 선택부에서 강조된 차선영역의 에지(edge)를 추출하는 에지 추출부 및 추출된 차선영역의 에지 정보에서 차선 골격을 추출하는 세선화부를 포함하여 상기 획득된 영상과 이미지에 포함된 차선을 인식한다.
바람직한 실시예에 있어서, 관심영역 설정 모듈은 차량에 장착된 카메라, 이미지 센서를 통해 획득하는 동적 이미지의 관심영역을 설정하거나, 차량의 위치 정보를 이용하여 획득하는 고정 이미지의 관심영역을 설정한다.
바람직한 실시예에 있어서, 차선 인식 모듈은 허프 변환 및 소실점 추출과정을 통해 관심영역에 포함된 차선을 검색하는 차선 검색부, 차량 GPS 정보와 전후방에 존재하는 차량을 센싱한 정보를 이용하여, 상기 검색된 차선들 중 주행 최적 차선을 판단하는 최적 차선 판단부 및 최적 차선 정보를 이용하여, 최적 차선에 인접한 후보차선들을 검색하고 검색된 후보 차선들의 주행상황을 판단하는 후보 차선 검색부를 포함한다.
바람직한 실시예에 있어서, 디스플레이 모듈은 차선 인식 모듈에서 판단된 최적 차선, 후보 차선 중 적어도 하나를 디스플레이 하고, 차량이 주행중인 차선에서 전방 차량과의 안전거리 및 주행 중인 차선을 강조하는 표시를 디스플레이하고, 차량이 차선을 기 설정된 수치 이상 이탈하는 경우, 차선 이탈을 경고하는 위험 신호를 디스플레이 한다.
본 발명의 다른 일면에 따른 차선 인식 방법은 차량 탑재 카메라 또는 블랙박스로부터 획득된 영상과 이미지를 전처리 하는 과정, 전처리된 이미지로부터 관심영역(RoI, Region of Interest)을 설정하는 과정, 차량의 위치정보를 GPS 를 통해 획득하여, 획득된 차량 위치 정보를 이용하여 설정된 관심영역에서 차선을 인식하는 과정 및 주행중인 차량의 위치 정보 및 차선 (TOP VIEW)를 통해 차선 인식과정의 오류를 검출하는 과정 및 오류 검출 완료된 차선 정보를 디스플레이 하는 과정을 포함한다.
바람직한 실시예에 있어서, 전처리 과정은 획득된 영상과 이미지에서 관심영역을 추출하는 과정, 추출된 관심영역의 히스토그램 스트레칭(Histogram Stretching)을 수행하는 과정 및 히스토그램 스트레칭 과정 이후, 소벨(sobel) 연산 및 이진화(binary) 연산을 수행하는 과정을 포함한다.
바람직한 실시예에 있어서, 관심영역(RoI, Region of Interest)을 설정하는 과정은 YCbCr 및 RGB를 포함하는 색 공간 표현 데이터를 통해 획득된 영상과 이미지에서 색 공간을 추출하여 차선 영역을 강조하는 과정, 강조된 차선영역의 에지(edge)를 추출하는 과정, 추출된 차선영역의 에지 정보에서 차선 골격을 추출하는 과정을 포함한다.
바람직한 실시예에 있어서, 오류를 검출하는 과정은 GPS 및 차량의 위치 정보와 차량에 입력된 이미지 정보에서 인식된 차선에 탑뷰 변환(top view transform)을 수행하는 과정, 탑뷰 변환이 수행된 이미지에 허프 변환(Hough transform)을 수행하는 과정을 포함한다.
바람직한 실시예에 있어서, 설정된 관심영역에서 차선을 인식하는 과정은 허프 변환 및 소실점 추출과정을 통해 상기 관심영역에 포함된 차선을 검색하는 과정, 차량 GPS 정보와 전후방에 존재하는 차량을 센싱한 정보를 이용하여, 검색된 차선들 중 주행 최적 차선을 판단하는 과정 및 최적 차선 정보를 이용하여, 최적 차선에 인접한 후보차선들을 검색하고 검색된 후보 차선들의 주행상황을 판단하는 과정을 포함한다.
바람직한 실시예에 있어서, 디스플레이 하는 과정은 차선 인식 모듈에서 판단된 최적 차선, 후보 차선 중 적어도 하나를 디스플레이 하고, 차량이 주행중인 차선에서 전방 차량과의 안전거리 및 주행 중인 차선을 강조하는 표시를 디스플레이하고, 차량의 차선 이탈 신호를 획득하는 단계 및 차선 이탈 신호 획득 이후, 차선 이탈 수치에 따른 위험 신호를 디스플레이 한다.
본 발명에 따르면, 네비게이션으로부터 획득한 차량의 위치정보를 이용함으로써, 블랙박스 및 차량에 장착된 각종 카메라를 통해 획득한 이미지의 차선 인식을 보다 정확하게 수행함으로써, 안전사고를 예방하고, 운전자의 주행 편의를 향상 시킨다.
또한, 차선 인식 이미지의 탑뷰(top view) 변환을 통해 이미지 인식 오류를 감소 시킨다.
또한, 네비게이션으로부터 획득한 차량의 위치정보와 차량에서 획득한 이미지 정보를 연동하여 차선 인식을 위한 관심영역을 필터링함으로써, 차선 인식 수행에 필요한 연산량을 감소 시킨다. 이를 통해, 전체 시스템의 응답 성능을 향상시킨다.
도 1은 본 발명의 일실시예에 따른 차선인식 시스템의 대략적인 구성을 나타낸 블록도이다.
도 2는 본 발명의 일실시예에 따른 차선인식 시스템의 상세한 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 차선 인식 방법을 나타낸 흐름도 이다.
도 4a는 본 발명의 실시예에 따른 전처리 과정의 흐름도 이다.
도 4b 내지 도 4c는 본 발명의 실시예에 따른 이미지 처리 예를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 후보 차선 인식과정을 나타낸 흐름도이다.
도 6은 본 발명의 실시예에 따른 후보 차선 인식을 탑뷰(top view)를 이용하여 수행하는 과정을 나타낸 흐름도이고,
도7a 내지 도 7i 는 후보 차선 인식 과정의 실시예를 나타낸 도면이다.
도 8a 내지 8c는 실시예에 따른 후보 차선 검색부(350)에서의 차선 검색 실시예를 나타낸 도면이다.
도 9a 내지 도 9d는 실시예에 따른 디스플레이 모듈에서의 차선정보 표시 예를 나타낸다.
도 10a 내지 도 10d는 탑뷰를 이용한 차선 인식과정의 실시예를 나타낸 도면이다.
본 발명은 산업통상자원부(MOTIE)의 재원으로 한국산업기술진흥원(KIAT)의 지원을 받아 수행한 “그린 전기자동차(RE-EV) 실용화 연구기반 구축사업” 의 지원을 받아 수행된 연구결과이다.
또한, 본 발명은 산업통상자원부(Ministry of Trade Industry and Energy, MOTIE)와 한국산업기술진흥원(Korea Institute for Advancement of Technology, KIAT)의 지원을 받아 수행한 “0043358 분해능 10cm 이내의 탑뷰(top view)와 파노라마 뷰(panorama view)가 가능한 주변 이미지 정보 구성 및 인식 시스템”개발사업 지원을 받아 수행된 연구결과이다 .
본 발명에서는 블랙박스 영상과, 네비게이션을 통해 획득하는 위치정보를 이용하여, 차선 인식을 보다 정확하게 수행한다.
또한, 이미지 전처리와 ROI(Region of Interest) 추출 작업을 보다 효율적으로 수행하여, 차선인식에 소요되는 연산량을 감소 시킴으로써, 운전자에게 신속하고 정확한 차선 인식 정보를 실시간으로 제공한다.
또한, 차선 인식 이미지의 탑뷰(top view) 변환을 통해 이미지 인식 오류를 감소 시키고, 네비게이션으로부터 획득한 차량의 위치정보와 차량에서 획득한 이미지 정보를 연동하여 차선 인식을 위한 관심영역을 필터링함으로써, 차선 인식 수행에 필요한 연산량을 감소 시킨다. 이를 통해, 전체 시스템의 응답 성능을 향상시킨다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
본 명세서에서 사용되는 ‘모듈’ 이라는 용어는 용어가 사용된 문맥에 따라서, 소프트웨어, 하드웨어 또는 그 조합을 포함할 수 있는 것으로 해석되어야 한다. 예를 들어, 소프트웨어는 기계어, 펌웨어(firmware), 임베디드코드(embedded code), 및 애플리케이션 소프트웨어일 수 있다. 또 다른 예로, 하드웨어는 회로, 프로세서, 컴퓨터, 직접 회로, 직접 회로 코어, 센서, 멤스(MEMS; Micro-Electro-Mechanical System), 수동 디바이스, 또는 그 조합일 수 있다.
도 1은 본 발명의 일실시예에 따른 차선인식 시스템의 대략적인 구성을 나타낸 블록도이다.
도 1을 참조하면, 영상처리를 통한 차선 인식 시스템은, 전처리 모듈(100), 관심영역(Region of Interest) 설정모듈(200), 차선 인식 모듈(300)을 포함하여 구성되고, 디스플레이모듈(500)을 더 포함하여 구성될 수 있다.
전처리 모듈(100)은 차량 탑재 카메라 또는 블랙박스로부터 획득된 영상과 이미지의 전처리를 수행한다. 전처리가 완료된 영상과 이미지는 관심 영역 설정 모듈로 전달된다.
관심영역(Region of Interest) 설정모듈(200)은 전처리 모듈로부터 획득한 전처리된 이미지로부터 관심영역(RoI, Region of Interest)을 설정하는 설정한다. 실시예에 있어서, 관심영역은 차선 인식을 위한 영역으로서, 블랙박스 및 카메라를 통해 획득한 영상에서 차선 인식에 불필요한 부분을 제외한 나머지 부분이 관심영역이 될 수 있다.
차선 인식 모듈(300)은 차량의 위치정보를 GPS 를 통해 획득하여, 획득된 차량 위치 정보에 포함된 주행 중 차선 수와 상기 차량의 진행 방향 정보에서 차량의 커브량을 추출하여, 추출된 정보 및 상기 위치 정보를 통해 영상에서 취득되는 차선 정보를 매핑하고, 매핑 결과에 따라 차선의 위치 및 차선의 종류를 판별하여 상기 설정된 관심영역에서 차선을 인식한다.
구체적으로, 차선 인식 모듈(300)에서는 차량의 위치정보를 통해 차량이 주행 중인 도로가 몇 차선인지 파악하고, 상기 차량의 진행 방향을 인지하는 경우, 현재 주행 중인 도로의 최대 차선을 알 수 있다. 이로써, 영상에서 취득되는 차선 정보를 매핑하여 보다 정확한 차선의 위치 및 차선의 종류를 판별 할 수 있다.
또한, 차량에서 획득되는 영상 상태는 주행 지역의 날씨(맑음, 흐림 등)에 좌우되는 경우가 많아, 차량에서 획득되는 영상의 품질을 항상 보장하기 어렵다. 본 발명에 따른 실시예에 있어서는, 차량의 위치 정보 및 차선 정보 매핑을 통해 흐린 날씨에, 영상이 획득되어 상기 영상에 포함된 물체를 분간하기 어려운 경우, 이를 보완하기 위해, 추출 커브량 및 차량 위치 정보에 포함된 각종 정보를 이용 할 수 있다 .
오류 검출 모듈(400)은 인식 된 차선 정보에서 오류를 검출한다. 일반적으로, 차량이 야간 주행하거나 곡선도로를 주행하는 경우, 차선 인식 오류가 보다 높게 발생하는데, 실시예에서는 블랙박스 영상 및 차량 위치 정보를 연동하여 획득하는 도로의 탑뷰(top view)를 이용하여 환경 적응적인 차선인식을 수행함으로써 차선 인식 오류를 최소화 한다.
이후, 오류검출이 완료된 차선 인식 정보는 디스플레이 모듈(500)에서 디스플레이 된다. 실시예에 있어서, 디스플레이 모듈(500)에서는 차선 인식 모듈(300)에서 판단된 최적 차선, 후보 차선 중 적어도 하나를 디스플레이 하고, 운전자 선택에 따라, 차량이 주행중인 차선에서 전방 차량과의 안전거리 및 주행 중인 차선을 강조하는 표시를 디스플레이 할 수 있다. 또한, 주행 중인 차량이 차선을 기 설정된 수치 이상 이탈하는 경우, 차선 이탈을 경고하는 위험 신호를 디스플레이 할 수 있다.
도 2는 본 발명의 일실시예에 따른 차선인식 시스템의 상세한 구성을 나타낸 블록도이다.
도 2를 참조하면, 실시예에 따른 차선 인식 시스템의 전처리 모듈(100)은 차선 후보 선택부(110), 에지 추출부(130) 및 세선화부(150)를 포함하여 구성되고, 관심영역 설정 모듈(200)은 동적 이미지 관심영역 설정부(210), 고정이미지 관심영역 설정부(230) 및 카메라 관심영역 설정부(250)를 포함하여 구성되고, V-ROI(Video Region of Interest) 설정부를 더 포함하여 구성될 수 있다. 오류 검출 모듈(400)은 탑뷰 변환부(410)및 허프 변환부(430)을 포함하여 구성될 수 있다.
이하, 실시예를 나타낸 도면들을 함께 참조하여 각 구성요소의 동작 및 차선 인식 시스템 동작에 대해 상세히 설명하도록 한다.
전처리 모듈(100)에 구비되는 차선 후보 선택부(110)는 YCbCr 및 RGB를 포함하는 색 공간 표현 데이터를 통해 상기 획득된 영상과 이미지에서 색 공간을 추출하여 차선 영역을 강조한다. YCbCr은 영상 시스템에서 사용되는 색공간의 일종이며, 컬러 정보로부터 밝기 성분과 색차 성분을 분리한 색표현 방식으로 Y 는 휘도 신호, Cb 와 Cr 은 색차 신호를 의미한다. YCbCr은 절대 색 공간이 아니며 적, 녹, 청 3 원색이 시각적으로 균일한 정보를 가지는 RGB 정보를 밝기 신호와 색차 신호로 서로 다른 정보를 가지도록 수식에 의하여 변환된 색표현 방식이다. 차선 후보 선택부(110)에서 차선 영역이 색 공간 데이터 차이에 의해 강조되면, 이는 에지 추출부(130)로 전달된다.
에지 추출부(130)는 차선 후보 선택부(110)에서 강조된 차선영역의 에지(edge)를 추출하는 한다. 에지(edge)는 영상 안에서의 영역의 경계를 나타내는 특징이다. 실시예에 있어서, 에지 추출부(130) 영상 밝기의 불연속점으로 윤곽선에 해당하는 픽셀을 구하는 방법을 이용하여 에지를 추출하거나, 색 공간 차이를 이용하여 이미지에 포함된 에지를 추출 가능하다. 추출된 에지 데이터는 세선화부(150)로 전달된다.
세선화부(150)는 추출된 차선영역의 에지 정보에서 차선 골격을 추출한다.
관심영역 설정 모듈(200)은 동적 이미지 관심영역 설정부(210), 고정이미지 관심영역 설정부(230) 및 카메라 관심영역 설정부(250) 등을 통해, 차량에 장착된 카메라, 이미지 센서를 통해 획득하는 동적 이미지의 관심영역을 설정하거나, 차량의 위치 정보를 이용하여 획득하는 고정 이미지의 관심영역을 설정한다.
실시예에 있어서, 도 7a 내지 도 7b에 도시된 바와 같이, 관심영역 설정 모듈(200)에서는 도 7a와 같은 블랙박스 영상 이미지를 획득하면, 차선 인식에 불필요한 이미지의 하단부는 필터링 하여, 도 7b와 같은 관심영역을 설정한다. 이로써, 차선 인식 수행에 필요한 연산량을 감소 시켜 전체 시스템의 응답 성능을 향상시킨다.
차선 인식 모듈(300)에 구비되는 차선 검색부(310)는 허프 (Hough) 변환 및 소실점 추출과정을 통해 관심영역에 포함된 차선을 검색한다. 도 7c와 도 7d 에는 허프 변환 실시예가 도시되고, 도 7g에는 소실점을 추출하여 차선을 검색하는 실시예가 도시된다. 도 7c는 허프변환 전 원본 이미지이고, 도 7d는 허프 변환 이후 선분이 추출된 이미지이다. 허프변환은 화상 처리에서의 차선 인식을 위한 선분을 추출하기 위한 변환이다. 구체적으로, 직선을 xcosθ+ysinθ=Ρ로 나타내면 동일 직선은 θ-Ρ평면에서는 한 점에 떨어지므로 θ-Ρ평면에서의 클러스터링에 의해 직선을 찾는다. 이때, 직선을 θ-Ρ평면에 떨어뜨리는 것을 허프변환이라 한다.
최적 차선 판단부(330) 차량 GPS 정보와 전후방에 존재하는 차량을 센싱한 정보 및 차선 검색부(310)로부터 입력된 차선 검색 정보 등을 이용하여, 검색된 차선들 중 주행 최적 차선을 판단한다. 예컨대, 도 7h에 도시된 바와 같이, 적어도 하나 이상의 차선이 인식되면, 최적 차선 판단부(330)는 최적 차선 필터를 적용하여 최적 차선을 판단한다. 예컨대, 도 7i에 도시된 바와 같이, 최적 차선 판단부(330)는 차선에서 센싱되는 주행 중인 차량의 수 및 전방 차량과의 거리데이터를 기초로 후보 차선을 필터링하여, 운전자가 주행하기 가장 적합한 차선을 판단한다.
이후, 후보 차선 검색부(350)는 최적 차선 정보를 이용하여, 최적 차선에 인접한 후보차선들을 검색하고 검색된 후보 차선들의 주행상황을 판단함으로써 운전자에게 주행하기에 가장 적합한 차선 정보를 지속적으로 제공할 수 있다.
도 8a 내지 8c는 실시예에 따른 후보 차선 검색부(350)에서의 차선 검색 실시예를 나타낸 도면이다. 예컨대, 차선 인식률이 미약하여 도 8a에 도시된 바와 같이, 차선을 완벽하게 인식하지 못 한 경우, 후보 차선 검색부(350)는 도 8b에 도시된 점 등의 기호로 후보 차선을 표시하고, 도 8c에 도시된 바와 같이, 후보차선을 표시하는 점과 전방 차량의 소실점을 연결하여 주행 차선을 인식할 수 있다.
오류 검출 모듈(400)에 구비되는 탑뷰 변환부(410)는 야간 주행, 곡선도로 와 같은 환경적인 요인으로 인한 차선 인식 오류를 최소화하기 위해 GPS 및 차량 위치 정보를 이용하여 획득한 이미지에 탑뷰 변환을 수행한다. 도 10a 내지 도 10c는 실시예에 따라 탑뷰 변환된 이미지가 나타난다. 실시예에서는 탑뷰 변환된 이미지에 허프 변환부(430)에서 허프변환을 수행함으로써, 차선인식 오류 발생을 최소화 한다.
디스플레이 모듈(500)에서는 차선 정보를 운전자가 인식하기 용이한 형태로 디스플레이 한다. 도 9a 내지 도 9d는 실시예에 따른 디스플레이 모듈에서의 차선정보 표시 예를 나타낸다. 도 9a 에 도시된 바와 같이, 디스플레이 모듈(500)은 차선정보를 UI(User Interface) 형태로 강조하거나, 도 9b 에 도시된 바와 같이, 디스플레이 모듈(500)은 전방 차량과의 안전거리 정보를 색으로 표시하여 제공할 수 있다. 구체적으로 전방차량과의 거리가 안전 거리 이상이면 녹색으로 차선 도시하고, 안전거리 미만이면 붉은색으로 차선을 도시하여, 운전자가 전방차량과 안전거리를 유지하고 있는지 쉽게 인시 할 수 있도록 한다. 또한, 도 9c 에 도시된 바와 같이, 디스플레이 모듈(500)은 차선의 소실점을 강조하거나, 도 9d 에 도시된 바와 같이, 디스플레이 모듈(500)은 차량이 차선을 기 설정된 수치 이상 벗어나는 경우 위험신호를 도시할 수 있다.
도 3은 본 발명의 실시예에 따른 차선 인식 방법을 나타낸 흐름도 이다.
S310 과정에서는 차량 탑재 카메라 또는 블랙박스로부터 획득된 영상과 이미지를 전처리 하는 과정이 수행된다. 일반적으로, 차선인식의 인식률을 향상시키기 위해서는 S310의 전처리 과정이 가장 중요하다.
S320 과정에서는 전처리된 이미지로부터 관심영역(RoI, Region of Interest)을 설정하는 과정이 수행된다.
S330 과정에서는 차량의 위치정보를 GPS 를 통해 획득하여, 획득된 차량 위치 정보를 이용하여 설정된 관심영역에서 차선을 인식하는 과정이 수행되고, S340 과정에서는 주행중인 차량의 위치 정보 및 차선 (TOP VIEW)를 통해 상기 차선 인식과정의 오류를 검출하는 과정이 수행된다. 이후, 오류 검출 완료된 차선 정보를 디스플레이 하는 과정이 수행된다.
이하, 각 과정에 대해 도면을 참조하여 보다 상세히 설명한다.
도 4a는 본 발명의 실시예에 다른 전처리 과정의 흐름도 이다.
S410 과정에서 블랙박스 영상을 획득하면, S420 단계에서는 설정된 관심영역을 통해, 획득된 영상의 인식 범위를 최소화 하는 과정이 수행된다. 이후 최소화된 인식 범위에 대해 S430 단계에서 히스토그램 스트래칭(histogram stretching) 과정을 통해 이진화 임계값을 고정하는 과정을 수행하여 도 4b에 도시된 바와 같이, 그레이(Gray) 영상의 밝기 값을 고르게 분포시킨다. S440 단계에서는 소벨 연산 및 이진화 연산 과정을 수행한다. 소벨 연산과 이진화 연산 은 수평방향으로 에지를 추출하기 위한 처리 과정으로서 도 4c에 도시된 바와 같이, 임계값을 설정한 이후, 임계값보다 낮은 영역은 검정으로, 임계값보다 높은 영역은 흰색으로 처리하여 차선을 강조한다.
도 5는 본 발명의 실시예에 따른 후보 차선 인식과정을 나타낸 흐름도이고, 도7c 내지 도 7i 는 후보 차선 인식 과정의 실시예를 나타낸 도면이다.
S510 과정에서 전처리된 영상을 허프변환 시켜 직선들을 검출하고, S520 과정에서 허프 필터를 이용하여 차선과 유사성이 낮은 직선들을 필터링하는 과정을 수행한다. 이후, S530 단계에서 최소화된 선들을 그룹화 하는 과정이 수행된다. 하나의 선으로 그룹화 시킨 후 S540 단계에서 소실점을 이용하여 한번 더 필터링 하는 과정을 수행함으로써 인식률을 높인다. 이후, S550 단계에서 차선을 검출한다.
도 6은 본 발명의 실시예에 따른 후보 차선 인식을 탑뷰(top view)를 이용하여 수행하는 과정을 나타낸 흐름도이고, 도 10a 내지 도 10d는 탑뷰를 이용한 차선 인식과정의 실시예를 나타낸 도면이다.
차선의 색이 불명료하거나 야간 주행 중이거나 곡선도로를 주행 중에는 차선 인식률이 현저히 떨어지기 때문에, 본 발명에 따른 실시예에서는 탑뷰를 이용하여 후보차선의 인식률을 높이고, 차선인식 오류를 최소화 한다.
후보 차선 인식 이미지가 입력되면, S610 단계에서는 탑뷰 변환 과정을 수행도 8a 에 도시된 바와 같이 차선의 탑뷰(top view)관심영역을 획득한다. 탑뷰(top view)관심영역에 소벨 연산과 이진화 연산을 수행하여 도 10b에 도시된 바 같은 이진화된 차선 검출 이미지를 획득하고, S620 과정에서는 획득된 탑뷰 관심영역 이미지에 허프 변환 과정을 수행하여, 도 10c 에 도시된 바와 같이 차선 인식 이미지를 획득한다. 도 10d 는 차선인식 이미지가 디스플레이 되는 실시예를 나타낸 도면 으로서, 본 발명을 통해 차선인식 오류를 최소화하여 운전자가 후보 차선을 인식하게 한다.
전술한 바와 같이, 본 발명의 실시 예에서는 블랙박스 영상과, 네비게이션을 통해 획득하는 위치정보를 이용하여, 차선 인식을 보다 정확하게 수행한다.
또한, 이미지 전처리와 ROI(Region of Interest) 추출 작업을 보다 효율적으로 수행하여, 차선인식에 소요되는 연산량을 감소 시킴으로써, 운전자에게 신속하고 정확한 차선 인식 정보를 실시간으로 제공한다.
또한, 차선 인식 이미지의 탑뷰(top view) 변환을 통해 이미지 인식 오류를 감소 시키고, 네비게이션으로부터 획득한 차량의 위치정보와 차량에서 획득한 이미지 정보를 연동하여 차선 인식을 위한 관심영역을 필터링 함으로써, 차선 인식 수행에 필요한 연산량을 감소시키고 이를 통해, 전체 시스템의 응답 성능을 향상시킨다.
한편, 본 발명의 실시예에 따른 차선인식 방법은 컴퓨터 시스템에서 구현되거나, 또는 기록매체에 기록될 수 있다. 컴퓨터 시스템은 적어도 하나 이상의 프로세서와, 메모리와, 사용자 입력 장치와, 데이터 통신 버스와, 사용자 출력 장치와, 저장소를 포함할 수 있다. 전술한 각각의 구성 요소는 데이터 통신 버스를 통해 데이터 통신을 한다.
컴퓨터 시스템은 네트워크에 커플링된 네트워크 인터페이스(129)를 더 포함할 수 있다. 상기 프로세서는 중앙처리 장치(central processing unit (CPU))이거나, 혹은 메모리 및/또는 저장소에 저장된 명령어를 처리하는 반도체 장치일 수 있다.
상기 메모리 및 상기 저장소는 다양한 형태의 휘발성 혹은 비휘발성 저장매체를 포함할 수 있다. 예컨대, 상기 메모리는 ROM 및 RAM을 포함할 수 있다.
한편, 상술한 본 발명의 실시예에 따른 차선인식 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (13)

  1. 차량 탑재 카메라 또는 블랙박스로부터 획득된 영상과 이미지를 전처리 하는 전처리 모듈;
    상기 전처리 모듈로부터 획득한 전처리된 이미지로부터 관심영역(RoI, Region of Interest)을 설정하는 관심영역 설정 모듈;
    상기 차량의 위치정보를 GPS 를 통해 획득하여, 획득된 차량 위치 정보에 포함된 주행 중 차선 수와 상기 차량의 진행 방향 정보에서 상기 차량의 커브량을 추출하여, 추출된 정보 및 상기 위치 정보를 통해 영상에서 취득되는 차선 정보를 매핑하고, 매핑 결과에 따라 차선의 위치 및 차선의 종류를 판별하여 상기 설정된 관심영역에서 차선을 인식하는 차선 인식 모듈; 및
    인식된 차선 정보를 디스플레이 하는 디스플레이 모듈; 을 포함하고
    상기 차선 인식 모듈;은
    허프 변환 및 소실점 추출과정을 통해 상기 관심영역에 포함된 차선을 검색하는 차선 검색부;
    상기 차량 GPS 정보와 전후방에 존재하는 차량을 센싱한 정보를 이용하 여, 상기 검색된 차선들 중 주행최적차선을 판단하는 최적차선판단부;및
    상기 최적 차선 정보를 이용하여, 상기 최적 차선에 인접한 후보차선들을
    검색하고 상기 검색된 후보차선들의 주행상황을 판단하는 후보차선검색 부;를 포함하는 차선 인식 시스템.
  2. 제 1항에 있어서, 상기 차선 인식 시스템은
    GPS를 통한 주행중인 차량의 위치 정보를 기반으로 상기 차선 인식과정의 오류를 검출하는 오류검출 모듈;을 더 포함하는 것을 특징으로 하는 차선 인식 시스템.
  3. 제 1항에 있어서, 상기 전처리 모듈은
    YCbCr 및 RGB를 포함하는 색 공간 표현 데이터를 통해 상기 획득된 영상과 이미지에서 색 공간을 추출하여 차선 영역을 강조하는 차선 후보 선택부;
    상기 차선 후보 선택부에서 강조된 차선영역의 에지(edge)를 추출하는 에지 추출부; 및
    상기 추출된 차선영역의 에지 정보에서 차선 골격을 추출하는 세선화부; 를 포함하여 상기 획득된 영상과 이미지에 포함된 차선을 인식하는 것을 특징으로 하는 차선 인식 시스템.
  4. 제 1항에 있어서, 상기 관심영역 설정 모듈은
    상기 차량에 장착된 카메라, 이미지 센서를 통해 획득하는 동적 이미지의 관심영역을 설정하거나, 상기 차량의 위치 정보를 이용하여 획득하는 고정 이미지의 관심영역을 설정하는 것을 특징으로 하는 차선 인식 시스템.
  5. 삭제
  6. 제 1항에 있어서, 상기 디스플레이 모듈은
    상기 차선 인식 모듈에서 판단된 최적 차선, 후보 차선 중 적어도 하나를 디스플레이 하고, 상기 차량이 주행중인 차선에서 전방 차량과의 안전거리 및 주행 중인 차선을 강조하는 표시를 디스플레이하고, 상기 차량이 차선을 기 설정된 수치 이상 이탈하는 경우, 차선 이탈을 경고하는 위험 신호를 디스플레이 하는 것을 특징으로 하는 차선 인식 시스템.
  7. 차량 탑재 카메라 또는 블랙박스로부터 획득된 영상과 이미지를 전처리 하는 과정;
    상기 전처리된 이미지로부터 관심영역(RoI, Region of Interest)을 설정하는 과정;
    상기 차량의 위치정보를 GPS 를 통해 획득하여, 획득된 차량 위치 정보를 이용하여 상기 설정된 관심영역에서 차선을 인식하는 과정; 및
    주행중인 차량의 위치 정보 및 차선 위치를 통해 상기 차선 인식과정의 오류를 검출하는 과정; 및
    상기 오류 검출 완료된 차선 정보를 디스플레이 하는 과정; 을 포함하고
    상기 설정된 관심영역에서 차선을 인식하는 과정;은
    허프 변환 및 소실점 추출과정을 통해 상기 관심영역에 포함된 차선을
    검색하는 과정;
    상기 차량 GPS 정보와 전후방에 존재하는 차량을 센싱한 정보를
    이용하여, 상기 검색된 차선들 중 주행 최적 차선을 판단하는 과정; 및
    상기 최적 차선 정보를 이용하여, 상기 최적 차선에 인접한 후보차선들을 검색하고 상기 검색된 후보 차선들의 주행상황을 판단하는 과정;을 포함 하는 것을 특징으로 하는 차선 인식 방법.
  8. 제 7항에 있어서, 상기 전처리 과정은
    상기 획득된 영상과 이미지에서 관심영역을 추출하는 과정;
    상기 추출된 관심영역의 히스토그램 스트레칭(Histogram Stretching)을 수행하는 과정; 및
    상기 히스토그램 스트레칭 과정 이후, 소벨(sobel) 연산 및 이진화(binary) 연산을 수행하는 과정; 을 포함하는 것을 특징으로 하는 차선 인식 방법.
  9. 제 7항에 있어서, 상기 관심영역(RoI, Region of Interest)을 설정하는 과정은
    YCbCr 및 RGB를 포함하는 색 공간 표현 데이터를 통해 상기 획득된 영상과 이미지에서 색 공간을 추출하여 차선 영역을 강조하는 과정;
    상기 강조된 차선영역의 에지(edge)를 추출하는 과정;
    상기 추출된 차선영역의 에지 정보에서 차선 골격을 추출하는 과정;을 포함하는 것을 특징으로 하는 차선 인식 방법.
  10. 제 7항에 있어서, 상기 오류를 검출하는 과정은
    GPS 및 상기 차량의 위치 정보와 상기 차량에 입력된 이미지 정보에서 인식된 차선에 탑뷰 변환(top view transform)을 수행하는 과정;
    상기 탑뷰 변환이 수행된 이미지에 허프 변환(Hough transform)을 수행하는 과정; 을 포함하는 것을 특징으로 하는 차선 인식 방법.
  11. 삭제
  12. 제 7항에 있어서, 상기 디스플레이 하는 과정은
    차선 인식 모듈에서 판단된 최적 차선, 후보 차선 중 적어도 하나를 디스플레이 하고, 상기 차량이 주행중인 차선에서 전방 차량과의 안전거리 및 주행 중인 차선을 강조하는 표시를 디스플레이하고,
    상기 차량의 차선 이탈 신호를 획득하는 단계; 및
    상기 차선 이탈 신호 획득 이후, 차선 이탈 수치에 따른 위험 신호를 디스플레이 하는 것을 특징으로 하는 차선 인식 방법.
  13. 삭제
KR1020150003189A 2014-06-20 2015-01-09 주변 환경 정보를 이용한 차선 인식 시스템 및 그 방법 KR101620425B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140076064 2014-06-20
KR20140076064 2014-06-20

Publications (2)

Publication Number Publication Date
KR20150146374A KR20150146374A (ko) 2015-12-31
KR101620425B1 true KR101620425B1 (ko) 2016-05-13

Family

ID=55129067

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150003189A KR101620425B1 (ko) 2014-06-20 2015-01-09 주변 환경 정보를 이용한 차선 인식 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR101620425B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102421855B1 (ko) 2017-09-28 2022-07-18 삼성전자주식회사 주행 차로를 식별하는 방법 및 장치
KR20210034253A (ko) 2019-09-20 2021-03-30 삼성전자주식회사 위치 추정 장치 및 방법
CN112902981B (zh) * 2021-01-26 2024-01-09 中国科学技术大学 机器人导航方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100257592B1 (ko) * 1996-05-28 2000-06-01 모리시타 요이찌 차선검출센서 및 이를 이용한 항법장치
JP2010165299A (ja) * 2009-01-19 2010-07-29 Clarion Co Ltd 白線検出装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100257592B1 (ko) * 1996-05-28 2000-06-01 모리시타 요이찌 차선검출센서 및 이를 이용한 항법장치
JP2010165299A (ja) * 2009-01-19 2010-07-29 Clarion Co Ltd 白線検出装置

Also Published As

Publication number Publication date
KR20150146374A (ko) 2015-12-31

Similar Documents

Publication Publication Date Title
Wu et al. Lane-mark extraction for automobiles under complex conditions
JP4930046B2 (ja) 路面判別方法および路面判別装置
US9626599B2 (en) Reconfigurable clear path detection system
US9257043B2 (en) Lane correction system, lane correction apparatus and method of correcting lane
JP6819996B2 (ja) 交通信号認識方法および交通信号認識装置
CN102298693B (zh) 基于计算机视觉的高速公路弯道检测方法
US20140002655A1 (en) Lane departure warning system and lane departure warning method
CN107886034B (zh) 行车提醒方法、装置及车辆
KR101472787B1 (ko) 차선 인식 시스템 및 그 방법
US9569676B2 (en) Computer implemented system and method for extracting and recognizing alphanumeric characters from traffic signs
CN107292214B (zh) 车道偏离检测方法、装置及车辆
Romera et al. A Real-Time Multi-scale Vehicle Detection and Tracking Approach for Smartphones.
JP2005316607A (ja) 画像処理装置及び画像処理方法
JP4864043B2 (ja) 画像処理装置、方法及びプログラム
CN105023452A (zh) 一种多路交通信号灯信号采集的方法及装置
KR101620425B1 (ko) 주변 환경 정보를 이용한 차선 인식 시스템 및 그 방법
WO2016059643A1 (en) System and method for pedestrian detection
US20120189161A1 (en) Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus
KR102001763B1 (ko) 영상처리 기반의 속도표지판 인식 방법 및 장치
Coronado et al. Detection and classification of road signs for automatic inventory systems using computer vision
US9727780B2 (en) Pedestrian detecting system
CN107506739B (zh) 一种夜间前向车辆检测及测距方法
CN111332306A (zh) 一种基于机器视觉的交通道路感知辅助驾驶预警装置
CN111191482A (zh) 一种刹车灯识别方法、装置及电子设备
KR20140104516A (ko) 차선 인식 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190503

Year of fee payment: 4