KR102453782B1 - 자율주행을 위한 차선검출 방법. - Google Patents
자율주행을 위한 차선검출 방법. Download PDFInfo
- Publication number
- KR102453782B1 KR102453782B1 KR1020160171324A KR20160171324A KR102453782B1 KR 102453782 B1 KR102453782 B1 KR 102453782B1 KR 1020160171324 A KR1020160171324 A KR 1020160171324A KR 20160171324 A KR20160171324 A KR 20160171324A KR 102453782 B1 KR102453782 B1 KR 102453782B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- lane
- learning
- detecting
- region
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 35
- 238000001514 detection method Methods 0.000 claims abstract description 42
- 238000009825 accumulation Methods 0.000 claims abstract description 10
- BKCJZNIZRWYHBN-UHFFFAOYSA-N Isophosphamide mustard Chemical compound ClCCNP(=O)(O)NCCCl BKCJZNIZRWYHBN-UHFFFAOYSA-N 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000013507 mapping Methods 0.000 claims abstract description 4
- 230000008569 process Effects 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 15
- 238000001914 filtration Methods 0.000 claims description 13
- 238000013459 approach Methods 0.000 abstract description 9
- 230000004927 fusion Effects 0.000 abstract description 5
- 230000008901 benefit Effects 0.000 abstract description 3
- 239000013598 vector Substances 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
- B60W2050/0052—Filtering, filters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/30—Road curve radius
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/10—Path keeping
- B60Y2300/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/14—Cruise control
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
본 발명은 저속 주행시 곡선차로 내 적용 가능한 개선된 자율주행을 위한 차선검출 방법에 관한 것으로서, 특히 학습기반 어프로치와 영상인식을 융합하여 차선의 오검출이 적은 자율주행을 위한 차선검출 방법에 관한 것이다. 본 발명은 차선 검출 알고리즘에 있어서, 주행 중인 차량의 입력 영상을 전처리한 후 영상의 시점을 하늘에서 보는 아이피앰(IPM : Inverse Perspective Mapping) 영상으로 변환하여 입력 영상을 실시간으로 데이터화하는 제1 단계; 차량의 운전자가 기 설정된 주기 동안 주행하여 수집된 학습 정보와 아이피앰 영상을 비교하여 학습기반 차선 후보 영역을 검출하는 제2 단계; 및 학습기반 차선 후보 영역에서 노이즈를 제거하고 DA(Different Accumulation)를 적용하여 영상기반 차선 후보 영역을 검출하는 제3 단계;를 포함하는 자율주행을 위한 차선검출 방법을 제공한다.
본 발명에 따르면, 학습기반 어프로치와 영상기반 어프로치를 융합하여 적용함으로써 노면 상태에 강인한 차선 검출이 가능한 이점이 있다.
본 발명에 따르면, 학습기반 어프로치와 영상기반 어프로치를 융합하여 적용함으로써 노면 상태에 강인한 차선 검출이 가능한 이점이 있다.
Description
본 발명은 고속도로와 시내도로 모두에서 안정적인 자율주행을 수행하기 위하여 개선된 강건한 차선검출 방법에 관한 것으로서, 특히 학습기반 어프로치와 영상인식 기반의 어프로치를 융합하여 차선의 오검출을 감소시킨 자율주행을 위한 차선검출 방법에 관한 것이다.
최근 IT 기술이 급속도로 발전하면서 비전시스템과 융합한 지능형 자동차에 대한 관심이 높아지고 있다. 특히 교통 사고의 위험을 줄이는 차선이탈 정보, 차선유지, 충돌 경보 시스템과 같은 첨단 안전 자동차 기술은 지능형 자동차 기술의 기반 기술로서 다양한 연구 및 기술 개발에 많은 인력과 재원이 투입되고 있다.
이와 관련, 종래의 한국공개특허들은 스마트 크루즈 컨트롤(SCC;Smart Cruise Control)과 LKAS(Lane Keeping Assist System)를 적용하는데, 이는 차량의 제어 방향이 완전히 다르기 때문에 필요에 따라서는 두 기능의 동시 작동이 가능하다. 하지만, SCC와 LKAS를 동시에 작동시킨다 하더라도 각각이 지닌 고유의 기능, 즉 SCC는 운전자 차량을 기준으로 종방향 위협에 대한 대응을, LKAS는 횡방향 차선 이탈에 대한 기능만을 개별적으로 제공할 뿐이므로 종합적인 상황 대처가 어려운 문제가 있다.
종래의 기술은 SSC의 종방향 제어와 LKAS를 통한 횡방향 제어를 결합하여 자율주행과 유사한 형태의 제어가 가능하지만, Level 4~5의 완전 자율주행에서는 기존 ADAS 기술 대비 좀 더 강인한 기능들이 필요하고, 이를 위해서는 기존 영상인식 기반의 차선 인식 대비 더 정확한 차선인식 알고리즘을 필요하다.
또한 측방센서를 이용한 위험 감지 및 경보 기능이 작동되어 횡방향 위험 회피가 가능하다 해도, 종/횡방향의 종합적인 제어를 통하여 사람이 직접 수동으로 회피 운전을 하는 듯한 위험 회피 기능을 제공하는 것은 현실적으로 불가능하다.
또한 상술한 방식의 영상인식 기반의 어프로치만을 사용하는 경우, 차량 외부 환경의 변화 및 카메라로부터 입력되는 영상 화질에 따라 오검출이 나타나는 문제점이 있다.
본 발명은 영상인식 기반의 어프로치만을 사용하는 경우 발생되는 오검출을 감소시키는 자율주행을 위한 차선검출 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 차선 후보군을 설정하고 실제 차선이 존재하는 ROI(Region Of Interest)를 차선의 진행 방향에 따라 설정함으로서 보다 효과적으로 오검출을 제거하는 차선인식 방법을 제공하는 것을 다른 목적으로 한다.
상기 목적을 달성하기 위하여 본 발명은, 차선 검출 알고리즘에 있어서, 주행 중인 차량의 입력 영상을 전처리한 후 영상의 시점을 하늘에서 보는 아이피앰(IPM : Inverse Perspective Mapping) 영상으로 변환하여 입력 영상을 실시간으로 데이터화하는 제1 단계; 차량의 운전자가 기 설정된 주기 동안 주행하여 수집된 학습 정보와 아이피앰 영상을 비교하여 학습기반 차선 후보 영역을 검출하는 제2 단계; 및 학습기반 차선 후보 영역에서 노이즈를 제거하고 DA(Different Accumulation)를 적용하여 영상기반 차선 후보 영역을 검출하는 제3 단계;를 포함하는 자율주행을 위한 차선검출 방법을 제공하는 것을 특징으로 한다.
바람직하게, 제1 단계는, 아이피앰 영상을 기 설정된 기준값을 근거로 근거리 영역과 원거리 영역으로 나누는 과정; 및 근거리 영역은 제2 단계에서 처리하고 원거리 영역은 기 설정된 관심 영역(ROI : Region of Interest)에서 처리하는 과정;을 포함하고, 근거리 영역을 학습기반 차선 후보 영역에서 처리하여 오검출 영역을 감소시킬 수 있다.
바람직하게, DA(Different Accumulation)가 적용된 DA 이미지의 밝기값(Intensity)과 칼라이미지의 RGB값에 해당 픽셀의 MCT(Modified Census Transform)값을 융합하여 오프라인에서 미리 학습하는 과정;을 더 포함할 수 있다.
바람직하게, 제3 단계는, DA(Different Accumulation)가 적용된 DA 이미지를 생성하는 과정; 미디언 필터링(Median filtering)을 통해 노이즈를 제거하는 과정; 및 Angle 기반 필터링을 통해 에지(Edge)를 검출하는 과정;을 포함할 수 있다.
바람직하게, 제3 단계 이후, 차량의 노면 정보와 색상을 이용하여 최종 차선 후보군을 필터링하는 단계; 및 일정 범위에 대하여 ROI를 설정하여 ROI기반으로 영상기반 차선 후보 영역을 재검출하는 단계;를 더 포함할 수 있다.
바람직하게, 최종 차선 후보군에 대한 차선 Fitting을 수행하여 직전 또는 곡선의 커브 방정식을 산출하여 차선을 검출하는 단계;를 더 포함할 수 있다.
전술한 바와 같은 구성을 갖는 본 발명에 따르면, 학습기반 어프로치와 영상기반 어프로치를 융합하여 적용함으로써 노면 상태에 강인한 차선 검출이 가능한 이점이 있다.
또한 본 발명은, 근거리 차선 후보군을 사용하여 원거리 영상에 대해서 효과적인 ROI를 생성함으로서 전체적인 계산량을 줄여 오검출 감소를 하는 이점이 있다.
도 1은 본 발명의 실시예에 따른 자율주행을 위한 차선검출 방법의 순서도를 나타낸다.
도 2a 및 도 2b는 본 발명의 실시예에 따른 자율주행을 위한 차선검출 방법의 블록도 및 처리 순서도를 나타낸다. 도 1을 참조하면,
도 3a는 본 발명의 실시예에 따른 학습기반 및 영상기반 차선 후보 영역의 설정을 통해 차선 후보군을 검출하는 과정을 나타낸다.
도 3b는 종래의 영상처리 단독의 차선후보군 검출의 예를 나타낸다.
도 4a는 본 발명의 실시예에 따른 ROI 설정의 과정을 나타낸다.
도 4b는 본 발명의 실시예에 따라 ROI영역 내에서 최종적인 차선을 검출한 결과를 나타낸다.
도 5는 본 발명의 실시예에 따라 영상 내 curve fitting 전 최종 차선 검출 후보군 영상을 나타낸다.
도 6은 본 발명의 실시예에 따라 영상 내 curve fitting 후 최종 차선 검출 후보군 영상을 3차원 월드 좌표계 상에 가시화한 모습을 나타낸다.
도 2a 및 도 2b는 본 발명의 실시예에 따른 자율주행을 위한 차선검출 방법의 블록도 및 처리 순서도를 나타낸다. 도 1을 참조하면,
도 3a는 본 발명의 실시예에 따른 학습기반 및 영상기반 차선 후보 영역의 설정을 통해 차선 후보군을 검출하는 과정을 나타낸다.
도 3b는 종래의 영상처리 단독의 차선후보군 검출의 예를 나타낸다.
도 4a는 본 발명의 실시예에 따른 ROI 설정의 과정을 나타낸다.
도 4b는 본 발명의 실시예에 따라 ROI영역 내에서 최종적인 차선을 검출한 결과를 나타낸다.
도 5는 본 발명의 실시예에 따라 영상 내 curve fitting 전 최종 차선 검출 후보군 영상을 나타낸다.
도 6은 본 발명의 실시예에 따라 영상 내 curve fitting 후 최종 차선 검출 후보군 영상을 3차원 월드 좌표계 상에 가시화한 모습을 나타낸다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명을 상세히 설명한다. 다만, 본 발명이 예시적 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다.
본 발명의 목적 및 효과는 하기의 설명에 의해서 자연스럽게 이해되거나 보다 분명해 질 수 있으며, 하기의 기재만으로 본 발명의 목적 및 효과가 제한되는 것은 아니다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
도 1은 본 발명의 실시예에 따른 자율주행을 위한 차선검출 방법의 순서도를 나타낸다. 본 발명은 제1 단계(S10) 내지 제3 단계(S50)를 포함할 수 있다.
제1 단계(S10)는, 차선 검출 알고리즘에 있어서, 주행 중인 차량의 입력 영상을 바이래터럴 필터링(Bilateral Filtering)하여 입력 영상을 전처리한 후 영상의 시점을 하늘에서 보는 아이피앰(IPM : minuteInverse Perspective Mapping) 영상으로 변환하여 입력 영상을 실시간으로 데이터화하는 과정이다.
제2 단계(S30)는, 차량의 운전자가 기 설정된 주기 동안 주행하여 수집된 학습 정보와 아이피앰 영상을 비교하여 학습기반 차선 후보 영역을 검출하는 과정이다.
제3 단계(S50)는, 학습기반 차선 후보 영역에서 노이즈를 제거하고 DA(Different Accumulation)를 적용하여 영상기반 차선 후보 영역을 검출하는 과정이다.
도 2a 및 도2b는 본 발명의 실시예에 따른 자율주행을 위한 차선검출 방법의 블록도 및 처리 순서도를 나타낸다. 도 2a를 참조하면, Input Image부터 Lanes의 출력까지를 제1 단계(S10) 내지 제2 단계(S30)로, 도2b는 제3 단계(S50)로 블록도와 매칭시켜 표현하고 있다.
제1 단계(S10)는, 아이피앰 영상을 기 설정된 기준값을 근거로 근거리 영역과 원거리 영역으로 나누는 과정; 및 근거리 영역은 제2 단계에서 처리하고 원거리 영역은 기 설정된 관심 영역(ROI : Region of Interest)에서 처리하는 과정;을 포함하고, 근거리 영역을 학습기반 차선 후보 영역에서 처리하여 오검출 영역을 감소시킬 수 있다.
근거리 영역과 원거리 영역으로 나누는 과정은, 스마트폰이나 전면카메라 등으로부터 입력받은 Input Image를 영상 처리부 또는 영상 전처리부를 통해 전방 도로 영상을 획득으로 시작된다. 이렇게 획득된 영상을 일정한 크기로 구획하여 영역을 세분화시킬 수 있다. 일정 크기로 구획하거나 전체 영상 이미지의 (%) 단위로도 구획이 가능하며, 특정 수치로 한정되는 것은 아니다.
근거리 영역은 제2 단계에서 처리하고 원거리 영역은 기 설정된 관심 영역(ROI : Region of Interest)에서 처리하는 과정은, 각 구획된 영역을 세분화하여 처리하는 과정이다.
근거리 영역과 원거리 영역으로 나누는 목적은 오검출을 최소화하기 위한 후의 과정을 수월하게 하기 위한 과정이며, 근거리 영역은 학습기반 차선 후보 검출로 입력되고, 원거리 영역은 설정된 ROI 영역으로부터 다시 세부적으로 추출될 수 있다.
도 3a는 본 발명의 실시예에 따른 학습기반 및 영상기반 차선 후보 영역의 설정을 통해 차선 후보군을 검출하는 과정을 나타낸다. 본 발명의 실시예인 도 3a에 앞서 도 3b를 먼저 설명하면, 도 3b는 종래의 영상처리 단독의 차선후보군 검출의 예를 나타낸다.
도 3b의 경우, 기존의 학습기반이 아닌 영상기반의 검출기법으로 검출한 것으로 운전자의 운전 습관이 반영되지 않은 검출 결과 화면을 나타낸다. 이 경우 차선의 검출 외에도 노이즈가 다량 검출되는 결과를 확인할 수 있다.
본 발명의 도 3a를 살펴보면, 도 3a는 상술한 제2 단계의 실시된 화면으로 제2 단계는, DA(Different Accumulation)가 적용된 DA 이미지의 밝기값(Intensity)과 칼라이미지의 RGB값을 융합하여 오프라인에서 미리 학습하는 과정;을 더 포함할 수 있다.
학습기반 차선 후보군은 기능부(multiple feature)(101)와 검출부(Adaboost Classification)(102)를 통해 이루어질 수 있다. 기능부(101)는 입력 영상의 근거리 영역에서 DA 이미지의 밝기값(Intensity)과 칼라이미지의 RGB값에 해당 픽셀의 MCT(Modified Census Transform)값을 적용하여 생성된 복합 특징정보를 기반으로 특징을 추출하여 학습시키고, 검출부에서는 기존의 운전자가 주행시 입력받는 데이터를 기반으로 차선이 있는 영역을 미리 학습된 학습기를 사용하여 후보군으로 검출할 수 있다.
본 발명의 실시예에 따른 학습기반 차선 후보 영역은, 근거리 영역에서 추출된 차량 후보 영역에서 차선 후보를 추출하고 이를 벡터화한 뒤 산출될 수 있다. 또한,벡터가 가르키는 방향에서 원거리 차선에 대한 후보 영역을 다시 추출하는 과정에서 차량의 현재 속도, 횡방향 제어 결과 및 이전 프레임에서 자차와 좌/우측 차선과의 정보들이 ROI 영역을 특정하기 위해 추가적으로 사용될 수 있다.
제3 단계(S50)는, DA(Different Accumulation)가 적용된 DA 이미지를 생성하는 과정; 미디언 필터링(Median filtering)을 통해 노이즈를 제거하는 과정; 및 Angle 기반 필터링을 통해 에지(Edge)를 검출하는 과정;을 포함할 수 있다. 학습된 검출기를 사용하여 차선 후보 영역이 검출되면, 이를 통해 노이즈를 제거하여 추정된 차선 후보군을 검출할 수 있다.
이에 더하여 최종 차선 후보군이 선정되면 outlier filtering을 통해 노면 정보 및 색상 등을 통해 필터링을 할 수 있는 과정도 포함할 수 있다.
도 4a는 본 발명의 실시예에 따른 ROI 설정의 과정을 나타낸다. 도 4a를 참조하면, 근거리 또는 원거리 영역에 따른 클러스터링 된 차선 후보에 대해 ROI의 설정이 가능하다. 이 경우 상술한 제1 단계(S10) 및 제2 단계(S30)에서 변환된 입력 영상에서 차선이 이루는 근거리 영역의 벡터를 검출할 수 있다.
원거리 영역의 벡터는 위 벡터를 이용하여 아이피앰 영상의 원거리 부분에서 ROI를 추출하고 이렇게 추출된 영상에서 다시 DA를 수행하여 차선 특징점을 산출하는 과정을 거칠 수 있다. 원거리 영역의 벡터는 위의 차선 특징점을 산출한 이후, 이를 그룹핑하고 벡터화한 뒤, 노이즈의 필터링을 통해 검출될 수 있다.
원거리 후보 영역은, 상술한 근거리 영역의 벡터와 원거리 영역의 벡터들을 구성하는 특징점들로부터 최종적인 차선의 피팅을 통해 산출될 수 있다.
도 4b는 본 발명의 실시예에 따라 ROI영역 내에서 최종적인 차선을 검출한 결과를 나타낸다. 차량 진행 방향에 따라 설정된 영상에서 벡터를 검출할 수 있고, 이 벡터를 기반으로 차선 후보로 지정된 영역에서 각 차선을 검출할 수 있다. 벡터를 적용하여 차선에 대한 노이즈 문제점을 개선시킬 수 있다.
도 5 및 도 6은 본 발명의 실시예에 따라 영상 내 curve fitting 전 최종 차선 검출 후보군 영상과 curve fitting 후 최종 차선 검출 후보군 영상을 3차원 월드 좌표계 상에 가시화한 모습을 나타낸다.
제3 단계 이후, 차량의 노면 정보와 색상을 이용하여 최종 차선 후보군을 필터링하는 단계; 및 일정 범위에 대하여 ROI를 설정하여 ROI기반으로 영상기반 차선 후보 영역을 재검출하는 단계;를 더 포함할 수 있다.
또한 최종 차선 후보군에 대한 차선 Fitting을 수행하여 직전 또는 곡선의 커브 방정식을 산출하여 차선을 검출하는 단계;를 더 포함하여 곡선차로 내에서도 주행 차선의 검출을 할 수 있는 기능을 제공할 수 있다.
이상에서 대표적인 실시예를 통하여 본 발명을 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명한 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 특허청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다.
10 : 학습기반 차선후보검출 모듈 30 : 영상처리기반 차선후보검출 모듈
50 : ROI 검출부
101 : 기능부 102 : 검출부
301 : DA 이미지부 302 : 노이즈제거부
303 : 에지 검출부 304 : 각도 필터부
305 : 클러스터링부 306 : 출력 필터부
307 : 후보 검출부
501 : ROI 영역부 502 : 벡터 검출부
503 : ROI 계산부
50 : ROI 검출부
101 : 기능부 102 : 검출부
301 : DA 이미지부 302 : 노이즈제거부
303 : 에지 검출부 304 : 각도 필터부
305 : 클러스터링부 306 : 출력 필터부
307 : 후보 검출부
501 : ROI 영역부 502 : 벡터 검출부
503 : ROI 계산부
Claims (6)
- 차선 검출 알고리즘에 있어서,
주행 중인 차량의 입력 영상을 전처리한 후 영상의 시점을 하늘에서 보는 아이피앰(IPM : Inverse Perspective Mapping) 영상으로 변환하여 상기 입력 영상을 실시간으로 데이터화하는 제1 단계;
상기 차량의 운전자가 기 설정된 주기 동안 주행하여 수집된 학습 정보와 상기 아이피앰 영상을 비교하여 학습기반 차선 후보 영역을 검출하는 제2 단계; 및
상기 학습기반 차선 후보 영역에서 노이즈를 제거하고 DA(Different Accumulation)를 적용하여 영상기반 차선 후보 영역을 검출하는 제3 단계;를 포함하는 자율주행을 위한 차선검출 방법.
- 제 1 항에 있어서,
상기 제1 단계는,
상기 아이피앰 영상을 기 설정된 기준값을 근거로 근거리 영역과 원거리 영역으로 나누는 과정; 및
상기 근거리 영역은 상기 제2 단계에서 처리하고 상기 원거리 영역은 기 설정된 관심 영역(ROI : Region of Interest)에서 처리하는 과정;을 포함하고,
상기 근거리 영역을 상기 학습기반 차선 후보 영역에서 처리하여 오검출 영역을 감소시키는 것을 특징으로 하는 자율주행을 위한 차선검출 방법.
- 제 1 항에 있어서, 상기 제2 단계는,
상기 DA(Different Accumulation)가 적용된 DA 이미지의 밝기값(Intensity)과 칼라이미지의 RGB값에 해당 픽셀의 MCT(Modified Census Transform)값을 융합하여 오프라인에서 미리 학습하는 과정;을 더 포함하는 것을 특징으로 하는 자율주행을 위한 차선검출 방법.
- 제 1 항에 있어서, 상기 제3 단계는,
상기 DA(Different Accumulation)가 적용된 DA 이미지를 생성하는 과정;
미디언 필터링(Median filtering)을 통해 노이즈를 제거하는 과정; 및
Angle 기반 필터링을 통해 에지(Edge)를 검출하는 과정;을 포함하는 것을 특징으로 하는 자율주행을 위한 차선검출 방법.
- 제 1 항에 있어서,
상기 제3 단계 이후,
상기 차량의 노면 정보와 색상을 이용하여 최종 차선 후보군을 필터링하는 단계; 및
일정 범위에 대하여 ROI를 설정하여 상기 ROI기반으로 상기 영상기반 차선 후보 영역을 재검출하는 단계;를 더 포함하는 자율주행을 위한 차선검출 방법.
- 제 5 항에 있어서,
상기 최종 차선 후보군에 대한 차선 Fitting을 수행하여 직전 또는 곡선의 커브 방정식을 산출하여 차선을 검출하는 단계;를 더 포함하는 것을 특징으로 하는 자율주행을 위한 차선검출 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160171324A KR102453782B1 (ko) | 2016-12-15 | 2016-12-15 | 자율주행을 위한 차선검출 방법. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160171324A KR102453782B1 (ko) | 2016-12-15 | 2016-12-15 | 자율주행을 위한 차선검출 방법. |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180069282A KR20180069282A (ko) | 2018-06-25 |
KR102453782B1 true KR102453782B1 (ko) | 2022-10-11 |
Family
ID=62806078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160171324A KR102453782B1 (ko) | 2016-12-15 | 2016-12-15 | 자율주행을 위한 차선검출 방법. |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102453782B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240074071A (ko) | 2022-11-18 | 2024-05-28 | 주식회사 스프링클라우드 | 자율 주행 차량 및 그것의 주행 경로 결정 방법 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102555374B1 (ko) * | 2018-12-27 | 2023-07-14 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007328410A (ja) | 2006-06-06 | 2007-12-20 | Mitsubishi Electric Corp | 情報提供装置 |
EP2288138A1 (en) | 2008-05-14 | 2011-02-23 | Hitachi, Ltd. | On-vehicle object detection device |
JP2014096135A (ja) | 2012-10-10 | 2014-05-22 | Ricoh Co Ltd | 移動面境界線認識装置、これを用いた移動体機器制御システム、移動面境界線認識方法及び移動面境界線認識用プログラム |
JP2016081361A (ja) | 2014-10-20 | 2016-05-16 | 株式会社日本自動車部品総合研究所 | 走行区画線認識装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101396924B1 (ko) * | 2012-11-01 | 2014-05-19 | (주)언맨드솔루션 | 카메라를 이용한 차로폭 측정시스템 |
KR101906951B1 (ko) * | 2013-12-11 | 2018-10-11 | 한화지상방산 주식회사 | 차선 검출 시스템 및 차선 검출 방법 |
-
2016
- 2016-12-15 KR KR1020160171324A patent/KR102453782B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007328410A (ja) | 2006-06-06 | 2007-12-20 | Mitsubishi Electric Corp | 情報提供装置 |
EP2288138A1 (en) | 2008-05-14 | 2011-02-23 | Hitachi, Ltd. | On-vehicle object detection device |
JP2014096135A (ja) | 2012-10-10 | 2014-05-22 | Ricoh Co Ltd | 移動面境界線認識装置、これを用いた移動体機器制御システム、移動面境界線認識方法及び移動面境界線認識用プログラム |
JP2016081361A (ja) | 2014-10-20 | 2016-05-16 | 株式会社日本自動車部品総合研究所 | 走行区画線認識装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240074071A (ko) | 2022-11-18 | 2024-05-28 | 주식회사 스프링클라우드 | 자율 주행 차량 및 그것의 주행 경로 결정 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20180069282A (ko) | 2018-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102109941B1 (ko) | 라이다 센서 및 카메라를 이용한 객체 검출 방법 및 그를 위한 장치 | |
US10783657B2 (en) | Method and apparatus for vehicle position detection | |
Cui et al. | Vehicle localisation using a single camera | |
US11003920B2 (en) | Detection and planar representation of three dimensional lanes in a road scene | |
Haloi et al. | A robust lane detection and departure warning system | |
KR20200060194A (ko) | 차선들의 깊이값을 예측하는 방법, 3차원 차선들을 출력하는 방법 및 그 장치 | |
US9665782B2 (en) | Obstacle detecting apparatus and obstacle detecting method | |
KR101748780B1 (ko) | 스테레오 카메라를 이용한 도로객체 인식방법 및 장치 | |
US20180208201A1 (en) | System and method for a full lane change aid system with augmented reality technology | |
US10108866B2 (en) | Method and system for robust curb and bump detection from front or rear monocular cameras | |
US9558410B2 (en) | Road environment recognizing apparatus | |
Feniche et al. | Lane detection and tracking for intelligent vehicles: A survey | |
WO2021199584A1 (en) | Detecting debris in a vehicle path | |
CN112825192A (zh) | 基于机器学习的对象辨识系统及其方法 | |
Yiruo et al. | Complex ground plane detection based on v-disparity map in off-road environment | |
Javadi et al. | A robust vision-based lane boundaries detection approach for intelligent vehicles | |
CN114067292A (zh) | 用于智能驾驶的图像处理方法和装置 | |
CN107220632B (zh) | 一种基于法向特征的路面图像分割方法 | |
KR102453782B1 (ko) | 자율주행을 위한 차선검출 방법. | |
Surgailis et al. | Avoiding forward car collision using stereo vision system | |
KR102188164B1 (ko) | 3차원 데이터를 이용한 도로 인식 방법 | |
JP6660367B2 (ja) | 車外環境認識装置 | |
Cardarelli et al. | 44 Vision-Based Blind Spot Monitoring | |
US20220410942A1 (en) | Apparatus and method for determining lane change of surrounding objects | |
Ma et al. | A real-time rear view camera based obstacle detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |