KR102453782B1 - 자율주행을 위한 차선검출 방법. - Google Patents

자율주행을 위한 차선검출 방법. Download PDF

Info

Publication number
KR102453782B1
KR102453782B1 KR1020160171324A KR20160171324A KR102453782B1 KR 102453782 B1 KR102453782 B1 KR 102453782B1 KR 1020160171324 A KR1020160171324 A KR 1020160171324A KR 20160171324 A KR20160171324 A KR 20160171324A KR 102453782 B1 KR102453782 B1 KR 102453782B1
Authority
KR
South Korea
Prior art keywords
image
lane
learning
detecting
region
Prior art date
Application number
KR1020160171324A
Other languages
English (en)
Other versions
KR20180069282A (ko
Inventor
박민우
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160171324A priority Critical patent/KR102453782B1/ko
Publication of KR20180069282A publication Critical patent/KR20180069282A/ko
Application granted granted Critical
Publication of KR102453782B1 publication Critical patent/KR102453782B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping
    • B60Y2300/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 저속 주행시 곡선차로 내 적용 가능한 개선된 자율주행을 위한 차선검출 방법에 관한 것으로서, 특히 학습기반 어프로치와 영상인식을 융합하여 차선의 오검출이 적은 자율주행을 위한 차선검출 방법에 관한 것이다. 본 발명은 차선 검출 알고리즘에 있어서, 주행 중인 차량의 입력 영상을 전처리한 후 영상의 시점을 하늘에서 보는 아이피앰(IPM : Inverse Perspective Mapping) 영상으로 변환하여 입력 영상을 실시간으로 데이터화하는 제1 단계; 차량의 운전자가 기 설정된 주기 동안 주행하여 수집된 학습 정보와 아이피앰 영상을 비교하여 학습기반 차선 후보 영역을 검출하는 제2 단계; 및 학습기반 차선 후보 영역에서 노이즈를 제거하고 DA(Different Accumulation)를 적용하여 영상기반 차선 후보 영역을 검출하는 제3 단계;를 포함하는 자율주행을 위한 차선검출 방법을 제공한다.
본 발명에 따르면, 학습기반 어프로치와 영상기반 어프로치를 융합하여 적용함으로써 노면 상태에 강인한 차선 검출이 가능한 이점이 있다.

Description

자율주행을 위한 차선검출 방법.{METHOD OF DETECTING TRAFFIC LANE FOR AUTOMATED DRIVING}
본 발명은 고속도로와 시내도로 모두에서 안정적인 자율주행을 수행하기 위하여 개선된 강건한 차선검출 방법에 관한 것으로서, 특히 학습기반 어프로치와 영상인식 기반의 어프로치를 융합하여 차선의 오검출을 감소시킨 자율주행을 위한 차선검출 방법에 관한 것이다.
최근 IT 기술이 급속도로 발전하면서 비전시스템과 융합한 지능형 자동차에 대한 관심이 높아지고 있다. 특히 교통 사고의 위험을 줄이는 차선이탈 정보, 차선유지, 충돌 경보 시스템과 같은 첨단 안전 자동차 기술은 지능형 자동차 기술의 기반 기술로서 다양한 연구 및 기술 개발에 많은 인력과 재원이 투입되고 있다.
이와 관련, 종래의 한국공개특허들은 스마트 크루즈 컨트롤(SCC;Smart Cruise Control)과 LKAS(Lane Keeping Assist System)를 적용하는데, 이는 차량의 제어 방향이 완전히 다르기 때문에 필요에 따라서는 두 기능의 동시 작동이 가능하다. 하지만, SCC와 LKAS를 동시에 작동시킨다 하더라도 각각이 지닌 고유의 기능, 즉 SCC는 운전자 차량을 기준으로 종방향 위협에 대한 대응을, LKAS는 횡방향 차선 이탈에 대한 기능만을 개별적으로 제공할 뿐이므로 종합적인 상황 대처가 어려운 문제가 있다.
종래의 기술은 SSC의 종방향 제어와 LKAS를 통한 횡방향 제어를 결합하여 자율주행과 유사한 형태의 제어가 가능하지만, Level 4~5의 완전 자율주행에서는 기존 ADAS 기술 대비 좀 더 강인한 기능들이 필요하고, 이를 위해서는 기존 영상인식 기반의 차선 인식 대비 더 정확한 차선인식 알고리즘을 필요하다.
또한 측방센서를 이용한 위험 감지 및 경보 기능이 작동되어 횡방향 위험 회피가 가능하다 해도, 종/횡방향의 종합적인 제어를 통하여 사람이 직접 수동으로 회피 운전을 하는 듯한 위험 회피 기능을 제공하는 것은 현실적으로 불가능하다.
또한 상술한 방식의 영상인식 기반의 어프로치만을 사용하는 경우, 차량 외부 환경의 변화 및 카메라로부터 입력되는 영상 화질에 따라 오검출이 나타나는 문제점이 있다.
본 발명은 영상인식 기반의 어프로치만을 사용하는 경우 발생되는 오검출을 감소시키는 자율주행을 위한 차선검출 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 차선 후보군을 설정하고 실제 차선이 존재하는 ROI(Region Of Interest)를 차선의 진행 방향에 따라 설정함으로서 보다 효과적으로 오검출을 제거하는 차선인식 방법을 제공하는 것을 다른 목적으로 한다.
상기 목적을 달성하기 위하여 본 발명은, 차선 검출 알고리즘에 있어서, 주행 중인 차량의 입력 영상을 전처리한 후 영상의 시점을 하늘에서 보는 아이피앰(IPM : Inverse Perspective Mapping) 영상으로 변환하여 입력 영상을 실시간으로 데이터화하는 제1 단계; 차량의 운전자가 기 설정된 주기 동안 주행하여 수집된 학습 정보와 아이피앰 영상을 비교하여 학습기반 차선 후보 영역을 검출하는 제2 단계; 및 학습기반 차선 후보 영역에서 노이즈를 제거하고 DA(Different Accumulation)를 적용하여 영상기반 차선 후보 영역을 검출하는 제3 단계;를 포함하는 자율주행을 위한 차선검출 방법을 제공하는 것을 특징으로 한다.
바람직하게, 제1 단계는, 아이피앰 영상을 기 설정된 기준값을 근거로 근거리 영역과 원거리 영역으로 나누는 과정; 및 근거리 영역은 제2 단계에서 처리하고 원거리 영역은 기 설정된 관심 영역(ROI : Region of Interest)에서 처리하는 과정;을 포함하고, 근거리 영역을 학습기반 차선 후보 영역에서 처리하여 오검출 영역을 감소시킬 수 있다.
바람직하게, DA(Different Accumulation)가 적용된 DA 이미지의 밝기값(Intensity)과 칼라이미지의 RGB값에 해당 픽셀의 MCT(Modified Census Transform)값을 융합하여 오프라인에서 미리 학습하는 과정;을 더 포함할 수 있다.
바람직하게, 제3 단계는, DA(Different Accumulation)가 적용된 DA 이미지를 생성하는 과정; 미디언 필터링(Median filtering)을 통해 노이즈를 제거하는 과정; 및 Angle 기반 필터링을 통해 에지(Edge)를 검출하는 과정;을 포함할 수 있다.
바람직하게, 제3 단계 이후, 차량의 노면 정보와 색상을 이용하여 최종 차선 후보군을 필터링하는 단계; 및 일정 범위에 대하여 ROI를 설정하여 ROI기반으로 영상기반 차선 후보 영역을 재검출하는 단계;를 더 포함할 수 있다.
바람직하게, 최종 차선 후보군에 대한 차선 Fitting을 수행하여 직전 또는 곡선의 커브 방정식을 산출하여 차선을 검출하는 단계;를 더 포함할 수 있다.
전술한 바와 같은 구성을 갖는 본 발명에 따르면, 학습기반 어프로치와 영상기반 어프로치를 융합하여 적용함으로써 노면 상태에 강인한 차선 검출이 가능한 이점이 있다.
또한 본 발명은, 근거리 차선 후보군을 사용하여 원거리 영상에 대해서 효과적인 ROI를 생성함으로서 전체적인 계산량을 줄여 오검출 감소를 하는 이점이 있다.
도 1은 본 발명의 실시예에 따른 자율주행을 위한 차선검출 방법의 순서도를 나타낸다.
도 2a 및 도 2b는 본 발명의 실시예에 따른 자율주행을 위한 차선검출 방법의 블록도 및 처리 순서도를 나타낸다. 도 1을 참조하면,
도 3a는 본 발명의 실시예에 따른 학습기반 및 영상기반 차선 후보 영역의 설정을 통해 차선 후보군을 검출하는 과정을 나타낸다.
도 3b는 종래의 영상처리 단독의 차선후보군 검출의 예를 나타낸다.
도 4a는 본 발명의 실시예에 따른 ROI 설정의 과정을 나타낸다.
도 4b는 본 발명의 실시예에 따라 ROI영역 내에서 최종적인 차선을 검출한 결과를 나타낸다.
도 5는 본 발명의 실시예에 따라 영상 내 curve fitting 전 최종 차선 검출 후보군 영상을 나타낸다.
도 6은 본 발명의 실시예에 따라 영상 내 curve fitting 후 최종 차선 검출 후보군 영상을 3차원 월드 좌표계 상에 가시화한 모습을 나타낸다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명을 상세히 설명한다. 다만, 본 발명이 예시적 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다.
본 발명의 목적 및 효과는 하기의 설명에 의해서 자연스럽게 이해되거나 보다 분명해 질 수 있으며, 하기의 기재만으로 본 발명의 목적 및 효과가 제한되는 것은 아니다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
도 1은 본 발명의 실시예에 따른 자율주행을 위한 차선검출 방법의 순서도를 나타낸다. 본 발명은 제1 단계(S10) 내지 제3 단계(S50)를 포함할 수 있다.
제1 단계(S10)는, 차선 검출 알고리즘에 있어서, 주행 중인 차량의 입력 영상을 바이래터럴 필터링(Bilateral Filtering)하여 입력 영상을 전처리한 후 영상의 시점을 하늘에서 보는 아이피앰(IPM : minuteInverse Perspective Mapping) 영상으로 변환하여 입력 영상을 실시간으로 데이터화하는 과정이다.
제2 단계(S30)는, 차량의 운전자가 기 설정된 주기 동안 주행하여 수집된 학습 정보와 아이피앰 영상을 비교하여 학습기반 차선 후보 영역을 검출하는 과정이다.
제3 단계(S50)는, 학습기반 차선 후보 영역에서 노이즈를 제거하고 DA(Different Accumulation)를 적용하여 영상기반 차선 후보 영역을 검출하는 과정이다.
도 2a 및 도2b는 본 발명의 실시예에 따른 자율주행을 위한 차선검출 방법의 블록도 및 처리 순서도를 나타낸다. 도 2a를 참조하면, Input Image부터 Lanes의 출력까지를 제1 단계(S10) 내지 제2 단계(S30)로, 도2b는 제3 단계(S50)로 블록도와 매칭시켜 표현하고 있다.
제1 단계(S10)는, 아이피앰 영상을 기 설정된 기준값을 근거로 근거리 영역과 원거리 영역으로 나누는 과정; 및 근거리 영역은 제2 단계에서 처리하고 원거리 영역은 기 설정된 관심 영역(ROI : Region of Interest)에서 처리하는 과정;을 포함하고, 근거리 영역을 학습기반 차선 후보 영역에서 처리하여 오검출 영역을 감소시킬 수 있다.
근거리 영역과 원거리 영역으로 나누는 과정은, 스마트폰이나 전면카메라 등으로부터 입력받은 Input Image를 영상 처리부 또는 영상 전처리부를 통해 전방 도로 영상을 획득으로 시작된다. 이렇게 획득된 영상을 일정한 크기로 구획하여 영역을 세분화시킬 수 있다. 일정 크기로 구획하거나 전체 영상 이미지의 (%) 단위로도 구획이 가능하며, 특정 수치로 한정되는 것은 아니다.
근거리 영역은 제2 단계에서 처리하고 원거리 영역은 기 설정된 관심 영역(ROI : Region of Interest)에서 처리하는 과정은, 각 구획된 영역을 세분화하여 처리하는 과정이다.
근거리 영역과 원거리 영역으로 나누는 목적은 오검출을 최소화하기 위한 후의 과정을 수월하게 하기 위한 과정이며, 근거리 영역은 학습기반 차선 후보 검출로 입력되고, 원거리 영역은 설정된 ROI 영역으로부터 다시 세부적으로 추출될 수 있다.
도 3a는 본 발명의 실시예에 따른 학습기반 및 영상기반 차선 후보 영역의 설정을 통해 차선 후보군을 검출하는 과정을 나타낸다. 본 발명의 실시예인 도 3a에 앞서 도 3b를 먼저 설명하면, 도 3b는 종래의 영상처리 단독의 차선후보군 검출의 예를 나타낸다.
도 3b의 경우, 기존의 학습기반이 아닌 영상기반의 검출기법으로 검출한 것으로 운전자의 운전 습관이 반영되지 않은 검출 결과 화면을 나타낸다. 이 경우 차선의 검출 외에도 노이즈가 다량 검출되는 결과를 확인할 수 있다.
본 발명의 도 3a를 살펴보면, 도 3a는 상술한 제2 단계의 실시된 화면으로 제2 단계는, DA(Different Accumulation)가 적용된 DA 이미지의 밝기값(Intensity)과 칼라이미지의 RGB값을 융합하여 오프라인에서 미리 학습하는 과정;을 더 포함할 수 있다.
학습기반 차선 후보군은 기능부(multiple feature)(101)와 검출부(Adaboost Classification)(102)를 통해 이루어질 수 있다. 기능부(101)는 입력 영상의 근거리 영역에서 DA 이미지의 밝기값(Intensity)과 칼라이미지의 RGB값에 해당 픽셀의 MCT(Modified Census Transform)값을 적용하여 생성된 복합 특징정보를 기반으로 특징을 추출하여 학습시키고, 검출부에서는 기존의 운전자가 주행시 입력받는 데이터를 기반으로 차선이 있는 영역을 미리 학습된 학습기를 사용하여 후보군으로 검출할 수 있다.
본 발명의 실시예에 따른 학습기반 차선 후보 영역은, 근거리 영역에서 추출된 차량 후보 영역에서 차선 후보를 추출하고 이를 벡터화한 뒤 산출될 수 있다. 또한,벡터가 가르키는 방향에서 원거리 차선에 대한 후보 영역을 다시 추출하는 과정에서 차량의 현재 속도, 횡방향 제어 결과 및 이전 프레임에서 자차와 좌/우측 차선과의 정보들이 ROI 영역을 특정하기 위해 추가적으로 사용될 수 있다.
제3 단계(S50)는, DA(Different Accumulation)가 적용된 DA 이미지를 생성하는 과정; 미디언 필터링(Median filtering)을 통해 노이즈를 제거하는 과정; 및 Angle 기반 필터링을 통해 에지(Edge)를 검출하는 과정;을 포함할 수 있다. 학습된 검출기를 사용하여 차선 후보 영역이 검출되면, 이를 통해 노이즈를 제거하여 추정된 차선 후보군을 검출할 수 있다.
이에 더하여 최종 차선 후보군이 선정되면 outlier filtering을 통해 노면 정보 및 색상 등을 통해 필터링을 할 수 있는 과정도 포함할 수 있다.
도 4a는 본 발명의 실시예에 따른 ROI 설정의 과정을 나타낸다. 도 4a를 참조하면, 근거리 또는 원거리 영역에 따른 클러스터링 된 차선 후보에 대해 ROI의 설정이 가능하다. 이 경우 상술한 제1 단계(S10) 및 제2 단계(S30)에서 변환된 입력 영상에서 차선이 이루는 근거리 영역의 벡터를 검출할 수 있다.
원거리 영역의 벡터는 위 벡터를 이용하여 아이피앰 영상의 원거리 부분에서 ROI를 추출하고 이렇게 추출된 영상에서 다시 DA를 수행하여 차선 특징점을 산출하는 과정을 거칠 수 있다. 원거리 영역의 벡터는 위의 차선 특징점을 산출한 이후, 이를 그룹핑하고 벡터화한 뒤, 노이즈의 필터링을 통해 검출될 수 있다.
원거리 후보 영역은, 상술한 근거리 영역의 벡터와 원거리 영역의 벡터들을 구성하는 특징점들로부터 최종적인 차선의 피팅을 통해 산출될 수 있다.
도 4b는 본 발명의 실시예에 따라 ROI영역 내에서 최종적인 차선을 검출한 결과를 나타낸다. 차량 진행 방향에 따라 설정된 영상에서 벡터를 검출할 수 있고, 이 벡터를 기반으로 차선 후보로 지정된 영역에서 각 차선을 검출할 수 있다. 벡터를 적용하여 차선에 대한 노이즈 문제점을 개선시킬 수 있다.
도 5 및 도 6은 본 발명의 실시예에 따라 영상 내 curve fitting 전 최종 차선 검출 후보군 영상과 curve fitting 후 최종 차선 검출 후보군 영상을 3차원 월드 좌표계 상에 가시화한 모습을 나타낸다.
제3 단계 이후, 차량의 노면 정보와 색상을 이용하여 최종 차선 후보군을 필터링하는 단계; 및 일정 범위에 대하여 ROI를 설정하여 ROI기반으로 영상기반 차선 후보 영역을 재검출하는 단계;를 더 포함할 수 있다.
또한 최종 차선 후보군에 대한 차선 Fitting을 수행하여 직전 또는 곡선의 커브 방정식을 산출하여 차선을 검출하는 단계;를 더 포함하여 곡선차로 내에서도 주행 차선의 검출을 할 수 있는 기능을 제공할 수 있다.
이상에서 대표적인 실시예를 통하여 본 발명을 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명한 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 특허청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다.
10 : 학습기반 차선후보검출 모듈 30 : 영상처리기반 차선후보검출 모듈
50 : ROI 검출부
101 : 기능부 102 : 검출부
301 : DA 이미지부 302 : 노이즈제거부
303 : 에지 검출부 304 : 각도 필터부
305 : 클러스터링부 306 : 출력 필터부
307 : 후보 검출부
501 : ROI 영역부 502 : 벡터 검출부
503 : ROI 계산부

Claims (6)

  1. 차선 검출 알고리즘에 있어서,
    주행 중인 차량의 입력 영상을 전처리한 후 영상의 시점을 하늘에서 보는 아이피앰(IPM : Inverse Perspective Mapping) 영상으로 변환하여 상기 입력 영상을 실시간으로 데이터화하는 제1 단계;
    상기 차량의 운전자가 기 설정된 주기 동안 주행하여 수집된 학습 정보와 상기 아이피앰 영상을 비교하여 학습기반 차선 후보 영역을 검출하는 제2 단계; 및
    상기 학습기반 차선 후보 영역에서 노이즈를 제거하고 DA(Different Accumulation)를 적용하여 영상기반 차선 후보 영역을 검출하는 제3 단계;를 포함하는 자율주행을 위한 차선검출 방법.
  2. 제 1 항에 있어서,
    상기 제1 단계는,
    상기 아이피앰 영상을 기 설정된 기준값을 근거로 근거리 영역과 원거리 영역으로 나누는 과정; 및
    상기 근거리 영역은 상기 제2 단계에서 처리하고 상기 원거리 영역은 기 설정된 관심 영역(ROI : Region of Interest)에서 처리하는 과정;을 포함하고,
    상기 근거리 영역을 상기 학습기반 차선 후보 영역에서 처리하여 오검출 영역을 감소시키는 것을 특징으로 하는 자율주행을 위한 차선검출 방법.
  3. 제 1 항에 있어서, 상기 제2 단계는,
    상기 DA(Different Accumulation)가 적용된 DA 이미지의 밝기값(Intensity)과 칼라이미지의 RGB값에 해당 픽셀의 MCT(Modified Census Transform)값을 융합하여 오프라인에서 미리 학습하는 과정;을 더 포함하는 것을 특징으로 하는 자율주행을 위한 차선검출 방법.
  4. 제 1 항에 있어서, 상기 제3 단계는,
    상기 DA(Different Accumulation)가 적용된 DA 이미지를 생성하는 과정;
    미디언 필터링(Median filtering)을 통해 노이즈를 제거하는 과정; 및
    Angle 기반 필터링을 통해 에지(Edge)를 검출하는 과정;을 포함하는 것을 특징으로 하는 자율주행을 위한 차선검출 방법.
  5. 제 1 항에 있어서,
    상기 제3 단계 이후,
    상기 차량의 노면 정보와 색상을 이용하여 최종 차선 후보군을 필터링하는 단계; 및
    일정 범위에 대하여 ROI를 설정하여 상기 ROI기반으로 상기 영상기반 차선 후보 영역을 재검출하는 단계;를 더 포함하는 자율주행을 위한 차선검출 방법.
  6. 제 5 항에 있어서,
    상기 최종 차선 후보군에 대한 차선 Fitting을 수행하여 직전 또는 곡선의 커브 방정식을 산출하여 차선을 검출하는 단계;를 더 포함하는 것을 특징으로 하는 자율주행을 위한 차선검출 방법.
KR1020160171324A 2016-12-15 2016-12-15 자율주행을 위한 차선검출 방법. KR102453782B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160171324A KR102453782B1 (ko) 2016-12-15 2016-12-15 자율주행을 위한 차선검출 방법.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160171324A KR102453782B1 (ko) 2016-12-15 2016-12-15 자율주행을 위한 차선검출 방법.

Publications (2)

Publication Number Publication Date
KR20180069282A KR20180069282A (ko) 2018-06-25
KR102453782B1 true KR102453782B1 (ko) 2022-10-11

Family

ID=62806078

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160171324A KR102453782B1 (ko) 2016-12-15 2016-12-15 자율주행을 위한 차선검출 방법.

Country Status (1)

Country Link
KR (1) KR102453782B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240074071A (ko) 2022-11-18 2024-05-28 주식회사 스프링클라우드 자율 주행 차량 및 그것의 주행 경로 결정 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102555374B1 (ko) * 2018-12-27 2023-07-14 삼성전자주식회사 전자 장치 및 그 제어 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007328410A (ja) 2006-06-06 2007-12-20 Mitsubishi Electric Corp 情報提供装置
EP2288138A1 (en) 2008-05-14 2011-02-23 Hitachi, Ltd. On-vehicle object detection device
JP2014096135A (ja) 2012-10-10 2014-05-22 Ricoh Co Ltd 移動面境界線認識装置、これを用いた移動体機器制御システム、移動面境界線認識方法及び移動面境界線認識用プログラム
JP2016081361A (ja) 2014-10-20 2016-05-16 株式会社日本自動車部品総合研究所 走行区画線認識装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396924B1 (ko) * 2012-11-01 2014-05-19 (주)언맨드솔루션 카메라를 이용한 차로폭 측정시스템
KR101906951B1 (ko) * 2013-12-11 2018-10-11 한화지상방산 주식회사 차선 검출 시스템 및 차선 검출 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007328410A (ja) 2006-06-06 2007-12-20 Mitsubishi Electric Corp 情報提供装置
EP2288138A1 (en) 2008-05-14 2011-02-23 Hitachi, Ltd. On-vehicle object detection device
JP2014096135A (ja) 2012-10-10 2014-05-22 Ricoh Co Ltd 移動面境界線認識装置、これを用いた移動体機器制御システム、移動面境界線認識方法及び移動面境界線認識用プログラム
JP2016081361A (ja) 2014-10-20 2016-05-16 株式会社日本自動車部品総合研究所 走行区画線認識装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240074071A (ko) 2022-11-18 2024-05-28 주식회사 스프링클라우드 자율 주행 차량 및 그것의 주행 경로 결정 방법

Also Published As

Publication number Publication date
KR20180069282A (ko) 2018-06-25

Similar Documents

Publication Publication Date Title
KR102109941B1 (ko) 라이다 센서 및 카메라를 이용한 객체 검출 방법 및 그를 위한 장치
US10783657B2 (en) Method and apparatus for vehicle position detection
Cui et al. Vehicle localisation using a single camera
US11003920B2 (en) Detection and planar representation of three dimensional lanes in a road scene
Haloi et al. A robust lane detection and departure warning system
KR20200060194A (ko) 차선들의 깊이값을 예측하는 방법, 3차원 차선들을 출력하는 방법 및 그 장치
US9665782B2 (en) Obstacle detecting apparatus and obstacle detecting method
KR101748780B1 (ko) 스테레오 카메라를 이용한 도로객체 인식방법 및 장치
US20180208201A1 (en) System and method for a full lane change aid system with augmented reality technology
US10108866B2 (en) Method and system for robust curb and bump detection from front or rear monocular cameras
US9558410B2 (en) Road environment recognizing apparatus
Feniche et al. Lane detection and tracking for intelligent vehicles: A survey
WO2021199584A1 (en) Detecting debris in a vehicle path
CN112825192A (zh) 基于机器学习的对象辨识系统及其方法
Yiruo et al. Complex ground plane detection based on v-disparity map in off-road environment
Javadi et al. A robust vision-based lane boundaries detection approach for intelligent vehicles
CN114067292A (zh) 用于智能驾驶的图像处理方法和装置
CN107220632B (zh) 一种基于法向特征的路面图像分割方法
KR102453782B1 (ko) 자율주행을 위한 차선검출 방법.
Surgailis et al. Avoiding forward car collision using stereo vision system
KR102188164B1 (ko) 3차원 데이터를 이용한 도로 인식 방법
JP6660367B2 (ja) 車外環境認識装置
Cardarelli et al. 44 Vision-Based Blind Spot Monitoring
US20220410942A1 (en) Apparatus and method for determining lane change of surrounding objects
Ma et al. A real-time rear view camera based obstacle detection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant