KR20160072659A - 차량의 주행차선인지 장치 및 방법 - Google Patents

차량의 주행차선인지 장치 및 방법 Download PDF

Info

Publication number
KR20160072659A
KR20160072659A KR1020140180598A KR20140180598A KR20160072659A KR 20160072659 A KR20160072659 A KR 20160072659A KR 1020140180598 A KR1020140180598 A KR 1020140180598A KR 20140180598 A KR20140180598 A KR 20140180598A KR 20160072659 A KR20160072659 A KR 20160072659A
Authority
KR
South Korea
Prior art keywords
lane
vehicle
image data
lateral
control module
Prior art date
Application number
KR1020140180598A
Other languages
English (en)
Other versions
KR101673716B1 (ko
Inventor
유병용
신기철
허명선
오영철
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020140180598A priority Critical patent/KR101673716B1/ko
Publication of KR20160072659A publication Critical patent/KR20160072659A/ko
Application granted granted Critical
Publication of KR101673716B1 publication Critical patent/KR101673716B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/02Occupant safety arrangements or fittings, e.g. crash pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/162Decentralised systems, e.g. inter-vehicle communication event-triggered

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 차량의 주행차선인지 장치 및 방법에 관한 것으로, 차량의 전방 및 측방에 대한 영상데이터를 획득하는 이미지센서를 포함하는 센서모듈, 차량의 전방 영상데이터를 분석하여 가상차선을 생성하고, 차량의 측방 영상데이터에서 추출된 측방차선과 가상차선의 비교결과에 따라 차량의 주행차선을 인지하는 제어모듈, 주행차선을 출력하는 출력모듈을 포함할 수 있고, 다른 실시 예로도 적용이 가능하다.

Description

차량의 주행차선인지 장치 및 방법{Apparatus and Method for Recognition of Drive Lane of Vehicle}
본 발명의 다양한 실시 예는 차량의 주행차선인지 장치 및 방법에 관한 것으로, 보다 구체적으로 차량의 전방 및 측방에서 획득된 영상데이터를 이용하여 상기 차량이 주행 중인 차선을 보다 정확하게 인지할 수 있는 차량의 주행차선인지 장치 및 방법에 관한 것이다.
정보통신 기술의 진전에 따라 정보통신 기술과의 접목을 통해 안전운전을 위한 다양한 기술이 개발되고 있고, 최근에는 차선이탈 경고 시스템(LDWS; Lane Departure Warning System)이나 차선 유지와 같은 안전운전 보조시스템, 차량 자동 제어시스템 등이 개발되어 실용화가 급속하게 진행되고 있다.
특히, 주행차선의 검출은 안전 운전에 지대한 영향을 미치므로, 차선의 위치를 추정하고 판단하기 위해 여러 가지 센서들을 활용하여 정확한 주행차선을 검출하는 것에 목적이 있다. 즉, 이미지 센서, 레이더(RADAR) 또는 라이다(LiDAR) 센서 등 다양한 센서들을 이용하여 차선의 검출이나 차선 전방의 물체 인식을 통해 주행차선을 검출하는 기술이 개발되고 있다. 이 중에서도 이미지 센서 특히, 차량의 전방에 대한 영상데이터를 획득하는 카메라를 이용한 주행차선 검출 기술은 저렴한 비용으로 많은 정보의 추출이 가능하고, 기존의 다양한 비전 처리 알고리즘을 활용할 수 있는 장점으로 인해 널리 사용되고 있다. 그러나, 카메라에서 촬영된 영상데이터로부터 추출된 차선은 실제 차선과 차이가 많아 정확한 차량 주행을 보장할 수 없는 문제점이 있다.
상기와 같이 종래의 문제점을 해결하기 위한 본 발명의 다양한 실시 예들은 차량의 전방 영상데이터로부터 생성된 가상차선과 차량의 측방 영상데이터에서 추출된 차선을 이용하여 차량이 주행 중인 차선을 보다 정확하게 인지할 수 있는 차량의 주행차선인지 장치 및 방법을 제공하는 것이다.
본 발명의 일 실시 예에 따른 차량의 주행차선인지 장치는 차량의 전방 및 측방에 대한 영상데이터를 획득하는 이미지센서를 포함하는 센서모듈, 상기 차량의 전방 영상데이터를 분석하여 가상차선을 생성하고, 상기 차량의 측방 영상데이터에서 추출된 측방차선과 상기 가상차선의 비교결과에 따라 상기 차량의 주행차선을 인지하는 제어모듈, 상기 주행차선을 출력하는 출력모듈을 포함할 수 있다.
또한, 상기 제어모듈은 상기 전방 영상데이터에서 추출된 전방차선으로부터 3차 함수 계수를 도출하고, 상기 3차 함수 계수에 기반하여 상기 차량의 측방에 대한 상기 가상차선을 생성할 수 있다.
또한, 상기 제어모듈은 상기 측방차선으로부터 상기 3차 함수 계수를 도출할 수 있다.
또한, 상기 제어모듈은 상기 차량이 주행 중인 도로를 형성하는 좌측차선과 우측차선 각각에 대한 lateral offset, relative heading angle, 1/2 curvature, 1/6 curvature rate를 포함하는 상기 3차 함수 계수를 추출할 수 있다.
또한, 상기 제어모듈은 상기 가상차선과 상기 측방차선의 비교결과 상기 가상차선이 기 설정된 적어도 하나의 조건에 수렴하지 않을 경우, 상기 전방차선을 보정하여 상기 주행차선을 인지할 수 있다.
아울러, 본 발명의 일 실시 예에 따른 차량의 주행차선인지 방법은 차량 전방에 대한 전방 영상데이터를 획득하는 단계, 상기 전방 영상데이터를 분석하여 가상차선을 생성하는 단계, 상기 차량 측방에 대한 측방 영상데이터를 획득하여 측방차선을 추출하는 단계, 상기 측방차선과 상기 가상차선의 비교결과에 따라 상기 차량의 주행차선을 인지하는 단계, 상기 주행차선을 출력하는 단계를 포함할 수 있다.
또한, 상기 가상차선을 획득하는 단계는 상기 전방 영상데이터를 분석하여 추출된 전방차선으로부터 3차 함수 계수를 도출하는 단계, 상기 3차 함수 계수에 기반하여 상기 차량의 측방에 대한 상기 가상차선을 생성하는 단계를 포함할 수 있다.
또한, 상기 측방차선을 추출하는 단계는 상기 측방차선으로부터 상기 3차 함수 계수를 도출하는 단계를 더 포함할 수 있다.
또한, 상기 차량의 주행차선을 인지하는 단계는 상기 가상차선과 상기 측방차선의 비교결과 상기 가상차선이 기 설정된 적어도 하나의 조건에 수렴하지 않으면 상기 전방차선을 보정하는 단계를 더 포함하고, 상기 보정된 전방차선을 상기 차량의 주행차선으로 인지하는 단계일 수 있다.
상술한 바와 같이 본 발명은 차량의 주행차선인지 장치 및 방법은 차량의 전방 영상데이터로부터 생성된 가상차선과 차량의 측방 영상데이터에서 추출된 차선을 이용하여 차량이 주행 중인 차선을 보정함으로써 차량이 주행 중인 차선을 보다 정확하게 인지할 수 있다.
도 1은 본 발명의 실시 예에 따른 주행차선인지 장치의 주요 구성을 나타내는 도면이다.
도 2는 본 발명의 실시 예에 따른 주행 중인 차선을 보정하는 방법을 설명하기 위한 도면이다.
도 3은 본 발명의 실시 예에 따른 주행차선인지 방법을 설명하기 위한 도면이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면과 연관되어 기재된다. 본 발명의 다양한 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시 예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시 예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
도 1은 본 발명의 실시 예에 따른 주행차선인지 장치의 주요 구성을 나타내는 도면이다.
도 1을 참조하면, 본 발명에 따른 주행차선인지장치(100)는 통신모듈(110), 센서모듈(120), 입력모듈(130), 출력모듈(140), 메모리(150) 및 제어모듈(160)을 포함할 수 있다. 아울러, 본 발명의 실시 예에서 설명하고 있는 주행차선인지장치(100)는 네비게이션(Navigation), AVM(Around View Monitor) 등으로 적용될 수 있다.
통신모듈(110)은 센서모듈(120), 입력모듈(130), 출력모듈(140), 메모리(150) 및 제어모듈(160) 사이의 통신을 통해 CAN(Controller Area Network), CAN-FD(CAN with Flexible Data rate), FlexRay, MOST(Media Oriented Systems Transport), TT Ethernet(Time Triggered Ethernet) 등의 다양한 차량 내 통신을 수행할 수 있다.
센서모듈(120)은 차량의 전방에 대한 영상데이터(이하, 전방 영상데이터라 함)를 획득하고, 차량의 측방에 대한 영상데이터(이하, 측방 영상데이터라 함)를 획득하기 위한 복수개의 이미지센서(121)를 포함할 수 있다. 센서모듈(120)은 통신모듈(110)을 통해 이미지센서(121)에서 획득된 영상데이터를 제어모듈(160)로 제공할 수 있다. 이때, 측방 영상데이터를 획득하는 이미지센서(121)는 AVM을 위해 구비된 이미지센서를 의미할 수도 있다.
입력모듈(130)은 외부로부터의 입력에 따른 제어신호를 생성할 수 있다. 이를 위해, 입력모듈(130)은 키패드, 터치패드, 터치스크린 등의 입력장치로 형성될 수 있으며, 입력모듈(130)이 터치스크린으로 형성된 경우, 출력모듈(140)의 기능도 같이 수행할 수 있다.
출력모듈(140)은 제어모듈(160)의 제어에 의해 차량의 주행정보 및 차량이 주행 중인 차선을 출력할 수 있다. 이를 위해, 출력모듈(140)은 LCD, 터치스크린 등의 출력장치로 형성될 수 있다.
메모리(150)는 주행차선인지장치(100)를 동작시키기 위한 프로그램 등을 저장할 수 있다. 특히, 메모리(150)는 이미지센서(121)에서 획득된 전방 영상데이터에서 전방차선을 추출하고, 측방 영상데이터에서 측방차선을 추출하기 위한 알고리즘을 저장할 수 있다. 메모리(150)는 추출된 전방차선으로부터 3차 함수 계수를 도출하기 위한 알고리즘을 저장할 수 있다. 메모리(150)는 3차 함수 계수를 이용하여 가상차선을 생성하고, 생성된 가상차선과 측방차선의 비교결과에 따라 전방차선을 보정하여 주행차선을 생성하기 위한 알고리즘을 저장할 수 있다.
제어모듈(160)은 차량의 영상 전방데이터를 분석하여 가상차선을 생성하고, 차량의 측방 영상데이터에서 추출된 측방차선과 가상차선을 비교할 수 있다. 제어모듈(160)은 측방차선과 가상차선의 비교결과에 따라 차량의 주행차선을 인지할 수 있다. 도 2는 본 발명의 실시 예에 따른 주행 중인 차선을 보정하는 방법을 설명하기 위한 도면이다.
도 2의 (a)를 참조하면, 차량 전방에 구비된 이미지센서(121)에서 획득된 전방 영상데이터는 210과 같을 수 있다. 제어모듈(160)은 전방 영상데이터(210)를 분석하여 주행 중인 도로의 좌측차선(LL)과 우측차선(RL)으로 형성된 전방차선을 추출할 수 있고, 추출된 전방차선으로부터 3차 함수 계수를 도출할 수 있다. 일 실시 예에 따르면 전방차선으로부터 도출된 3차 함수 계수는 전방차선에 대한 lateral offset, relative heading angle, 1/2 curvature, 1/6 curvature rate일 수 있다. 이때, lateral offset은 차선과 차량의 횡방향 거리, relative headind angle은 차선과 자차의 각도, curvature는 곡률, curvature rate는 곡률의 변화율을 나타낼 수 있다.
제어모듈(160)은 도출된 3차 함수 계수를 이용하여 도 2의 (b)에서와 같이 차량(201)이 주행 중인 도로의 가상차선에 대한 y함수를 생성할 수 있다. 이때, 가상차선은 전방차선을 기준으로 차량(201)의 좌우, 즉 측방에 위치할 것이라고 예상되는 가상의 차선을 의미할 수 있다. 또한, 가상차선은 좌측차선(LL1)과 우측차선(RL1)으로 형성될 수 있다. 이를 위해, 제어모듈(160)은 하기의 수학식 1을 이용할 수 있다.
Figure pat00001
(단. a는 1/6 curvature rate, b는 1/2 curvature, c는 relative heading angle, d는 lateral offset, x는 longitudinal distance)
차량 전방에 구비된 이미지센서(121)에서 획득된 측방 영상데이터는 도 2의 (c)에서 220L, 220R과 같을 수 있다. 제어모듈(160)은 측방 영상데이터(220L, 220R)을 분석하여 주행 중인 도로의 좌측차선(LL2)과 우측차선(RL2)으로 형성된 측방차선을 추출할 수 있다. 제어모듈(160)은 추출된 측방차선(LL2, RL2)으로부터 3차 함수 계수를 도출할 수 있다.
제어모듈(160)은 도출된 3차 함수 계수를 이용하여 하기의 수학식 2와 같이 측방 영상데이터로부터 인지된 측방차선을 기준으로 하는 레퍼런스 함수인
Figure pat00002
함수를 생성할 수 있다.
Figure pat00003
(단, α는 1/6 curvature rate, β는 1/2 curvature, γ는 relative heading angle, δ는 lateral offset, x는 longitudinal distance)
제어모듈(160)은 y와
Figure pat00004
를 비교할 수 있다. 제어모듈(160)은 차량(201)과 근접한 측방차선으로
Figure pat00005
함수를 생성하였으므로, y함수에 대한 c, d값과
Figure pat00006
함수에 대한 γ,δ값을 비교할 수 있다. 차량(201)의 전방에 곡률이 발생되는 경우, 비교결과에 오차가 발생할 확률이 높아지므로, c, d값과 γ,δ값을 비교할 수 있다.
제어모듈(160)은 c, d값과 γ,δ값을 비교하여 비교결과가 하기의 수학식 3 및 수학식 4의 조건식에 수렴하는지 확인할 수 있다. 이때, 비교결과는 도 2의 (d)와 같을 수 있다.
Figure pat00007
(단,
Figure pat00008
은 가상차선의 좌측차선(LL1)에 대한 1/2 curvature 값,
Figure pat00009
은 측방차선의 좌측차선(LL2)에 대한 1/2 curvature 값,
Figure pat00010
는 가상차선의 우측차선(RL1)의 1/2 curvature 값,
Figure pat00011
는 측방차선의 우측차선(RL2)에 대한 1/2 curvature 값,
Figure pat00012
는 임계값일 수 있다. )
Figure pat00013
(단,
Figure pat00014
은 가상차선의 좌측차선(LL1)에 대한 1/6 curvature rate 값,
Figure pat00015
은 측방차선의 좌측차선(LL2)에 대한 1/6 curvature rate 값,
Figure pat00016
는 가상차선의 우측차선(RL1)의 1/6 curvature rate 값,
Figure pat00017
는 측방차선의 우측차선(RL2)에 대한 1/6 curvature rate 값,
Figure pat00018
는 임계값일 수 있다. )
제어모듈(160)은 비교결과가 수학식 3 및 수학식 4에 해당하는 각각의 조건식 1과 조건식 2 중 적어도 하나의 조건식에 수렴하지 않을 경우, 전방차선을 도 2의 (e)와 같이 보정하여 주행차선으로 인지할 수 있다.
일 실시 예에 따르면, 제어모듈(160)은 비교결과가 조건식 1에 수렴하지 못할 경우, y함수에서 a, b, d는 유지하되 c를 γ으로 대체하여 좌측차선(LL)과 우측차선(RL)의 curvature 값을 보정할 수 있다. 제어모듈(160)은 보정된 전방차선을 주행차선으로 인지할 수 있다.
일 실시 예에 따르면, 제어모듈(160)은 비교결과가 조건식 2에 수렴하지 못할 경우, y함수에서 a, b, c는 유지하되 d를 δ로 대체하여 좌측차선(LL)과 우측차선(RL)의 lateral offset 값을 보정할 수 있다. 제어모듈(160)은 보정된 전방차선을 주행차선으로 인지할 수 있다.
일 실시 예에 따르면, 제어모듈(160)은 비교결과가 조건식 1 및 조건식 2 모두에 수렴하지 못할 경우, 전방 영상데이터로부터 추출한 전방차선이 신뢰성이 없는 정보이기 때문에 a, b 값을 칼만 필터를 통해 업데이트할 수 있다. 예컨대, 제어모듈(160)은 y함수에서 a, b 값을 칼만 필터 출력 예측값 예컨대,
Figure pat00019
로 대체하고, c, d 값은 γ,δ값으로 대체하여 좌측차선(LL)과 우측차선(RL)의 curvature 값 및 lateral offset 값을 보정할 수 있다. 제어모듈(160)은 보정된 전방차선을 주행차선으로 인지할 수 있다. 이때, 제어모듈(160)은 칼만 필터를 적용하여 이미지센서(121)에서 영상데이터가 획득되는 간격 사이의 차선정보를 보정하는 것을 예로 설명하고 있으나, 반드시 이에 한정되는 것은 아니며, 파티클 필터 등 다양한 필터가 적용될 수 있다.
일 실시 예에 따르면, 제어모듈(160)은 비교결과가 조건식 1 및 조건식 2에서 &를 기준으로 어느 한 쪽의 조건에만 수렴할 경우, 좌우차선 중 한쪽 차선 정보만 정확한 것으로 인지할 수 있다. 제어모듈(160)은 정확한 것으로 인지된 차선 정보(y함수에서 a, b, c)를 정확하지 않은 다른 차선 정보에 반영하여 다른 차선을 보정할 수 있다. 제어모듈(160)은 보정된 전방차선을 주행차선으로 인지할 수 있다.
일 실시 예에 따르면, 제어모듈(160)은 측방에 구비된 이미지센서(121)의 동작이 불가능할 경우, 전방 영상데이터에서 추출된 전방차선과 칼만 필터 출력 예측값을 이용하여 주행 중인 차선을 인지할 수 있다.
제어모듈(160)은 인지된 주행차선을 출력모듈(140)에 출력할 수 있다. 이때, 제어모듈(160)은 보정되기 이전에 전방 영상데이터에서 추출된 전방차선과 주행차선을 같이 출력할 수도 있다.
도 3은 본 발명의 실시 예에 따른 주행차선인지 방법을 설명하기 위한 도면이다.
도 1 내지 도 3을 참조하면, 11단계에서 제어모듈(160)은 차량의 전방에 구비된 이미지센서(121)를 제어하여 주행 중인 차량의 전방에 대한 영상데이터(이하, 전방 영상데이터라 함)를 획득할 수 있다. 13단계에서 제어모듈(160)은 획득된 전방 영상데이터로부터 3차 함수 계수를 도출할 수 있다. 이를 위해, 제어모듈(160)은 전방 영상데이터를 분석하여 전방 영상데이터에 포함된 전방차선을 추출하고, 추출된 전방차선으로부터 3차 함수 계수를 도출할 수 있다.
15단계에서 제어모듈(160)은 차량 주변 예컨대, 차량 측방에 구비된 이미지센서(121)를 제어하여 주행 중인 차량의 측방에 대한 영상데이터(이하, 측방 영상데이터라 함)의 획득이 가능한지 확인할 수 있다. 15단계의 확인결과, 측방 영상데이터의 획득이 가능하면 제어모듈(160)은 17단계를 수행할 수 있다. 제어모듈(160)은 측방에 구비된 이미지센서(121)의 오작동으로 인하여 측방 영상데이터의 획득이 불가능하면 27단계를 수행할 수 있다. 27단계에서 제어모듈(160)은 13단계에서 추출된 전방차선과 칼만 필터 출력 예측값을 이용하여 주행 중인 차선을 주행차선으로 인지하여 출력모듈(140)에 출력할 수 있다.
17단계에서 제어모듈(160)은 13단계에서 도출된 3차 함수 계수를 이용하여 가상차선을 생성할 수 있다. 이때, 가상차선은 주행 중인 차량의 측방에 위치한 차선을 추정한 것일 수 있다.
19단계에서 제어모듈(160)은 이미지센서(121)로부터 측방 영상데이터를 획득하고, 21단계를 수행할 수 있다. 21단계에서 제어모듈(160)은 획득된 측방 영상데이터를 분석하여 측방 영상데이터에 포함된 측방차선을 추출하고, 추출된 측방차선으로부터 3차 함수 계수를 도출할 수 있다. 이때, 3차 함수 계수는 도 1 및 도 2에서 설명하였으므로 상세한 설명을 생략하기로 한다.
23단계에서 제어모듈(160)은 가상차선과 측방차선을 비교하고, 가상차선과 측방차선이 특정 조건을 만족하면 27단계를 수행하고, 특정 조건을 만족하지 않으면 25단계를 수행할 수 있다. 이때, 상기 특정 조건에 대해서는 도 1 및 도 2에서 설명하였으므로 상세한 설명을 생략하기로 한다. 25단계에서 제어모듈(160)은 13단계에서 추출된 전방차선을 보정할 수 있다. 27단계에서 제어모듈(160)은 보정된 전방차선을 주행차선으로 인지하여 이를 출력모듈(140)을 통해 출력할 수 있다.
그리고 본 명세서와 도면에 발명된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 발명된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 주행차선인지장치 110: 통신모듈
120: 센서모듈 121: 이미지센서
130: 입력모듈 140: 출력모듈
150: 메모리 160: 제어모듈

Claims (9)

  1. 차량의 전방 및 측방에 대한 영상데이터를 획득하는 이미지센서를 포함하는 센서모듈;
    상기 차량의 전방 영상데이터를 분석하여 가상차선을 생성하고, 상기 차량의 측방 영상데이터에서 추출된 측방차선과 상기 가상차선의 비교결과에 따라 상기 차량의 주행차선을 인지하는 제어모듈;
    상기 주행차선을 출력하는 출력모듈;
    을 포함하는 주행차선인지 장치.
  2. 제1항에 있어서,
    상기 제어모듈은
    상기 전방 영상데이터에서 추출된 전방차선으로부터 3차 함수 계수를 도출하고, 상기 3차 함수 계수에 기반하여 상기 차량의 측방에 대한 상기 가상차선을 생성하는 주행차선인지 장치.
  3. 제2항에 있어서,
    상기 제어모듈은
    상기 측방차선으로부터 상기 3차 함수 계수를 도출하는 주행차선인지 장치.
  4. 제3항에 있어서,
    상기 제어모듈은
    상기 차량이 주행 중인 도로를 형성하는 좌측차선과 우측차선 각각에 대한 lateral offset, relative heading angle, 1/2 curvature, 1/6 curvature rate를 포함하는 상기 3차 함수 계수를 추출하는 주행차선인지 장치.
  5. 제1항에 있어서,
    상기 제어모듈은
    상기 가상차선과 상기 측방차선의 비교결과 상기 가상차선이 기 설정된 적어도 하나의 조건에 수렴하지 않을 경우, 상기 전방차선을 보정하여 상기 주행차선을 인지하는 주행차선인지 장치.
  6. 차량 전방에 대한 전방 영상데이터를 획득하는 단계;
    상기 전방 영상데이터를 분석하여 가상차선을 생성하는 단계;
    상기 차량 측방에 대한 측방 영상데이터를 획득하여 측방차선을 추출하는 단계;
    상기 측방차선과 상기 가상차선의 비교결과에 따라 상기 차량의 주행차선을 인지하는 단계;
    상기 주행차선을 출력하는 단계;
    를 포함하는 주행차선인지 방법.
  7. 제6항에 있어서,
    상기 가상차선을 획득하는 단계는
    상기 전방 영상데이터를 분석하여 추출된 전방차선으로부터 3차 함수 계수를 도출하는 단계;
    상기 3차 함수 계수에 기반하여 상기 차량의 측방에 대한 상기 가상차선을 생성하는 단계;
    를 포함하는 주행차선인지 방법.
  8. 제7항에 있어서,
    상기 측방차선을 추출하는 단계는
    상기 측방차선으로부터 상기 3차 함수 계수를 도출하는 단계;
    를 더 포함하는 주행차선인지 방법.
  9. 제6항에 있어서,
    상기 차량의 주행차선을 인지하는 단계는
    상기 가상차선과 상기 측방차선의 비교결과 상기 가상차선이 기 설정된 적어도 하나의 조건에 수렴하지 않으면 상기 전방차선을 보정하는 단계;
    를 더 포함하고,
    상기 보정된 전방차선을 상기 차량의 주행차선으로 인지하는 단계인 주행차선인지 방법.
KR1020140180598A 2014-12-15 2014-12-15 차량의 주행차선인지 장치 및 방법 KR101673716B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140180598A KR101673716B1 (ko) 2014-12-15 2014-12-15 차량의 주행차선인지 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140180598A KR101673716B1 (ko) 2014-12-15 2014-12-15 차량의 주행차선인지 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20160072659A true KR20160072659A (ko) 2016-06-23
KR101673716B1 KR101673716B1 (ko) 2016-11-07

Family

ID=56353336

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140180598A KR101673716B1 (ko) 2014-12-15 2014-12-15 차량의 주행차선인지 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101673716B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230085787A (ko) 2021-12-06 2023-06-14 국민대학교산학협력단 군집주행 차선인지를 위한 슬라이딩 윈도우 이중 보정 방법 및 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102628012B1 (ko) 2018-10-23 2024-01-22 삼성전자주식회사 캘리브레이션 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060006716A (ko) * 2004-07-16 2006-01-19 주식회사 현대오토넷 이중 차선이탈 경보 장치 및 방법
JP2010211283A (ja) * 2009-03-06 2010-09-24 Nissan Motor Co Ltd 車線認識装置及び方法
KR20130054660A (ko) * 2011-11-17 2013-05-27 현대모비스 주식회사 차량의 전방 영상 및 측방 영상을 이용한 차선 인식 향상 시스템 및 그 방법
KR20140030636A (ko) * 2012-09-03 2014-03-12 엘지이노텍 주식회사 차선 보정 시스템, 차선 보정 장치 및 이의 차선 보정 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060006716A (ko) * 2004-07-16 2006-01-19 주식회사 현대오토넷 이중 차선이탈 경보 장치 및 방법
JP2010211283A (ja) * 2009-03-06 2010-09-24 Nissan Motor Co Ltd 車線認識装置及び方法
KR20130054660A (ko) * 2011-11-17 2013-05-27 현대모비스 주식회사 차량의 전방 영상 및 측방 영상을 이용한 차선 인식 향상 시스템 및 그 방법
KR20140030636A (ko) * 2012-09-03 2014-03-12 엘지이노텍 주식회사 차선 보정 시스템, 차선 보정 장치 및 이의 차선 보정 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230085787A (ko) 2021-12-06 2023-06-14 국민대학교산학협력단 군집주행 차선인지를 위한 슬라이딩 윈도우 이중 보정 방법 및 장치

Also Published As

Publication number Publication date
KR101673716B1 (ko) 2016-11-07

Similar Documents

Publication Publication Date Title
JP7461720B2 (ja) 車両位置決定方法及び車両位置決定装置
KR102499398B1 (ko) 차선 검출 방법 및 장치
JP4962581B2 (ja) 区画線検出装置
US10127460B2 (en) Lane boundary line information acquiring device
KR102355321B1 (ko) 차선 유지 보조 시스템 및 차선 유지 보조 방법
EP3007099A1 (en) Image recognition system for a vehicle and corresponding method
US20120136510A1 (en) Apparatus and method for detecting vehicles using laser scanner sensors
US9436878B2 (en) Lane mark recognition device
US10339393B2 (en) Demarcation line recognition apparatus
CN111645679B (zh) 用于车辆的侧面碰撞风险估计系统
US9542607B2 (en) Lane boundary line recognition device and computer-readable storage medium storing program of recognizing lane boundary lines on roadway
US9688275B2 (en) Travel lane marking recognition apparatus
JP2018048949A (ja) 物体識別装置
KR101268282B1 (ko) 차량용 내비게이션의 차선 이탈 알림 시스템 및 방법
KR101628547B1 (ko) 주행 차선 확인 장치 및 방법
US9930323B2 (en) Method of misalignment correction and diagnostic function for lane sensing sensor
KR101673716B1 (ko) 차량의 주행차선인지 장치 및 방법
EP3588374A1 (en) Line detector for vehicle, method of detecting line for vehicle, and computer program product
KR101875517B1 (ko) 영상 처리 방법 및 장치
KR20170127665A (ko) 차량의 위치 추정 시스템 및 이를 이용한 차량의 위치 추정 방법
CN115703471A (zh) 驾驶员注意力以及手放置系统和方法
KR102195364B1 (ko) 차선 추정 장치 및 방법
JP4225242B2 (ja) 走行路認識装置
KR102203947B1 (ko) 차선 유지 보조 시스템 및 그의 차선 유지 제어 방법
US20130141575A1 (en) Driving assistance system and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191029

Year of fee payment: 4