KR101641251B1 - 차선 인식 장치 및 그 방법 - Google Patents

차선 인식 장치 및 그 방법 Download PDF

Info

Publication number
KR101641251B1
KR101641251B1 KR1020110078353A KR20110078353A KR101641251B1 KR 101641251 B1 KR101641251 B1 KR 101641251B1 KR 1020110078353 A KR1020110078353 A KR 1020110078353A KR 20110078353 A KR20110078353 A KR 20110078353A KR 101641251 B1 KR101641251 B1 KR 101641251B1
Authority
KR
South Korea
Prior art keywords
lane
lanes
vehicle
detected
equations
Prior art date
Application number
KR1020110078353A
Other languages
English (en)
Other versions
KR20130015978A (ko
Inventor
김종헌
박영경
이중재
김현수
박준오
안드레아스 박
디르 산드라 셰이커
이제훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110078353A priority Critical patent/KR101641251B1/ko
Priority to PCT/KR2012/000190 priority patent/WO2013022159A1/en
Publication of KR20130015978A publication Critical patent/KR20130015978A/ko
Application granted granted Critical
Publication of KR101641251B1 publication Critical patent/KR101641251B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Abstract

본 명세서는 차량의 주행 차선을 정확히 인식할 수 있는 차선 인식 장치 및 그 방법에 관한 것이다. 본 명세서에 따른 차선 인식 장치는, 카메라 모듈과; 상기 카메라 모듈에 의해 촬영된 영상을 표시하는 표시부와; 상기 카메라 모듈에 의해 촬영된 영상으로부터 검출된 차선 특징점들과 서로 다른 차선 방정식들을 근거로 검출된 차선들 중에서 차선 적합도를 기초로 후보 차선들을 검출하고, 상기 검출된 후보 차선들 중에서 차량에 인접한 차선들을 차량의 현재 주행 차선들로서 상기 영상에 표시하는 제어부를 포함할 수 있다.

Description

차선 인식 장치 및 그 방법{APPARATUS FOR DETECTING LANE AND METHOD THEREOF}
본 명세서는 차선 인식 장치 및 그 방법에 관한 것이다.
일반적으로, 차선 인식 장치는 카메라 등을 통해 입력된 또는 외부 단말로부터 수신된 임의의 영상에 포함된 차선을 인식하는 장치이다. 종래 기술에 따른 차선 인식 장치는 한국 특허 공개 번호 1995-0017509에도 개시되어 있다.
본 명세서는 차선을 정확히 인식할 수 있는 차선 인식 장치 및 그 방법을 제공하는 데 목적이 있다.
본 명세서는 카메라 모듈에 의해 촬영된 영상으로부터 검출된 차선 특징점들과 서로 다른 차선 방정식들을 근거로 검출된 차선들 중에서 차선 적합도를 기초로 차선을 검출함으로써 차선을 정확히 검출할 수 있는 차선 인식 장치 및 그 방법을 제공하는 데 목적이 있다.
상기 목적을 달성하기 위한 본 명세서에 따른 차선 인식 장치는, 카메라 모듈과; 상기 카메라 모듈에 의해 촬영된 영상을 표시하는 표시부와; 상기 카메라 모듈에 의해 촬영된 영상으로부터 검출된 차선 특징점들과 서로 다른 차선 방정식들을 근거로 검출된 차선들 중에서 차선 적합도를 기초로 후보 차선들을 검출하고, 상기 검출된 후보 차선들 중에서 차량에 인접한 차선들을 차량의 현재 주행 차선들로서 상기 영상에 표시하는 제어부를 포함할 수 있다.
본 명세서와 관련된 일 예로서, 상기 차선 적합도는 상기 차선 특징점들을 상기 서로 다른 차선 방정식들에 대입하고, 상기 대입 결과에 따른 차선과 상기 차선 특징점들의 거리 오차의 합을 근거로 미리 결정될 수 있다.
본 명세서와 관련된 일 예로서, 상기 차선 적합도는 상기 차선 특징점들의 개수 및 상기 차선 특징점들이 분포된 범위를 더 포함하여 결정될 수 있다.
본 명세서와 관련된 일 예로서, 상기 제어부는 상기 카메라 모듈에 의해 촬영된 영상으로부터 검출된 차선 특징점들과 서로 다른 차선 방정식들을 근거로 검출된 차선들 중에서 상기 차선 특징점들과 상기 검출된 차선들 간의 거리 오차가 상기 임계값 이하인 차선들을 상기 후보 차선들로서 검출할 수 있다.
본 명세서와 관련된 일 예로서, 상기 제어부는 상기 촬영된 영상에서 차선 특징점들을 검출하고, 상기 검출한 차선 특징점들에 상기 서로 다른 차선 방정식들을 순차적으로 대입시킴으로써 검출된 차선들 중에서 상기 임계값 이하의 차선 오차를 갖는 차선들을 상기 후보 차선들로서 검출할 수 있다.
본 명세서와 관련된 일 예로서, 상기 제어부는 상기 촬영된 영상에서 차선 특징점들을 검출하고, 상기 차선 특징점들을 월드 좌표로 변환하고, 상기 월드 좌표로 변환된 차선 특징점들 상기 서로 다른 차선 방정식들을 순차적으로 대입시킴으로써 검출된 차선들 중에서 상기 임계값 이하의 차선 오차를 갖는 차선들을 상기 후보 차선들로서 검출할 수 있다.
상기 목적을 달성하기 위한 본 명세서에 따른 차선 인식 방법은, 카메라 모듈에 의해 촬영된 영상을 표시부에 표시하는 단계와; 상기 카메라 모듈에 의해 촬영된 영상으로부터 검출된 차선 특징점들과 서로 다른 차선 방정식들을 근거로 검출된 차선들 중에서 차선 적합도를 기초로 후보 차선들을 검출하는 단계와; 상기 검출된 후보 차선들 중에서 차량에 인접한 차선들을 차량의 현재 주행 차선들로서 상기 영상에 표시하는 단계를 포함할 수 있다.
본 발명의 실시예에 따른 차선 인식 장치 및 그 방법은, 카메라 모듈에 의해 촬영된 영상으로부터 검출된 차선 특징점들과 서로 다른 차선 방정식들을 근거로 검출된 차선들 중에서 차선 적합도를 기초로 차선을 검출함으로써 차선을 정확히 검출할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 차선 인식 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따라 카메라에 의해 촬영된 영상을 나타낸 예시도이다.
도 3은 본 발명의 일 실시예에 따른 가이드 라인을 나타낸 예시도이다.
도 4는 본 발명의 일 실시예에 따른 차선 특징점들을 나타낸 예시도이다.
도 5는 본 발명의 일 실시예에 따라 월드 좌표로 변환된 차선 특징점들을 나타낸
도 6은 본 발명의 일 실시예에 따른 주행 차선들을 나타낸 도이다.
도 7은 본 발명의 일 실시예에 따라 표시부에 표시된 영상 및 차선들을 나타낸 도이다.
도 8은 본 발명의 일 실시예에 따른 차선 인식 방법을 나타낸 흐름도이다.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
이하에서는, 본 발명의 실시예에 따른 차선 인식 장치의 구성을 도 1을 참조하여 설명한다. 여기서, 도 1의 차선 인식 장치는, 스탠드 얼론(stand alone)으로 구성될 수 있을 뿐만 아니라, 이동 단말기(Mobile Terminal), 텔레매틱스 단말기(Telematics Terminal), 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 개인 정보 단말기(Personal Digital Assistant : PDA), 휴대용 멀티미디어 플레이어(Portable Multimedia Player : PMP), 태블릿 PC(Tablet PC), 와이브로(Wibro) 단말기, 내비게이션(Navigation) 단말기, AVN(Audio Video Navigation) 단말기 등과 같이 다양한 단말기에 적용될 수 있다.
도 1은 본 발명의 일 실시예에 따른 차선 인식 장치의 구성을 나타낸 블록도이다.
도 1에 도시한 바와 같이, 본 발명의 일 실시예에 따른 차선 인식 장치(10)는, 카메라 모듈(110)과; 상기 카메라 모듈(110)에 의해 촬영된 영상을 표시하는 표시부(130)와; 상기 카메라 모듈(110)에 의해 촬영된 영상에서 서로 다른 차선 방정식들(또는 커브 방정식)을 대입시킴으로써 검출된 차선들 중에서 차선 적합도를 기초로 후보 차선들을 검출하고, 상기 검출된 후보 차선들 중에서 차량에 인접한 차선들(예를 들면, 차량의 좌측에 인접한 차선 및 차량의 우측에 인접한 차선)을 차량의 현재 주행 차선들로서 상기 영상에 표시하는 제어부(120)로 구성된다. 상기 차선 적합도는 상기 차선 특징점들을 상기 서로 다른 차선 방정식들에 대입하고, 상기 대입 결과에 따른 차선과 상기 차선 특징점들의 거리 오차의 합을 근거로 미리 결정될 수 있다.
상기 제어부(120)는 상기 카메라 모듈(110)에 의해 촬영된 영상으로부터 검출된 차선 특징점들과 서로 다른 차선 방정식들을 근거로 검출된 차선들 중에서 상기 차선 특징점들과 상기 검출된 차선들 간의 거리 오차가 상기 임계값 이하인 차선들을 상기 후보 차선들로서 검출할 수도 있다. 예를 들면, 상기 제어부(120)는 상기 촬영된 영상에서 차선 특징점들(지지점들)을 검출하고, 그 검출한 차선 특징점들에 차선(직선 및/또는 곡선)을 검출하는 서로 다른 차선 방정식들을 순차적으로(예를 들면, 저차 차선 방정식(1차 차선 방정식)에서 고차 차선 방정식(3차 차선 방정식) 순으로 또는 고차 차선 방정식(3차 차선 방정식)에서 저차 차선 방정식(1차 차선 방정식) 순으로) 대입시킴으로써 검출된 차선들 중에서 임계값 이하의 차선 오차를 갖는 차선들(또는 차선 적합도가 높은(예를 들면, 90% 이상) 차선들)을 후보 차선들로서 검출한다.
도 1에 도시한 차선 인식 장치(10)의 구성 요소가 모두 필수 구성 요소인 것은 아니며, 도 1에 도시한 구성 요소보다 많은 구성 요소에 의해 차선 인식 장치(10)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 차선 인식 장치(10)가 구현될 수도 있다.
도 2는 본 발명의 일 실시예에 따라 카메라에 의해 촬영된 영상을 나타낸 예시도이다.
도 2에 도시한 바와 같이, 상기 카메라 모듈(110)은 단일 카메라를 통해 촬영된 영상(310)을 수신한다. 예를 들면, 상기 카메라 모듈(110)은 1차로, 2차로, 3차로 등에 대응하는 차선들을 포함하는 영상(210)을 수신할 수 있다.
상기 제어부(120)는, 상기 카메라 모듈(110)을 통해 상기 영상(210)을 수신하고, 상기 영상(210)에서 지지점들(support points)(예를 들면, 차선 특징점들)을 추출하기 위한 미리 설정된 가이드 라인(guide line)을 근거로 상기 촬영된 영상(210) 내에서 차선의 특징점들을 추출한다. 이때, 상기 가이드 라인은, 도 3에 도시한 바와 같이, 상기 영상(210)의 아래쪽은 월드 좌표(world coordinate)로 변환되면 가까운 영역을 나타내고, 상기 영상(210)의 중간 및 위쪽은 월드 좌표로 변환되면 먼 영역을 나타내므로, 상기 영상(210)의 데이터를 월드 좌표로 변환 시 최대한 균일한 포인트 간격을 얻기 위해서, 상기 영상(210)의 아래쪽은 가이드 라인(310)의 줄간 간격을 넓게 설정하고, 상기 영상(210)의 위쪽으로 갈수록 가이드 라인(310)의 줄간 간격을 점점 좁게 설정한다. 여기서, 가이드 라인(310)의 줄간 간격의 변경폭은, 설계자의 설계에 따라 다양하게 설정할 수 있으며, 또한, 월드 좌표로 변환 시 동일한 줄간 간격을 유지하도록 설정할 수 있다. 상기 가이드 라인은, 실제 상기 영상 상에 표시되는 것이 아니라, 상기 지지점들(특징점들)을 월드 좌표로 변환 시 최대한 균일한 포인트 간격을 얻기 위해 사용되는 가상의 라인을 의미한다.
상기 제어부(120)는, 도 4에 도시한 바와 같이, 상기 미리 설정된 가이드 라인을 근거로 상기 영상(310) 내에서 차선 특징점들을 추출하고, 표시부(130)를 통해 상기 추출된 복수의 차선 특징점(410)을 이미지 도메인 상에 표시한다. 즉, 상기 제어부(120)는 차선들(401)에 대응하는 차선 특징점들을 이미지 도메인 상에 표시한다. 여기서, 수평축(x축)을 기준으로 상기 차선 특징점들 간의 수직 방향의 간격은 상기 표시부(130)의 수직 방향의 아래쪽에서 수직 방향의 위쪽으로 갈수록 좁아진다.
상기 제어부(120)는, 상기 추출된 차선 특징점들을 월드 좌표로 변환한다. 즉, 상기 제어부(120)는 상기 저장부(140)에 미리 저장된 변환 행렬(예를 들어, 호모그래픽 행렬(homographic matrix) 등 포함)을 이용하여 상기 추출된 차선 특징점들을 월드 좌표로 변환할 수 있다.
일 예로, 상기 제어부(120)는, 도 5에 도시한 바와 같이, 상기 저장부(140)에 미리 저장된 호모그래픽 행렬을 근거로 상기 추출된 차선 특징점들을 월드 좌표로 변환하고, 상기 월드 좌표로 변환된 차선 특징점들(510)을 상기 표시부(130)에 표시한다. 여기서, 수평축을 기준으로 상기 월드 좌표로 변환된 복수의 차선 특징점들 간의 수직 방향의 간격은 동일한 간격을 유지하게 된다.
상기 제어부(120)는, 상기 월드 좌표로 변환된 차선 특징점들 및 상기 저장부(140)에 미리 저장된 1차, 2차, 3차, n차 방정식들(커브 방정식들)을 근거로 상기 월드 좌표로 변환된 차선 특징점들 중에서 커브에 해당하는 복수의 포인트들을 검출(또는 확인)할 수도 있다. 즉, 상기 제어부(120)는, 상기 월드 좌표로 변환된 차선 특징점들을 상기 저장부(140)에 미리 저장된 커브 방정식들에 순차적으로 대입하여, 상기 대입 결과를 근거로 상기 월드 좌표로 변환된 차선 특징점들의 커브 유무를 결정(또는 확인)할 수 있다. 여기서, 상기 커브 방정식은 1차, 2차, 3차, n차의 방정식일 수 있다.
상기 제어부(120)는, 상기 월드 좌표로 변환된 차선 특징점들을 상기 저장부(140)에 미리 저장된 1차 차선 방정식(예를 들면, y=c1x+c0, 여기서 c1은 차량의 기울기(또는, 차량의 헤딩 각도), c0는 차선과 차량간의 옵셋)에 대입하여, c1=0이면, 직선으로 인식하고, c1≠0이면, 커브로 인식한다(차선 검출). 즉, 1차 차선 방정식은 일반적인 직선 도로에서의 차선을 검출할 때 사용될 수 있다.
상기 제어부(120)는, 상기 월드 좌표로 변환된 차선 특징점들을 상기 저장부(140)에 미리 저장된 2차 차선 방정식(예를 들면, y=c2x2+c1x+c0, 여기서 c2는 차선의 곡률, c1는 차량의 기울기(또는, 차량의 헤딩 각도), C0는 차선과 차량간의 옵셋)에 대입하여, c2=0이면, 직선으로 인식하고, c2≠0이면, 커브로 인식한다(차선 검출). 즉, 상기 2차 차선 방정식은 차선의 곡률 반경이 크고 곡률 변화가 일정한 곡선 도로에서의 차선을 검출할 때 사용될 수 있다.
상기 제어부(120)는, 상기 월드 좌표로 변환된 차선 특징점들을 상기 저장부(140)에 미리 저장된 3차 차선 방정식(예를 들어, y=c3x3+c2x2+c1x+c0, 여기서, c3는 커브 변화율(curve derivative), c2는 차선의 곡률, c1는 차선의 기울기(헤딩 각도), c0는 차선과 차량간의 옵셋)에 대입하여, 차선(커브) 유무를 확인할 수도 있다(차선 검출). 이때, c3가 0일 경우, 3차 차선 방정식에서 c2는 차선의 곡율, c1는 차량의 헤딩 각도, c0는 차선과 차량간의 옵셋을 나타내며, c3와 c2 모두 0일 경우는 직선 검출로서, c1는 차량의 헤딩 각도, c0는 차선과 차량간의 옵셋을 나타낸다. 즉, 상기 3차 커브 방정식은 차선의 곡률 반경이 작거나 그 곡률 변화가 일정하지 않은 곡선 도로에서의 차선을 검출할 때 사용될 수 있다. 상기 c1는 차선과 차량 사이의 방향 또는 차량에 대한 차선의 방향일 수도 있다.
상기 제어부(120)는 상기 월드 좌표로 변환된 차선 특징점들을 상기 저장부(140)에 미리 저장된 1차, 2차 3차 방정식뿐만 아니라 n차 방정식(y=cnxn+cn -1xn -1+....+c3x3+c2x2+c1x+c0)에 대입하여, 커브 유무를 확인할 수도 있다. 즉, n차 방정식은 도로의 차선 형태가 n-1차 곡선 방정식으로 모델링이 어려운 경우의 차선을 검출할 때 사용될 수 있다.
상기 제어부(120)는, 상기 월드 좌표로 변환된 차선 특징점들을 상기 저장부(140)에 미리 저장된 커브 방정식들(예를 들면, 1차 방정식)에 대입하여 차선을 검출할 때 상기 차선 특징점들과 상기 대입 결과에 따른 차선과의 거리 오차가 미리설정된 임계값(기준 거리값 또는 차선 적합도) 미만인지 이상인지를 결정(판단)하고, 상기 차선 특징점들과 상기 대입 결과에 따른 차선과의 거리 오차가 미리설정된 임계값(예를 들면, 1~5cm) 미만이면 상기 1차 방정식에 의해 검출된 차선을 상기 영상에 표시한다.
상기 제어부(120)는, 상기 차선 특징점들과 상기 대입 결과에 따른 차선과의 거리 오차가 미리설정된 임계값(예를 들면, 5~10cm) 이상이면 상기 월드 좌표로 변환된 차선 특징점들을 상기 저장부(140)에 미리 저장된 커브 방정식들(예를 들면, 2차 방정식)에 대입하고, 상기 차선 특징점들과 상기 대입 결과에 따른 차선과의 거리 오차가 미리설정된 임계값(기준 거리값 또는 차선 적합도) 미만인지 이상인지를 결정하고, 상기 차선 특징점들과 상기 대입 결과에 따른 차선과의 거리 오차가 미리설정된 임계값 이하이면 상기 2차 방정식에 의해 검출된 차선을 상기 영상에 표시한다.
상기 제어부(120)는, 상기 차선 특징점들과 상기 대입 결과에 따른 차선과의 거리 오차가 미리설정된 임계값 이상이면 상기 월드 좌표로 변환된 차선 특징점들을 상기 저장부(140)에 미리 저장된 커브 방정식들(예를 들면, 3차 방정식)에 대입하고, 상기 차선 특징점들과 상기 대입 결과에 따른 차선과의 거리 오차가 미리설정된 임계값(기준 거리값 또는 차선 적합도) 미만인지 이상인지를 결정하고, 상기 차선 특징점들과 상기 대입 결과에 따른 차선과의 거리 오차가 미리설정된 임계값 이하이면 상기 3차 방정식에 의해 검출된 차선을 상기 영상에 표시한다.
상기 제어부(120)는 상기 차선 특징점들과 상기 대입 결과에 따른 차선(곡선)과의 거리 오차 합으로 미리 구해진 차선 적합도를 근거로 상기 저장부(140)에 미리 저장된 커브 방정식들(예를 들면, 1차. 2차 3차 방정식) 중에서 상기 차선 적합도가 높은 차선을 검출할 수도 있다.
상기 차선 적합도는, 다양한 방법으로 계산될 수 있으며, 아래의 수학식 1에 따른 "sum of squares" 을 통해 계산될 수도 있다.
Figure 112011060797386-pat00001
여기서, 상기 n은 차선 검출에 이용된 차선 특징점의 개수이며, yi는 i번째 차선 특징점의 y값을 나타내며,
Figure 112011060797386-pat00002
는 i번째 차선 특징점의 x값에 대한 추정된 방정식의 y값을 나타내며,
Figure 112011060797386-pat00003
는 각 차선 특징점들에 대한 가중치를 나타낸다.
상기 제어부(120)는 상기 차선 특징점들의 개수 및 상기 차선 특징점들이 분포된 범위 등을 현재 도로에서 모델의 적합도를 판단하기 위해 추가적으로 이용될 수 있다. 상기 제어부(120)는 상기 차선 특징점들의 개수가 미리설정된 기준 개수 이상이고, 상기 차선 특징점들이 분포된 범위가 미리설정된 범위 이상인 차선 특징점들을 상기 서로 다른 차선 방정식들에 대입시킴으로써 상기 후보 차선들을 검출할 수도 있다. 여기서, 상기 미리설정된 기준 개수 및 미리설정된 범위는 설계자에 의해 다양한 개수 및 범위로 정의될 수 있다.
상기 제어부(120)는 상기 저장부(140)에 미리 저장된 커브 방정식들(예를 들면, 1차 방정식)에 대입된 차선 특징점들을 추적(tracking)함으로써 차선들을 실시간 검출하고, 그 검출한 차선들을 상기 영상에 표시한다.
상기 제어부(120)는, 상기 검출된 차선(직선 또는 커브)에 해당하는 복수의 포인트들을 근거로 차선의 가상 중앙점을 추종하는 커브 정보를 계산할 수도 있다. 이때, 상기 계산되는 커브 정보는, 카메라의 캘리브레이션 상태의 영향을 최소화하여, 월드 좌표 상에서의 차선 유지 성능을 향상시키는데 이용할 수 있다. 즉, 상기 제어부(120)는, 상기 검출된 커브에 해당하는 복수의 포인트들에 대해서 최소 자승법(least square method), 랜삭(Random Sample Consensus : RANSAC), 일반 허프 변환법(general hough transform method), 스플라인(spline) 보간법 등 중 어느 하나의 방식을 적용하여 차선의 중앙점을 추종하는 커브 정보를 계산할 수도 있다.
상기 제어부(120)는, 상기 계산된 차선의 중앙점을 추종하는 커브 정보, 상기 검출된 커브 등의 정보를 상기 촬영된 영상에 오버랩(overlap)하여 상기 표시부(130)에 표시할 수 있다. 예를 들면, 상기 제어부(120)는, 월드 좌표인 상기 계산된 차선의 중앙점을 추종하는 커브 정보, 상기 검출된 커브 등의 정보를 이미지 도메인 상에서의 좌표로 각각 변환(또는, 매핑(mapping))하고, 상기 변환된 각각의 좌표를 상기 촬영된 영상에 오버랩하여 상기 표시부(130)에 표시한다.
도 6은 본 발명의 일 실시예에 따른 주행 차선들을 나타낸 도이다.
도 6에 도시한 바와 같이, 상기 제어부(120)는 상기 검출된 후보 차선들 중에서 차량의 진행 방향을 기준으로 상기 차량의 좌측에 가장 인접한 제1 차선과 상기 차량의 우측에 가장 인접한 제2 차선을 선택하고, 상기 제1 차선 및 제2 차선을 상기 차량의 주행 차선들(610)로서 상기 영상(210)에 표시할 수도 있다. 예를 들면, 상기 제어부(120)는 상기 검출된 제1 차선 및 제2 차선(610)을 상기 이미지 도메인 상에서의 좌표로 각각 변환(또는, 매핑)하고, 상기 변환된 각각의 좌표를 상기 영상(210)에 오버랩시킨다.
도 7은 본 발명의 일 실시예에 따른 영상에 표시된 주행 차선들을 나타낸 예시도이다.
도 7에 도시한 바와 같이, 상기 제어부(120)는 상기 검출된 후보 차선들 중에서 차량의 진행 방향을 기준으로 상기 차량의 좌측에 가장 인접한 제1 차선과 상기 차량의 우측에 가장 인접한 제2 차선을 선택하고, 상기 제1 차선 및 제2 차선을 상기 차량의 주행 차선들(610)로서 검출하고, 그 주행 차선들(610)을 상기 영상에 오버랩시킨다.
상기 카메라 모듈(110)은, 도로의 차선들을 하나의 영상으로 촬영하기 위해 상기 차선 인식 장치(10)의 임의의 동일면 상에 수평 간격으로 이격되어 설치되는 적어도 한 쌍의 카메라(일 예로, 스테레오 카메라(stereo camera) 또는, 스테레오코스픽 카메라(stereoscopic camera)) 또는, 단일 카메라를 포함한다. 이때, 상기 고정된 수평 간격은, 일반적인 사람의 두 눈 간의 거리를 고려하여 설정할 수 있다. 또한, 상기 카메라 모듈(110)은 영상 촬영이 가능한 임의의 모든 카메라 모듈일 수도 있다.
상기 카메라 모듈(110)은, 상기 한 쌍의 카메라에 의해 동시에 촬영된 제1 영상(일 예로, 상기 한 쌍의 카메라에 포함된 좌측 카메라에 의해 촬영된 좌측 영상)과 제2 영상(일 예로, 상기 한 쌍의 카메라에 포함된 우측 카메라에 의해 촬영된 우측 영상)을 수신한다.
상기 카메라 모듈(110)은, CCD(Charge-Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등과 같은 이미지 센서일 수 있다.
상기 차선 인식 장치(10)가 차량에 설치될 때, 상기 카메라 모듈(110)은 상기 차량의 소정 위치(예를 들면, 차량의 룸 미러)에 고정되어, 차량의 주행 방향의 전방을 촬영할 수 있다. 상기 카메라 모듈(110)은 차량의 측방, 후방 등을 촬영하도록 상기 차량의 소정 위치(예를 들면, 차량의 사이드 미러, 차량의 뒷 범퍼)에 고정되게 설치될 수도 있다.
상기 제어부(120)는, 임의의 GPS 모듈(도시하지 않음)을 통해 확인되는 상기 차선 인식 장치(10)(또는, 상기 차선 인식 장치(10)가 구비된 차량)의 위치 및 상기 검출된 커브(또는, 차선)를 근거로 차선 유지와 관련된 기능(차선 이탈 경고 메시지 기능, 자동 차선 유지 기능 등 포함)을 수행한다.
상기 표시부(130)는, 상기 제어부(120)의 제어에 의해 상기 저장부(140)에 포함된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시한다. 여기서, 상기 표시부(130)에 표시되는 콘텐츠는, 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다.
상기 표시부(130)는, 3차원 디스플레이(3D Display) 또는 2차원 디스플레이(2D Display)를 포함한다. 또한, 상기 표시부(130)는, 액정 디스플레이(Liquid Crystal Display : LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display : TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode : OLED), 플렉시블 디스플레이(Flexible Display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수도 있다.
상기 표시부(130)는, 상기 제어부(120)의 제어에 의해 상기 3차원 영상(또는, 2차원 영상)을 표시한다.
상기 차선 인식 장치(10)의 구현 형태에 따라 상기 표시부(130)가 2개 이상 존재할 수 있다. 예를 들면, 상기 차선 인식 장치(10)에 복수의 표시부들이 하나의 면(동일면)에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
한편, 상기 표시부(130)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 상기 표시부(130)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 상기 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드, 터치 패널 등의 형태를 가질 수 있다.
상기 터치 센서는, 상기 표시부(130)의 특정 부위에 가해진 압력 또는 상기 표시부(130)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력 신호로 변환하도록 구성될 수 있다. 또한, 상기 터치 센서는, 터치되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 상기 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(도시하지 않음)로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 상기 제어부(120)로 전송한다. 이로써, 상기 제어부(120)는, 상기 표시부(130)의 어느 영역이 터치되었는지 여부 등을 알 수 있게 된다.
상기 표시부(130)는, 근접 센서를 포함할 수 있다. 또한, 상기 근접 센서는, 터치 스크린에 의해 감싸지는 차선 인식 장치(10)의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다.
상기 근접 센서는, 소정의 검출 면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 상기 근접 센서는, 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. 상기 근접 센서의 예로는, 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치 스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
상기 터치 스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(Proximity Touch)"라고 칭할 수 있으며, 상기 터치 스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(Contact Touch)"라고 칭할 수 있다. 상기 터치 스크린 상에서 포인터로 근접 터치가 되는 위치는, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다.
또한, 상기 근접 센서는, 근접 터치와, 근접 터치 패턴(예를 들면, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 상기 터치 스크린상에 출력될 수 있다.
이와 같이, 상기 표시부(130)가 입력 장치로 사용되는 경우, 사용자에 의한 버튼 조작을 입력받거나, 디스플레이되는 화면을 터치/스크롤하는 등의 조작에 의해 명령 또는 제어 신호를 입력받을 수 있다.
본 발명의 실시예에 따른 차선 인식 장치(10)는 상기 영상 및 상기 차선을 검출하기 위한 프로그램, 실시간 또는 주기적으로 산출된 차선 폭 정보 등을 저장하는 저장부(140)를 포함할 수 있다.
상기 저장부(140)는, 각종 메뉴 화면, 다양한 사용자 인터페이스(User Interface, UI) 및/또는 그래픽 사용자 인터페이스(Graphic User Interface, GUI)를 더 저장할 수 있다.
상기 저장부(140)는 변환 행렬(예를 들면, 호모그래픽 행렬 등), 커브 방정식, 최소 자승법 등의 수학식을 더 저장할 수 있다.
상기 저장부(140)는 상기 차선 인식 장치(10)가 동작하는데 필요한 데이터와 프로그램 등을 더 저장할 수 있다.
상기 저장부(140)는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 롬(Read-Only Memory : ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 램(Random Access Memory : RAM), SRAM(Static Random Access Memory), 자기 메모리, 자기 디스크, 광 디스크 중 적어도 하나의 저장 매체를 포함할 수 있다.
상기 차선 인식 장치(10)는, 상기 제어부(120)의 제어에 의해 임의의 단말기 또는 서버와의 통신 기능을 수행하는 통신부(도시하지 않음)를 더 포함할 수 있다. 이때, 상기 통신부는, 유/무선 통신 모듈을 포함할 수 있다. 여기서, 상기 무선 인터넷 기술은, 무선랜(Wireless LAN : WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband : Wibro), 와이맥스(World Interoperability for Microwave Access : Wimax), 고속 하향 패킷 접속(High Speed Downlink Packet Access : HSDPA), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution : LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service : WMBS) 등을 포함할 수 있고, 상기 근거리 통신(Short Range Communication) 기술은, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association : IrDA), 초광대역 무선(Ultra Wideband : UWB), 지그비(ZigBee) 등을 포함할 수 있다. 또한, 상기 유선 통신 기술은, USB(Universal Serial Bus) 통신 등을 포함할 수 있다.
상기 통신부는, 상기 차선 인식 장치(10)가 구비되는 임의의 차량과의 통신을 위한, CAN 통신, 차량용 이더넷, 플렉스레이(flexray), LIN(Local Interconnect Network) 등을 포함할 수 있다.
상기 통신부는, 상기 제어부(120)의 제어에 의해 임의의 영상에 대해 추출된 복수의 지지점, 상기 복수의 지지점을 월드 좌표로 각각 변환한 포인트들, 상기 월드 좌표로 변환한 포인트들 중에서 커브에 해당하는 복수의 포인트들, 상기 커브에 해당하는 복수의 포인트들을 근거로 계산되는 차선의 중앙점을 추종하는 커브 정보 등을 상기 임의의 단말기 또는 서버에 전송할 수 있다.
상기 통신부는 상기 임의의 단말기 또는 서버로부터 전송되는 임의의 한 쌍의 스테레오 카메라를 통해 동시에 촬영된 제1 영상 및 제2 영상을 수신할 수도 있다.
상기 차선 인식 장치(10)는 오디오 신호를 수신하기 위한 적어도 하나 이상의 마이크(도시하지 않음)를 포함하는 입력부(도시하지 않음)를 더 포함할 수 있다.
상기 마이크는, 통화 모드, 녹음 모드, 음성 인식 모드, 영상 회의 모드, 영상 통화 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호(사용자의 음성(음성 신호 또는 음성 정보) 포함)를 수신하여 전기적인 음성 데이터로 처리한다. 또한, 상기 처리된 음성 데이터는 음성 출력부(도시하지 않음)를 통해 출력하거나 또는, 상기 통신부를 통하여 외부 단말기로 송신 가능한 형태로 변환되어 출력될 수 있다. 또한, 상기 마이크는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수도 있다.
상기 입력부는, 사용자에 의한 버튼 조작에 따른 신호를 수신하거나, 디스플레이되는 화면을 터치/스크롤하는 등의 조작에 의해 생성된 명령 또는 제어 신호를 수신한다.
상기 입력부는, 사용자에 의해 입력된 정보에 대응하는 신호를 수신하며, 키보드(keyboard), 키 패드(Key Pad), 돔 스위치(Dome Switch), 터치 패드(정압/정전), 터치 스크린(touch screen), 조그 셔틀(Jog Shuttle), 조그 휠, 조그 스위치, 마우스(mouse), 스타일러스 펜(Stylus Pen), 터치 펜(Touch Pen), 레이저 포인터 등의 다양한 장치가 사용될 수 있다. 이때, 상기 입력부는, 상기 다양한 장치에 의한 입력에 대응하는 신호를 수신한다.
상기 차선 인식 장치(10)는, 상기 제어부(120)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력하는 음성 출력부(도시하지 않음)를 더 포함할 수 있다. 여기서, 상기 음성 출력부는, 스피커가 될 수도 있다.
본 발명의 실시예에 따른 차선 인식 장치 및 그 방법은, 상기 카메라 모듈에 의해 촬영된 영상으로부터 검출된 차선 특징점들과 서로 다른 차선 방정식들을 근거로 검출된 차선들 중에서 차선 적합도를 기초로 차선을 검출함으로써 차선을 정확히 검출할 수 있다.
본 발명의 실시예에 따른 차선 인식 장치 및 그 방법은, 영상 내에서 차선의 후보군이 되는 지지점(특징점)을 추출하여 월드 좌표로 변환하고, 상기 변환된 월드 좌표 상에서 차선을 인식하여 카메라 정보와 월드 좌표 간의 캘리브레이션의 오차 전이에 있어서, 영상에서 직접 차선을 인식하는 방법에 비하여 누적 에러의 가능성을 줄일 수도 있다.
본 발명의 실시예에 따른 차선 인식 장치 및 그 방법은, 월드 좌표 상에서 인식된 차선에 대한 정보를 표시하고 이를 근거로 경고 메시지를 생성 및 출력하여, 정확성/민감성을 향상시키고 사용자의 편의를 향상시킬 수도 있다.
이하에서는, 본 발명의 일 실시예에 따른 차선 인식 방법을 도 1 내지 도 8을 참조하여 상세히 설명한다.
도 8은 본 발명의 일 실시예에 따른 차선 인식 방법을 나타낸 흐름도이다.
먼저, 상기 카메라 모듈(110)은, 차선 인식 장치(10)의 동일면의 동일 중심축 상에 수평 간격으로 이격되어 설치된 적어도 한 쌍의 카메라(일 예로, 스테레오 카메라 또는 스테레오코스픽 카메라)를 통해 촬영된 제1 영상 및 제2 영상을 수신하거나 또는, 단일 카메라를 통해 촬영된 영상을 수신한다. 여기서, 상기 제1 영상은, 상기 한 쌍의 카메라에 포함된 좌측 카메라에 의해 촬영된 좌측 영상이고, 상기 제2 영상은 상기 한 쌍의 카메라에 포함된 우측 카메라에 의해 촬영된 우측 영상일 수 있다. 또한, 상기 카메라 모듈(110)은, 상기 한 쌍의 카메라를 통해 촬영된 제1 영상 및 제2 영상 중에서 어느 하나의 영상을 수신할 수도 있다.
상기 카메라 모듈(110)은 단일 카메라를 통해 촬영된 영상(210)을 수신한다. 예를 들면, 상기 카메라 모듈(110)은 1차로, 2차로, 3차로 등에 대응하는 차선들 및/또는 백색 또는 황색 실선의 복선(double line)(또는 백색 또는 황색 실선 및 점선의 복선)을 포함하는 영상(210)을 수신할 수 있다.
상기 제어부(120)는, 상기 카메라 모듈(110)을 통해 상기 영상(210)을 수신하고(S11), 상기 영상(210)에서 차선 특징점을 검출(추출)하기 위한 미리 설정된 가이드 라인(guide line)을 근거로 상기 촬영된 영상(210) 내에서 복수의 차선의 특징점을 검출한다. 이때, 상기 가이드 라인은, 도 4에 도시한 바와 같이, 상기 영상(210)의 아래쪽은 월드 좌표로 변환되면 가까운 영역을 나타내고, 상기 영상(210)의 중간 및 위쪽은 월드 좌표로 변환되면 먼 영역을 나타내므로, 상기 영상(210)의 데이터를 월드 좌표로 변환 시 최대한 균일한 포인트 간격을 얻기 위해서, 상기 영상(210)의 아래쪽은 가이드 라인(310)의 줄간 간격을 넓게 설정하고, 상기 영상(210)의 위쪽으로 갈수록 가이드 라인(310)의 줄간 간격을 점점 좁게 설정한다. 여기서, 가이드 라인(310)의 줄간 간격의 변경폭은, 설계자의 설계에 따라 다양하게 설정할 수 있으며, 또한, 월드 좌표로 변환 시 동일한 줄간 간격을 유지하도록 설정할 수 있다. 상기 가이드 라인은, 실제 상기 영상 상에 표시되는 것이 아니라, 상기 차선 특징점들을 월드 좌표로 변환 시 최대한 균일한 포인트 간격을 얻기 위해 사용되는 가상의 라인을 의미한다.
상기 제어부(120)는, 도 5에 도시한 바와 같이, 상기 미리 설정된 가이드 라인을 근거로 상기 영상(210) 내에서 차선 특징점들을 검출하고, 표시부(130)를 통해 상기 추출된 복수의 차선 특징점(510)을 이미지 도메인 상에 표시한다. 즉, 상기 제어부(120)는 차선들(501)에 대응하는 차선 특징점들을 이미지 도메인 상에 표시한다. 여기서, 수평축(x축)을 기준으로 상기 복수의 차선 특징점들 간의 수직 방향의 간격은 상기 표시부(130)의 수직 방향의 아래쪽에서 수직 방향의 위쪽으로 갈수록 좁아진다.
상기 제어부(120)는, 상기 추출된 복수의 차선 특징점들을 월드 좌표로 변환한다. 즉, 상기 제어부(120)는 상기 저장부(140)에 미리 저장된 변환 행렬(예를 들어, 호모그래픽 행렬(homographic matrix) 등 포함)을 이용하여 상기 추출된 복수의 지지점을 월드 좌표로 변환할 수 있다.
일 예로, 상기 제어부(120)는, 도 6에 도시한 바와 같이, 상기 저장부(140)에 미리 저장된 호모그래픽 행렬을 근거로 상기 추출된 복수의 차선 특징점들을 월드 좌표로 변환하고, 상기 월드 좌표로 변환된 차선 특징점들(610)을 상기 표시부(130)에 표시한다. 여기서, 수평축을 기준으로 상기 월드 좌표로 변환된 복수의 차선 특징점들 간의 수직 방향의 간격은 동일한 간격을 유지하게 된다.
상기 제어부(120)는, 상기 월드 좌표로 변환된 차선 특징점들 및 상기 저장부(140)에 미리 저장된 커브 방정식을 근거로 차선들을 검출한다(S12). 즉, 상기 제어부(120)는, 상기 월드 좌표로 변환된 차선 특징점들을 상기 저장부(140)에 미리 저장된 커브 방정식들에 대입하여, 상기 대입 결과를 근거로 상기 월드 좌표로 변환된 차선 특징점들의 직선 또는 커브 유무를 결정(또는 확인)함으로써 차선들을 검출할 수 있다. 여기서, 상기 차선 방정식은 1차, 2차, 3차 이상의 차선 방정식일 수 있다.
상기 제어부(120)는 상기 검출된 차선들 중에서 상기 차선 적합도를 기초로 상기 후보 차선들을 검출한다(S13). 예를 들면, 상기 제어부(120)는 상기 검출된 차선들 중에서 상기 차선 적합도가 높은(예를 들면, 차선 오차가 낮은 차선들) 차선들을 상기 후보 차선들을 검출한다. 또한, 상기 제어부(120)는 상기 카메라 모듈에 의해 촬영된 영상으로부터 검출된 차선 특징점들과 서로 다른 차선 방정식들을 근거로 검출된 차선들 중에서 임계값 이하의 차선 오차를 갖는 차선들을 상기 후보 차선들로서 검출할 수도 있다.
상기 제어부(120)는, 상기 월드 좌표로 변환된 차선 특징점들을 상기 저장부(140)에 미리 저장된 1차 차선 방정식에 대입하여 차선을 검출할 때 상기 차선 특징점들과 상기 대입 결과에 따른 차선과의 거리 오차가 미리설정된 임계값(기준 거리값) 이상이면, 상기 월드 좌표로 변환된 차선 특징점들을 상기 저장부(140)에 미리 저장된 2차 차선 방정식에 대입하여 차선을 검출하고, 상기 차선 특징점들과 상기 2차 차선 방정식 대입 결과에 따른 차선과의 거리 오차가 미리설정된 임계값 이상이면, 상기 월드 좌표로 변환된 차선 특징점들을 상기 저장부(140)에 미리 저장된 3차 차선 방정식에 대입하여 차선을 검출한다. 한편, 상기 제어부(120)는 1차 내지 3차 방정식에 대입 결과에 따른 차선과 상기 월드 좌표로 변환된 차선 특징점들과의 거리 오차들이 모두 미리설정된 임계값 이상이면, 상기 1차 내지 3차 방정식에 대입 결과에 따른 차선과 상기 월드 좌표로 변환된 차선 특징점들과의 거리 오차가 가장 작은 차선들을 상기 후보 차선들로서 결정할 수도 있다.
상기 제어부(120)는 상기 검출된 후보 차선들 중에서 차량의 주행 방향을 기준으로 상기 차량의 좌측에 가장 인접한 제1 차선과 상기 차량의 우측에 가장 인접한 제2 차선을 상기 차량의 주행 차선들로 결정한다(S14).
상기 제어부(120)는 상기 검출된 주행 차선들을 상기 영상에 표시한다(S15). 예를 들면, 상기 제어부(120)는 상기 검출된 주행 차선들을 상기 이미지 도메인 상에서의 좌표로 각각 변환(또는, 매핑)하고, 상기 변환된 각각의 좌표를 상기 영상(210)에 오버랩시킨다.
이상에서 설명한 바와 같이, 본 발명의 실시예들에 따른 차선 인식 장치 및 그 방법은, 카메라 모듈에 의해 촬영된 영상으로부터 검출된 차선 특징점들과 서로 다른 차선 방정식들을 근거로 검출된 차선들 중에서 차선 적합도를 기초로 차선을 검출함으로써 차선을 정확히 검출할 수 있다.
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
10: 차선 인식 장치 110: 카메라 모듈
120: 제어부 130: 표시부
140: 저장부

Claims (14)

  1. 카메라 모듈과;
    상기 카메라 모듈에 의해 촬영된 영상을 표시하는 표시부와;
    복수의 서로 다른 차선 방정식이 저장되는 저장부와;
    상기 카메라 모듈에 의해 촬영된 영상으로부터 차선 특징점들을 검출하고, 검출된 차선 특징점들을 상기 저장된 서로 다른 차선 방정식에 대입하여 검출된 차선들과 상기 차선 특징점들을 비교하여, 거리 오차가 미리설정된 임계값 이하가 되는 후보 차선들을 검출하고, 검출된 후보 차선들 중에서 차량에 인접한 차선들을 차량의 현재 주행 차선들로서 상기 영상에 표시하는 제어부를 포함하는 것을 특징으로 하는 차선 인식 장치.
  2. 제1항에 있어서, 상기 미리설정된 임계값은,
    상기 대입 결과에 따른 차선과 상기 차선 특징점들의 거리 오차의 합을 근거로 미리 결정되는 것을 특징으로 하는 차선 인식 장치.
  3. 제2항에 있어서, 상기 거리 오차가 미리설정된 임계값 이하가 되는 후보 차선들은,
    상기 차선 특징점들의 개수 및 상기 차선 특징점들이 분포된 범위를 더 포함하여 결정되는 것을 특징으로 하는 차선 인식 장치.
  4. 삭제
  5. 제1항에 있어서, 상기 제어부는,
    상기 촬영된 영상에서 차선 특징점들을 검출하고, 상기 검출한 차선 특징점들에 상기 저장된 서로 다른 차선 방정식들을 기설정된 기준으로 순차적으로 대입시킴으로써 검출된 차선들 중에서 상기 임계값 이하의 차선 오차를 갖는 차선들을 상기 후보 차선들로서 검출하는 것을 특징으로 하는 차선 인식 장치.
  6. 제1항에 있어서, 상기 제어부는,
    상기 촬영된 영상에서 차선 특징점들을 검출하고, 상기 차선 특징점들을 월드 좌표로 변환하고, 상기 월드 좌표로 변환된 차선 특징점들에 상기 저장된 서로 다른 차선 방정식들을 순차적으로 대입시킴으로써 검출된 차선들 중에서 상기 임계값 이하의 차선 오차를 갖는 차선들을 상기 후보 차선들로서 검출하는 것을 특징으로 하는 차선 인식 장치.
  7. 제1항에 있어서, 상기 서로 다른 차선 방정식들은,
    1차, 2차, 3차 차선 방정식들이며, 상기 1차 차선 방정식은 y=c1x+c0이며, 여기서 c1은 차량의 헤딩 각도, c0는 차선과 차량간의 옵셋이며, 상기 2차 차선 방정식은 y=c2x2+c1x+c0이며, 여기서 c2는 차선의 곡률, c1는 차량의 헤딩 각도, C0는 차선과 차량간의 옵셋이며, 상기 3차 차선 방정식은 y=c3x3+c2x2+c1x+c0이며, 여기서, c3는 차선의 커브 변화율(curve derivative), c2는 차선의 곡률, c1는 차량의 헤딩 각도, c0는 차선과 차량간의 옵셋인 것을 특징으로 하는 차선 인식 장치.
  8. 복수의 서로 다른 차선 방정식을 미리 저장하는 단계와;
    카메라 모듈에 의해 촬영된 영상을 표시부에 표시하는 단계와;
    상기 카메라 모듈에 의해 촬영된 영상으로부터 차선 특징점들을 검출하고, 검출된 차선 특징점들을 상기 저장된 서로 다른 차선 방정식들에 대입하여 검출된 차선들과 상기 차선 특징점들을 비교하여 거리 오차가 미리설정된 임계값 이하가 되는 후보 차선들을 검출하는 단계와;
    검출된 후보 차선들 중에서 차량에 인접한 차선들을 차량의 현재 주행 차선들로서 상기 영상에 표시하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.
  9. 제8항에 있어서, 상기 미리설정된 임계값은,
    상기 차선 특징점들을 상기 서로 다른 차선 방정식들에 대입하고, 상기 대입 결과에 따른 차선과 상기 차선 특징점들의 거리 오차의 합을 근거로 미리 결정되는 것을 특징으로 하는 차선 인식 방법.
  10. 제9항에 있어서, 상기 거리 오차가 미리설정된 임계값 이하가 되는 후보 차선들은,
    상기 차선 특징점들의 개수 및 상기 차선 특징점들이 분포된 범위를 더 포함하여 결정되는 것을 특징으로 하는 차선 인식 방법.
  11. 삭제
  12. 제8항에 있어서, 상기 후보 차선들을 검출하는 단계는,
    상기 촬영된 영상에서 차선 특징점들을 검출하는 단계와;
    상기 검출한 차선 특징점들에 상기 저장된 서로 다른 차선 방정식들을 기설정된 기준으로 순차적으로 대입시킴으로써 검출된 차선들 중에서 상기 임계값 이하의 차선 오차를 갖는 차선들을 상기 후보 차선들로서 검출하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.
  13. 제8항에 있어서, 상기 후보 차선들을 검출하는 단계와;
    상기 촬영된 영상에서 차선 특징점들을 검출하는 단계와;
    상기 차선 특징점들을 월드 좌표로 변환하는 단계와;
    상기 월드 좌표로 변환된 차선 특징점들에 상기 저장된 서로 다른 차선 방정식들을 순차적으로 대입시킴으로써 검출된 차선들 중에서 상기 임계값 이하의 차선 오차를 갖는 차선들을 상기 후보 차선들로서 검출하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.
  14. 제8항에 있어서, 상기 서로 다른 차선 방정식들은,
    1차, 2차, 3차 차선 방정식들이며, 상기 1차 차선 방정식은 y=c1x+c0이며, 여기서 c1은 차량의 헤딩 각도, c0는 차선과 차량간의 옵셋이며, 상기 2차 차선 방정식은 y=c2x2+c1x+c0이며, 여기서 c2는 차선의 곡률, c1는 차량의 헤딩 각도, C0는 차선과 차량간의 옵셋이며, 상기 3차 차선 방정식은 y=c3x3+c2x2+c1x+c0이며, 여기서, c3는 차선의 커브 변화율(curve derivative), c2는 차선의 곡률, c1는 차량의 헤딩 각도, c0는 차선과 차량간의 옵셋인 것을 특징으로 하는 차선 인식 방법.
KR1020110078353A 2011-08-05 2011-08-05 차선 인식 장치 및 그 방법 KR101641251B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110078353A KR101641251B1 (ko) 2011-08-05 2011-08-05 차선 인식 장치 및 그 방법
PCT/KR2012/000190 WO2013022159A1 (en) 2011-08-05 2012-01-09 Traffic lane recognizing apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110078353A KR101641251B1 (ko) 2011-08-05 2011-08-05 차선 인식 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20130015978A KR20130015978A (ko) 2013-02-14
KR101641251B1 true KR101641251B1 (ko) 2016-07-20

Family

ID=47668648

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110078353A KR101641251B1 (ko) 2011-08-05 2011-08-05 차선 인식 장치 및 그 방법

Country Status (2)

Country Link
KR (1) KR101641251B1 (ko)
WO (1) WO2013022159A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11294392B2 (en) 2018-08-27 2022-04-05 Samsung Electronics Co., Ltd. Method and apparatus for determining road line

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101498975B1 (ko) * 2013-11-29 2015-03-05 현대모비스(주) 차선 이탈 경보 시스템
KR102384580B1 (ko) * 2015-08-17 2022-04-08 엘지이노텍 주식회사 차선상태 판단 장치 및 이를 이용한 차선상태 판단 방법
CN111967662B (zh) * 2020-08-11 2024-01-23 中国石油化工股份有限公司 提高罐式集装箱列车卸车效率的方法
FR3127320B1 (fr) * 2021-09-21 2023-09-15 Continental Automotive Procédé de détermination de la position d’un objet par rapport à une ligne de marquage au sol d’une route

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3985610B2 (ja) * 2002-07-05 2007-10-03 日産自動車株式会社 車両用走行路認識装置
KR100472823B1 (ko) * 2002-10-21 2005-03-08 학교법인 한양학원 차선 인식 방법 및 시스템
JP2005165726A (ja) * 2003-12-03 2005-06-23 Denso Corp 走行路境界検出装置及び走行路境界検出方法
KR101035761B1 (ko) * 2006-07-06 2011-05-20 포항공과대학교 산학협력단 차선 인식을 위한 영상 처리 방법 및 시스템
KR101176693B1 (ko) * 2008-03-13 2012-08-23 주식회사 만도 거리센서를 이용한 차선인식 방법 및 그 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Truong and Lee. An Algorithm of Lane Detection and Lane’s Curvatures Estimation. 한국자동차공학회 2008년 부산울산경남지부 추계학술대회, 2008년 11월, pp. 117-120.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11294392B2 (en) 2018-08-27 2022-04-05 Samsung Electronics Co., Ltd. Method and apparatus for determining road line

Also Published As

Publication number Publication date
WO2013022159A1 (en) 2013-02-14
KR20130015978A (ko) 2013-02-14

Similar Documents

Publication Publication Date Title
KR20130015746A (ko) 차선 인식 장치 및 그 방법
US10564392B2 (en) Imaging apparatus and focus control method
TWI637312B (zh) 用於在透明顯示裝置顯示資訊的方法、顯示裝置及電腦可讀記錄媒體
KR101641251B1 (ko) 차선 인식 장치 및 그 방법
KR101575159B1 (ko) 주차 정보 제공을 위한 모바일 단말기용 어플리케이션의 동작방법
US20150355740A1 (en) Touch panel system
KR101563542B1 (ko) 모바일 단말기를 이용한 주차 정보 제공 시스템
US11801602B2 (en) Mobile robot and driving method thereof
KR101257871B1 (ko) 소실점 및 광류를 기반으로 한 검출 장치 및 검출 방법
KR101677640B1 (ko) 차선 인식 장치 및 그 방법
KR102518535B1 (ko) 차량의 영상 처리 장치 및 방법
US20140132566A1 (en) Optical touch systems and methods for determining positions of objects using the same
US11086393B2 (en) Information processing device, information processing method, and computer program
KR101658089B1 (ko) 차선 유지 제어를 위한 차선 중심 추정 방법 및 그 장치
KR101612821B1 (ko) 차선 인식 장치 및 그 방법
KR101224090B1 (ko) 근접 차량 검출 방법 및 그 장치
US20160379416A1 (en) Apparatus and method for controlling object movement
KR102543742B1 (ko) 이동 단말기 및 이동 단말기의 동작 방법을 기록한 컴퓨터로 읽을 수 있는 기록 매체
KR101612817B1 (ko) 차량 추적 방법 및 그 장치
US20210382560A1 (en) Methods and System for Determining a Command of an Occupant of a Vehicle
CN107111422B (zh) 在装置上显示对象的方法,执行该方法的装置和执行该方法的记录介质
KR102251076B1 (ko) 실내 이미지를 사용하여 설계도면을 추정하는 방법
KR101612816B1 (ko) 차량 검출 장치 및 그 방법
KR20130015974A (ko) 광류를 기반으로 한 검출 장치 및 검출 방법
KR20130006893A (ko) 차선 인식 장치 및 그 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right