KR20130006893A - 차선 인식 장치 및 그 방법 - Google Patents

차선 인식 장치 및 그 방법 Download PDF

Info

Publication number
KR20130006893A
KR20130006893A KR1020110061949A KR20110061949A KR20130006893A KR 20130006893 A KR20130006893 A KR 20130006893A KR 1020110061949 A KR1020110061949 A KR 1020110061949A KR 20110061949 A KR20110061949 A KR 20110061949A KR 20130006893 A KR20130006893 A KR 20130006893A
Authority
KR
South Korea
Prior art keywords
points
lane
curve
world coordinates
image
Prior art date
Application number
KR1020110061949A
Other languages
English (en)
Inventor
이제훈
박수범
김종헌
박영경
이중재
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110061949A priority Critical patent/KR20130006893A/ko
Publication of KR20130006893A publication Critical patent/KR20130006893A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 명세서는 영상 내에서 차선의 후보군이 되는 지지점을 추출하여 월드 좌표로 변환하고, 변환된 월드 좌표 상에서 차선을 인식하는 차선 인식 장치 및 그 방법에 관한 것이다. 이를 위하여 본 발명에 따른 차선 인식 방법은, 미리 설정된 가이드 라인을 근거로 원본 영상에서 복수의 지지점을 추출하는 단계; 상기 추출된 복수의 지지점을 월드 좌표로 변환하는 단계; 상기 월드 좌표로 변환된 복수의 지지점 중에서 미리 저장된 커브 방정식을 근거로 커브에 해당하는 복수의 포인트를 확인하는 단계; 상기 확인된 복수의 포인트를 근거로 차선의 중앙점을 추종하는 커브 정보를 계산하는 단계; 및 상기 확인된 복수의 포인트 및/또는 상기 계산된 커브 정보를 상기 원본 영상에 오버랩하여 표시하는 단계를 포함하여 이루어진다.

Description

차선 인식 장치 및 그 방법{APPARATUS FOR DETECTING LANE AND METHOD THEREOF}
본 명세서는 차선 인식 장치 및 그 방법에 관한 것이다.
일반적으로, 차선 인식 장치는, 카메라 등을 통해 입력된 또는 외부 단말로부터 수신된 임의의 영상에 포함된 차선을 인식하는 장치이다.
본 명세서의 목적은, 영상 내에서 차선의 후보군이 되는 지지점(support point)을 추출하여 월드 좌표(world coordinate)로 변환하고, 변환된 월드 좌표 상에서 차선을 인식하는 차선 인식 장치 및 그 방법을 제공하는 데 있다.
본 명세서의 다른 목적은, 월드 좌표 상에서 인식된 차선에 대한 정보를 표시하고 이를 근거로 경고 메시지를 생성하여 출력하는 차선 인식 장치 및 그 방법을 제공하는 데 있다.
상기 목적들을 달성하기 위한 본 명세서에 따른 차선 인식 방법은, 미리 설정된 가이드 라인을 근거로 원본 영상에서 복수의 지지점을 추출하는 단계; 상기 추출된 복수의 지지점을 월드 좌표로 변환하는 단계; 상기 월드 좌표로 변환된 복수의 지지점 중에서 미리 저장된 커브 방정식을 근거로 커브에 해당하는 복수의 포인트를 확인하는 단계; 상기 확인된 복수의 포인트를 근거로 차선의 중앙점을 추종하는 커브 정보를 계산하는 단계; 및 상기 확인된 복수의 포인트 및/또는 상기 계산된 커브 정보를 상기 원본 영상에 오버랩하여 표시하는 단계를 포함하여 이루어진다.
본 명세서와 관련된 일 예로서, 상기 미리 설정된 가이드 라인은, 상기 원본 영상의 수평 방향으로 복수의 가이드 라인이 설정되며, 상기 복수의 가이드 라인 간의 간격은, 위쪽에서 아래쪽으로 갈수록 기설정된 간격으로 점차 넓어질 수 있다.
본 명세서와 관련된 일 예로서, 상기 추출된 복수의 지지점을 월드 좌표로 변환하는 단계는, 미리 저장된 호모그래픽 행렬을 근거로 상기 추출된 복수의 지지점을 월드 좌표로 각각 변환할 수 있다.
본 명세서와 관련된 일 예로서, 상기 월드 좌표로 변환된 복수의 지지점은, 수직 방향의 간격이 서로 동일할 수 있다.
본 명세서와 관련된 일 예로서, 상기 확인된 복수의 포인트를 근거로 트래킹을 수행하는 단계를 더 포함할 수 있다.
본 명세서와 관련된 일 예로서, 상기 커브 정보를 계산하는 단계는, 상기 확인된 복수의 포인트에 최소 자승법을 적용하여 상기 커브 정보를 계산할 수 있다.
본 명세서와 관련된 일 예로서, 상기 원본 영상에 오버랩하여 표시하는 단계는, 상기 확인된 복수의 포인트 및/또는 상기 계산된 커브 정보를 이미지 도메인 상에서의 좌표로 각각 변환하는 과정; 및 상기 이미지 도메인 상에서의 좌표로 각각 변환된 정보를 상기 원본 영상에 오버랩하여 표시하는 과정을 포함할 수 있다.
상기 목적들을 달성하기 위한 본 명세서에 따른 차선 인식 장치는, 미리 설정된 가이드 라인을 근거로 원본 영상에서 복수의 지지점을 추출하고, 상기 추출된 복수의 지지점을 월드 좌표로 변환하고, 상기 월드 좌표로 변환된 복수의 지지점 중에서 미리 저장된 커브 방정식을 근거로 커브에 해당하는 복수의 포인트를 확인하는 제어부; 및 상기 확인된 복수의 포인트를 표시하는 표시부를 포함하여 구성된다.
본 명세서와 관련된 일 예로서, 상기 제어부는, 상기 확인된 복수의 포인트를 근거로 차선의 중앙점을 추종하는 커브 정보를 계산할 수 있다.
본 명세서와 관련된 일 예로서, 상기 표시부는, 상기 제어부의 제어에 의해, 상기 확인된 복수의 포인트 및/또는 상기 계산된 커브 정보를 상기 원본 영상에 오버랩하여 표시할 수 있다.
본 명세서와 관련된 일 예로서, 상기 제어부는, 미리 저장된 호모그래픽 행렬을 근거로 상기 추출된 복수의 지지점을 월드 좌표로 각각 변환할 수 있다.
본 명세서와 관련된 일 예로서, 상기 제어부는, 상기 확인된 복수의 포인트를 근거로 트래킹을 수행할 수 있다.
본 명세서와 관련된 일 예로서, 상기 제어부는, 상기 확인된 복수의 포인트에 최소 자승법을 적용하여 상기 커브 정보를 계산할 수 있다.
본 명세서와 관련된 일 예로서, 상기 제어부는, 상기 확인된 복수의 포인트 및/또는 상기 계산된 커브 정보를 이미지 도메인 상에서의 좌표로 각각 변환하고, 상기 표시부 상에서 상기 이미지 도메인 상에서의 좌표로 각각 변환된 정보를 상기 원본 영상에 오버랩하여 표시할 수 있다.
본 명세서의 실시예에 따른 차선 인식 장치 및 그 방법은, 영상 내에서 차선의 후보군이 되는 지지점을 추출하여 월드 좌표로 변환하고, 변환된 월드 좌표 상에서 차선을 인식함으로써, 카메라 정보와 월드 좌표 간의 캘리브레이션(calibration)의 오차 전이에 있어서, 영상에서 직접 차선을 인식하는 방법에 비하여 누적 에러의 가능성을 줄일 수 있다.
또한, 본 명세서의 실시예에 따른 차선 인식 장치 및 그 방법은, 월드 좌표 상에서 인식된 차선에 대한 정보를 표시하고 이를 근거로 경고 메시지를 생성하여 출력함으로써, 정확성/민감성을 향상시키고 사용자의 편의를 향상시킬 수 있다.
도 1은 본 발명의 실시예에 따른 차선 인식 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 차선 인식 방법을 나타낸 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 원본 영상을 나타낸 도이다.
도 4는 본 발명의 일 실시예에 따른 가이드 라인이 표시된 원본 영상을 나타낸 도이다.
도 5는 본 발명의 일 실시예에 따른 지지점을 나타낸 도이다.
도 6은 본 발명의 일 실시예에 따른 월드 좌표로 변환한 지지점을 나타낸 도이다.
도 7은 본 발명의 일 실시예에 따른 커브에 해당하는 포인트들에 대한 트래킹 결과를 나타낸 도이다.
도 8은 본 발명의 일 실시예에 따른 커브 정보를 나타낸 도이다.
도 9는 본 발명의 일 실시예에 따른 원본 영상에 커브 정보, 차선 정보를 나타낸 도이다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
이하에서는, 본 발명의 실시예에 따른 차선 인식 장치의 구성을 도 1을 참조하여 설명한다. 여기서, 도 1의 차선 인식 장치는, 스탠드 얼론(stand alone)으로 구성될 수 있을 뿐만 아니라, 이동 단말기(Mobile Terminal), 텔레매틱스 단말기(Telematics Terminal), 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 개인 정보 단말기(Personal Digital Assistant : PDA), 휴대용 멀티미디어 플레이어(Portable Multimedia Player : PMP), 노트북 컴퓨터, 태블릿 PC(Tablet PC), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 텔레비전(Television), 3D 텔레비전, 영상 기기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, AVN(Audio Video Navigation) 단말기 등과 같이 다양한 단말기에 적용될 수 있다.
도 1은 본 발명의 실시예에 따른 차선 인식 장치의 구성을 나타낸 블록도로서, 이에 도시한 바와 같이, 차선 인식 장치(10)는, 카메라 모듈(110), 제어부(120), 표시부(130) 및, 저장부(140)로 구성된다. 도 1에 도시한 차선 인식 장치(10)의 구성 요소가 모두 필수 구성 요소인 것은 아니며, 도 1에 도시한 구성 요소보다 많은 구성 요소에 의해 차선 인식 장치(10)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 차선 인식 장치(10)가 구현될 수도 있다.
상기 카메라 모듈(110)은, 상기 차선 인식 장치(10)의 임의의 동일면의 동일 중심축 상에 수평 간격으로 이격되어 설치되는 적어도 한 쌍의 카메라(일 예로, 스테레오 카메라(stereo camera) 또는, 스테레오코스픽 카메라(stereoscopic camera)) 또는, 단일 카메라를 포함한다. 이때, 상기 고정된 수평 간격은, 일반적인 사람의 두 눈 간의 거리를 고려하여 설정할 수 있으며, 상기 차선 인식 장치(10)를 구성할 때 설정한다. 또한, 상기 카메라 모듈(110)은, 영상 촬상이 가능한 임의의 모든 카메라 모듈일 수도 있다.
또한, 상기 카메라 모듈(110)은, 상기 한 쌍의 카메라에 의해 동시에 촬영된 제1 영상(일 예로, 상기 한 쌍의 카메라에 포함된 좌측 카메라에 의해 촬영된 좌측 영상)과 제2 영상(일 예로, 상기 한 쌍의 카메라에 포함된 우측 카메라에 의해 촬영된 우측 영상)을 수신한다.
또한, 상기 카메라 모듈(110)은, CCD 소자, CMOS 소자 등과 같은 이미지 센서일 수 있다.
또한, 상기 카메라 모듈(110)은, 차량에 설치되는 경우, 상기 차량의 소정 위치에 고정되어, 주행 방향의 전방, 측방, 후방 등을 촬영하고, 상기 촬영된 영상을 수신하도록 구성할 수도 있다.
상기 제어부(120)는, 상기 차선 인식 장치(10)의 전반적인 동작을 제어한다.
또한, 상기 제어부(120)는, 미리 설정된 가이드 라인(guide line)을 근거로 상기 적어도 한 쌍의 카메라에 의해 수신된 제1 영상 및 제2 영상 중 어느 하나의 영상 내에서 복수의 지지점(support point)을 추출하거나 또는, 상기 단일 카메라 에 의해 수신된 영상 내에서 복수의 지지점을 추출한다. 여기서, 상기 가이드 라인은, 해당 영상에 대해서 수평축을 기준으로 좌우 방향으로 설정되며, 복수의 가이드 라인의 수직축 간의 간격은 영상의 아래쪽에 있는 가이드 라인 간의 간격이 영상의 위쪽에 있는 가이드 라인 간의 간격보다 더 넓게 설정한다. 즉, 상기 가이드 라인은, 원본 영상(또는, 원본 이미지)의 데이터(지지점 등 포함)를 월드 좌표로 변환할 때 최대한 균일한 포인트 간격을 얻기 위해서, 영상의 아래쪽에서 위쪽으로 갈수록 가이드 라인 간의 간격을 좁게 설정한다.
또한, 상기 제어부(120)는, 상기 추출된 복수의 지지점을 월드 좌표로 변환한다. 즉, 상기 제어부(120)는, 상기 저장부(140)에 미리 저장된 변환 행렬(예를 들어, 호모그래픽 행렬(homographic matrix) 등 포함)을 이용하여 상기 추출된 복수의 지지점을 월드 좌표로 각각 변환한다. 여기서, 상기 월드 좌표로 각각 변환된 복수의 지지점들은, 수직 방향의 간격이 동일한 간격을 유지하게 되며, 이에 따라 상기 월드 좌표로 각각 변환된 복수의 지지점들 중에서 일부 에러가 있더라도, 이러한 에러를 확인하기 위한 정확도를 높일 수 있게 된다. 여기서, 상기 에러는, 실제 차선과의 오차를 의미한다.
또한, 상기 제어부(120)는, 상기 월드 좌표로 변환된 포인트들에 대해서 상기 저장부(140)에 미리 저장된 커브 방정식을 근거로 상기 월드 좌표로 변환된 포인트들 중에서 커브에 해당하는 복수의 포인트들을 확인(또는, 추출)한다.
또한, 상기 제어부(120)는, 캘리브레이션 시간을 감소시키고 노이즈를 감소시키기 위해서, 상기 확인된 커브에 해당하는 복수의 포인트들을 근거로 트래킹(tracking)을 수행한다.
또한, 상기 제어부(120)는, 상기 확인된 커브에 해당하는 복수의 포인트들을 근거로 차선의 중앙점을 추종하는 커브 정보를 계산한다. 이때, 상기 계산되는 커브 정보는, 카메라의 캘리브레이션 상태의 영향을 최소화하여, 월드 좌표 상에서의 차선 유지 성능을 향상시키는데 이용할 수 있다. 즉, 상기 제어부(120)는, 상기 확인된 커브에 해당하는 복수의 포인트들에 대해서 최소 자승법(least square method), 랜삭(Random Sample Consensus : RANSAC), 일반 허프 변환법(general hough transform method), 스플라인(spline) 보간법 등 중 어느 하나의 방식을 적용하여 차선의 중앙점을 추종하는 커브 정보를 계산한다.
또한, 상기 제어부(120)는, 상기 계산된 차선의 중앙점을 추종하는 커브 정보, 상기 확인된 커브 등의 정보를 상기 수신한 원본 영상에 오버랩(overlap)하여 상기 표시부(130)에 표시한다. 즉, 상기 제어부(120)는, 월드 좌표인 상기 계산된 차선의 중앙점을 추종하는 커브 정보, 상기 확인된 커브 등의 정보를 이미지 도메인 상에서의 좌표로 각각 변환(또는, 매핑(mapping))하고, 상기 변환된 각각의 좌표를 상기 수신한 원본 영상에 오버랩하여 상기 표시부(130)에 표시한다.
또한, 상기 제어부(120)는, 임의의 GPS 모듈(미도시)을 통해 확인되는 상기 차선 인식 장치(10)(또는, 상기 차선 인식 장치(10)가 구비된 차량)의 위치 및 상기 확인된 커브(또는, 차선)를 근거로 차선 유지와 관련된 기능(경고 메시지 기능, 자동 차선 유지 기능 등 포함)을 수행한다.
상기 표시부(130)는, 상기 제어부(120)의 제어에 의해 상기 저장부(140)에 포함된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시한다. 여기서, 상기 표시부(130)에 표시되는 콘텐츠는, 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다.
또한, 상기 표시부(130)는, 3차원 디스플레이(3D Display) 또는 2차원 디스플레이(2D Display)를 포함한다. 또한, 상기 표시부(130)는, 액정 디스플레이(Liquid Crystal Display : LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display : TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode : OLED), 플렉시블 디스플레이(Flexible Display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수도 있다.
또한, 상기 표시부(130)는, 상기 제어부(120)의 제어에 의해 상기 3차원 영상(또는, 2차원 영상)을 표시한다.
또한, 상기 차선 인식 장치(10)의 구현 형태에 따라 상기 표시부(130)가 2개 이상 존재할 수 있다. 예를 들면, 상기 차선 인식 장치(10)에 복수의 표시부들이 하나의 면(동일면)에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
한편, 상기 표시부(130)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 상기 표시부(130)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 상기 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드, 터치 패널 등의 형태를 가질 수 있다.
또한, 상기 터치 센서는, 상기 표시부(130)의 특정 부위에 가해진 압력 또는 상기 표시부(130)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력 신호로 변환하도록 구성될 수 있다. 또한, 상기 터치 센서는, 터치되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 상기 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(미도시)로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 상기 제어부(120)로 전송한다. 이로써, 상기 제어부(120)는, 상기 표시부(130)의 어느 영역이 터치되었는지 여부 등을 알 수 있게 된다.
또한, 상기 표시부(130)는, 근접 센서를 포함할 수 있다. 또한, 상기 근접 센서는, 터치 스크린에 의해 감싸지는 차선 인식 장치(10)의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다.
또한, 상기 근접 센서는, 소정의 검출 면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 상기 근접 센서는, 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서의 예로는, 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치 스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
이하에서는 설명의 편의를 위해, 상기 터치 스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(Proximity Touch)"라고 칭하고, 상기 터치 스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(Contact Touch)"라고 칭한다. 상기 터치 스크린 상에서 포인터로 근접 터치가 되는 위치는, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다.
또한, 상기 근접 센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 상기 터치 스크린상에 출력될 수 있다.
이와 같이, 상기 표시부(130)가 입력 장치로 사용되는 경우, 사용자에 의한 버튼 조작을 입력받거나, 디스플레이되는 화면을 터치/스크롤하는 등의 조작에 의해 명령 또는 제어 신호를 입력받을 수 있다.
상기 저장부(140)는, 각종 메뉴 화면, 다양한 사용자 인터페이스(User Interface : UI) 및/또는 그래픽 사용자 인터페이스(Graphic User Interface : GUI)를 저장한다.
또한, 상기 저장부(140)는, 변환 행렬(예를 들어, 호모그래픽 행렬 등), 커브 방정식, 최소 자승법 등의 수학식을 저장한다.
또한, 상기 저장부(140)는, 상기 차선 인식 장치(10)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.
또한, 상기 저장부(140)는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 롬(Read-Only Memory : ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 램(Random Access Memory : RAM), SRAM(Static Random Access Memory), 자기 메모리, 자기 디스크, 광 디스크 중 적어도 하나의 저장 매체를 포함할 수 있다.
또한, 상기 차선 인식 장치(10)는, 상기 제어부(120)의 제어에 의해 임의의 단말기 또는 서버와의 통신 기능을 수행하는 통신부(미도시)를 더 포함할 수 있다. 이때, 상기 통신부는, 유/무선 통신 모듈을 포함할 수 있다. 여기서, 상기 무선 인터넷 기술은, 무선랜(Wireless LAN : WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband : Wibro), 와이맥스(World Interoperability for Microwave Access : Wimax), 고속 하향 패킷 접속(High Speed Downlink Packet Access : HSDPA), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution : LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service : WMBS) 등을 포함할 수 있고, 상기 근거리 통신(Short Range Communication) 기술은, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association : IrDA), 초광대역 무선(Ultra Wideband : UWB), 지그비(ZigBee) 등을 포함할 수 있다. 또한, 상기 유선 통신 기술은, USB(Universal Serial Bus) 통신 등을 포함할 수 있다.
또한, 상기 통신부는, 상기 차선 인식 장치(10)가 구비되는 임의의 차량과의 통신을 위한, CAN 통신, 차량용 이더넷, 플렉스레이(flexray), LIN(Local Interconnect Network) 등을 포함할 수 있다.
또한, 상기 통신부는, 상기 제어부(120)의 제어에 의해 임의의 영상에 대해 추출된 복수의 지지점, 상기 복수의 지지점을 월드 좌표로 각각 변환한 포인트들, 상기 월드 좌표로 변환한 포인트들 중에서 커브에 해당하는 복수의 포인트들, 상기 커브에 해당하는 복수의 포인트들을 근거로 계산되는 차선의 중앙점을 추종하는 커브 정보 등을 상기 임의의 단말기 또는 서버에 전송한다.
또한, 상기 통신부는, 상기 임의의 단말기 또는 서버로부터 전송되는 임의의 한 쌍의 스테레오 카메라를 통해 동시에 촬영된 제1 영상 및 제2 영상을 수신한다.
또한, 상기 차선 인식 장치(10)는, 오디오 신호를 수신하기 위한 적어도 하나 이상의 마이크(미도시)를 포함하는 입력부(미도시)를 더 포함할 수 있다.
상기 마이크는, 통화 모드, 녹음 모드, 음성 인식 모드, 영상 회의 모드, 영상 통화 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호(사용자의 음성(음성 신호 또는 음성 정보) 포함)를 수신하여 전기적인 음성 데이터로 처리한다. 또한, 상기 처리된 음성 데이터는 음성 출력부(미도시)를 통해 출력하거나 또는, 상기 통신부를 통하여 외부 단말기로 송신 가능한 형태로 변환되어 출력될 수 있다. 또한, 상기 마이크는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수도 있다.
또한, 상기 입력부는, 사용자에 의한 버튼 조작에 따른 신호를 수신하거나, 디스플레이되는 화면을 터치/스크롤하는 등의 조작에 의해 생성된 명령 또는 제어 신호를 수신한다.
또한, 상기 입력부는, 사용자에 의해 입력된 정보에 대응하는 신호를 수신하며, 키보드(keyboard), 키 패드(Key Pad), 돔 스위치(Dome Switch), 터치 패드(정압/정전), 터치 스크린(touch screen), 조그 셔틀(Jog Shuttle), 조그 휠, 조그 스위치, 마우스(mouse), 스타일러스 펜(Stylus Pen), 터치 펜(Touch Pen), 레이저 포인터 등의 다양한 장치가 사용될 수 있다. 이때, 상기 입력부는, 상기 다양한 장치에 의한 입력에 대응하는 신호를 수신한다.
또한, 상기 차선 인식 장치(10)는, 상기 제어부(120)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력하는 음성 출력부(미도시)를 더 포함할 수 있다. 여기서, 상기 음성 출력부는, 스피커가 될 수도 있다.
이와 같이, 영상 내에서 차선의 후보군이 되는 지지점을 추출하여 월드 좌표로 변환하고, 상기 변환된 월드 좌표 상에서 차선을 인식하여, 카메라 정보와 월드 좌표 간의 캘리브레이션의 오차 전이에 있어서, 영상에서 직접 차선을 인식하는 방법에 비하여 누적 에러의 가능성을 줄일 수 있다.
또한, 이와 같이, 월드 좌표 상에서 인식된 차선에 대한 정보를 표시하고 이를 근거로 경고 메시지를 생성 및 출력하여, 정확성/민감성을 향상시키고 사용자의 편의를 향상시킬 수 있다.
이하에서는, 본 발명에 따른 차선 인식 방법을 도 2 내지 도 9를 참조하여 상세히 설명한다.
도 2는 본 발명의 일 실시예에 따른 차선 인식 방법을 나타낸 흐름도이다.
먼저, 카메라 모듈(110)은, 차선 인식 장치(10)의 동일면의 동일 중심축 상에 수평 간격으로 이격되어 설치된 적어도 한 쌍의 카메라(일 예로, 스테레오 카메라 또는 스테레오코스픽 카메라)를 통해 촬영된 제1 영상 및 제2 영상을 수신하거나 또는, 단일 카메라를 통해 촬영된 영상을 수신한다. 여기서, 상기 제1 영상은, 상기 한 쌍의 카메라에 포함된 좌측 카메라에 의해 촬영된 좌측 영상이고, 상기 제2 영상은 상기 한 쌍의 카메라에 포함된 우측 카메라에 의해 촬영된 우측 영상일 수 있다. 또한, 상기 카메라 모듈(110)은, 상기 한 쌍의 카메라를 통해 촬영된 제1 영상 및 제2 영상 중에서 어느 하나의 영상을 수신할 수도 있다.
일 예로, 상기 카메라 모듈(110)은, 도 3에 도시한 바와 같이, 상기 단일 카메라를 통해 촬영된 원본 영상(310)을 수신한다(S110).
이후, 제어부(120)는, 상기 카메라 모듈(110)을 통해 수신된 영상 및 지지점(support point)을 추출하기 위한 미리 설정된 가이드 라인(guide line)을 근거로 상기 수신된 영상 내에서 복수의 지지점을 추출한다. 이때, 상기 가이드 라인은, 도 4에 도시한 바와 같이, 원본 영상(310)의 아래쪽은 월드 좌표로 변환되면 가까운 영역을 나타내고 원본 영상(310)의 중간 및 위쪽은 월드 좌표로 변환되면 먼 영역을 나타내므로, 원본 영상의 데이터를 월드 좌표로 변환 시 최대한 균일한 포인트 간격을 얻기 위해서, 원본 영상(310)의 아래쪽은 가이드 라인(410)의 줄간 간격을 넓게 설정하고, 원본 영상(310)의 위쪽으로 갈수록 가이드 라인(410)의 줄간 간격을 점점 좁게 설정한다. 여기서, 가이드 라인의 줄간 간격의 변경폭은, 설계자의 설계에 따라 다양하게 설정할 수 있으며, 또한, 월드 좌표로 변환 시, 동일한 줄간 간격을 유지하도록 설정할 수 있다.
일 예로, 상기 제어부(120)는, 도 5에 도시한 바와 같이, 상기 미리 설정된 가이드 라인을 근거로 상기 수신된 영상 내에서 복수의 지지점을 추출하고, 표시부(130)를 통해 상기 추출된 복수의 지지점(510)을 이미지 도메인 상에 표시한다. 여기서, 수평축(x축)을 기준으로 상기 복수의 지지점들 간의 수직 방향의 간격은 상기 표시부(130)의 수직 방향의 아래쪽에서 수직 방향의 위쪽으로 갈수록 좁아진다(S120).
이후, 상기 제어부(120)는, 상기 추출된 복수의 지지점을 월드 좌표로 변환한다.
즉, 상기 제어부(120)는, 저장부(140)에 미리 저장된 변환 행렬(예를 들어, 호모그래픽 행렬(homographic matrix) 등 포함)을 이용하여 상기 추출된 복수의 지지점을 월드 좌표로 변환한다.
일 예로, 상기 제어부(120)는, 도 6에 도시한 바와 같이, 상기 저장부(140)에 미리 저장된 호모그래픽 행렬을 근거로 상기 추출된 복수의 지지점을 월드 좌표로 변환하고, 상기 월드 좌표로 변환된 복수의 지지점(610)을 상기 표시부(130)에 표시한다. 여기서, 수평축을 기준으로 상기 월드 좌표로 변환된 복수의 지지점들 간의 수직 방향의 간격은 동일한 간격을 유지한다(S130).
이후, 상기 제어부(120)는, 상기 월드 좌표로 변환된 복수의 지지점 및 상기 저장부(140)에 미리 저장된 커브 방정식을 근거로 상기 월드 좌표로 변환된 복수의 지지점 중에서 커브에 해당하는 복수의 포인트들을 확인(또는, 추출)한다.
즉, 상기 제어부(120)는, 상기 월드 좌표로 변환된 복수의 지지점을 상기 저장부(140)에 미리 저장된 커브 방정식에 대입하여, 상기 대입 결과를 근거로 상기 월드 좌표로 변환된 복수의 지지점의 커브 유무를 확인한다. 여기서, 상기 커브 방정식은 2차원 이상의 방정식일 수 있다.
일 예로, 상기 제어부(120)는, 상기 월드 좌표로 변환된 복수의 지지점을 상기 저장부(140)에 미리 저장된 2차 커브 방정식(예를 들어, y=ax2+bx+c, 여기서 a는 곡률, b는 기울기(또는, 헤딩), C는 옵셋)에 대입하여, a=0이면, 직선으로 인식하고, a≠0이면, 커브로 인식한다.
다른 일 예로, 상기 제어부(120)는, 상기 월드 좌표로 변환된 복수의 지지점을 상기 저장부(140)에 미리 저장된 3차 커브 방정식(예를 들어, y=ax3+bx2+cx+d, 여기서, a는 커브 변화율(curve derivative), b는 곡률, c는 헤딩, d는 옵셋)에 대입하여, 커브 유무를 확인한다. 이때, a가 0일 경우, 2차 방정식에서 b는 곡율, c는 헤딩, d는 옵셋을 나타내며, a와 b 모두 0일 경우는 직선 검출로서, c는 헤딩, d는 옵셋을 나타낸다.
또한, 상기 제어부(120)는, 캘리브레이션 시간을 감소시키고 노이즈를 감소시키기 위해서 상기 확인된 커브에 해당하는 복수의 포인트들을 근거로 트래킹(tracking)을 수행한다. 여기서, 캘리브레이션은, 카메라 모듈(110)과 월드 평면과의 변환 관계를 계산하는 것을 의미한다.
일 예로, 상기 제어부(120)는, 도 7에 도시한 바와 같이, 상기 확인된 커브에 해당하는 복수의 포인트들을 근거로 트래킹을 수행하고, 상기 트래킹 수행 결과(710)를 상기 표시부(130)에 표시한다(S140).
이후, 상기 제어부(120)는, 상기 확인된 커브에 해당하는 복수의 포인트들에 대해서 차선의 중앙점을 추종하는 커브 정보를 계산한다. 이때, 상기 계산된 커브 정보는, 카메라의 캘리브레이션 상태의 영향을 최소화하여, 월드 좌표 상에서의 차선 유지 성능을 향상시키는데 이용할 수 있다.
일 예로, 상기 제어부(120)는, 상기 확인된 커브에 해당하는 복수의 포인트들에 대해서 최소 자승법, 랜삭(RANSAC), 일반 허프 변환법, 스플라인 보간법 등 중 어느 하나의 방식을 이용하여 차선의 중앙점을 추종하는 커브 정보를 계산하고, 상기 계산된 커브 정보(810)를 도 8에 도시한 바와 같이 상기 표시부(130)에 표시한다(S150).
이후, 상기 제어부(120)는, 상기 계산된 커브 정보 및/또는 차선 정보(또는, 커브 정보)를 상기 수신한 원본 영상에 오버랩하여 상기 표시부(130)에 표시한다.
즉, 상기 제어부(120)는, 월드 좌표인 상기 계산된 차선의 중앙점을 추종하는 커브 정보, 상기 확인된 차선 정보 등의 정보를 이미지 도메인 상에서의 좌표로 각각 변환(또는, 매핑)하고, 상기 변환된 각각의 좌표를 상기 수신한 원본 영상에 오버랩하여 상기 표시부(130)에 표시한다.
또한, 상기 제어부(120)는, 임의의 GPS 모듈(미도시)을 통해 확인되는 상기 차선 인식 장치(10)(또는, 상기 차선 인식 장치(10)가 구비된 차량)의 위치 및 상기 확인된 커브(또는, 차선)를 근거로 차선 유지와 관련된 기능(경고 메시지 기능, 자동 차선 유지 기능 등 포함)을 수행한다.
일 예로, 상기 제어부(120)는, 도 9에 도시한 바와 같이, 원본 영상(310)과 상기 계산된 커브 정보에 대응하는 정보(910) 및 차선 정보에 대응하는 정보(920)를 상기 표시부(130)에 표시한다(S160).
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
10: 차선 인식 장치 110: 카메라 모듈
120: 제어부 130: 표시부
140: 저장부

Claims (16)

  1. 미리 설정된 가이드 라인을 근거로 원본 영상에서 복수의 지지점을 추출하는 단계;
    상기 추출된 복수의 지지점을 월드 좌표로 변환하는 단계;
    상기 월드 좌표로 변환된 복수의 지지점 중에서 미리 저장된 커브 방정식을 근거로 커브에 해당하는 복수의 포인트를 확인하는 단계;
    상기 확인된 복수의 포인트를 근거로 차선의 중앙점을 추종하는 커브 정보를 계산하는 단계; 및
    상기 확인된 복수의 포인트 및/또는 상기 계산된 커브 정보를 상기 원본 영상에 오버랩하여 표시하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.
  2. 제1항에 있어서, 상기 미리 설정된 가이드 라인은,
    상기 원본 영상의 수평 방향으로 복수의 가이드 라인이 설정되며,
    상기 복수의 가이드 라인 간의 간격은, 위쪽에서 아래쪽으로 갈수록 기설정된 간격으로 점차 넓어지는 것을 특징으로 하는 차선 인식 방법.
  3. 제1항에 있어서, 상기 추출된 복수의 지지점을 월드 좌표로 변환하는 단계는,
    미리 저장된 호모그래픽 행렬을 근거로 상기 추출된 복수의 지지점을 월드 좌표로 각각 변환하는 것을 특징으로 하는 차선 인식 방법.
  4. 제3항에 있어서, 상기 월드 좌표로 변환된 복수의 지지점은,
    수직 방향의 간격이 서로 동일한 것을 특징으로 하는 차선 인식 방법.
  5. 제1항에 있어서,
    상기 확인된 복수의 포인트를 근거로 트래킹을 수행하는 단계를 더 포함하는 것을 특징으로 하는 차선 인식 방법.
  6. 제1항에 있어서, 상기 커브 정보를 계산하는 단계는,
    상기 확인된 복수의 포인트에 최소 자승법을 적용하여 상기 커브 정보를 계산하는 것을 특징으로 하는 차선 인식 방법.
  7. 제1항에 있어서, 상기 원본 영상에 오버랩하여 표시하는 단계는,
    상기 확인된 복수의 포인트 및/또는 상기 계산된 커브 정보를 이미지 도메인 상에서의 좌표로 각각 변환하는 과정; 및
    상기 이미지 도메인 상에서의 좌표로 각각 변환된 정보를 상기 원본 영상에 오버랩하여 표시하는 과정을 포함하는 것을 특징으로 하는 차선 인식 방법.
  8. 미리 설정된 가이드 라인을 근거로 원본 영상에서 복수의 지지점을 추출하고, 상기 추출된 복수의 지지점을 월드 좌표로 변환하고, 상기 월드 좌표로 변환된 복수의 지지점 중에서 미리 저장된 커브 방정식을 근거로 커브에 해당하는 복수의 포인트를 확인하는 제어부; 및
    상기 확인된 복수의 포인트를 표시하는 표시부를 포함하는 것을 특징으로 하는 차선 인식 장치.
  9. 제8항에 있어서, 상기 제어부는,
    상기 확인된 복수의 포인트를 근거로 차선의 중앙점을 추종하는 커브 정보를 계산하는 것을 특징으로 하는 차선 인식 장치.
  10. 제9항에 있어서, 상기 표시부는,
    상기 제어부의 제어에 의해, 상기 확인된 복수의 포인트 및/또는 상기 계산된 커브 정보를 상기 원본 영상에 오버랩하여 표시하는 것을 특징으로 하는 차선 인식 장치.
  11. 제10항에 있어서, 상기 미리 설정된 가이드 라인은,
    상기 원본 영상의 수평 방향으로 복수의 가이드 라인이 설정되며,
    상기 복수의 가이드 라인 간의 간격은, 위쪽에서 아래쪽으로 갈수록 기설정된 간격으로 점차 넓어지는 것을 특징으로 하는 차선 인식 장치.
  12. 제10항에 있어서, 상기 제어부는,
    미리 저장된 호모그래픽 행렬을 근거로 상기 추출된 복수의 지지점을 월드 좌표로 각각 변환하는 것을 특징으로 하는 차선 인식 장치.
  13. 제12항에 있어서, 상기 월드 좌표로 변환된 복수의 지지점은,
    수직 방향의 간격이 서로 동일한 것을 특징으로 하는 차선 인식 장치.
  14. 제10항에 있어서, 상기 제어부는,
    상기 확인된 복수의 포인트를 근거로 트래킹을 수행하는 것을 특징으로 하는 차선 인식 장치.
  15. 제10항에 있어서, 상기 제어부는,
    상기 확인된 복수의 포인트에 최소 자승법을 적용하여 상기 커브 정보를 계산하는 것을 특징으로 하는 차선 인식 장치.
  16. 제10항에 있어서, 상기 제어부는,
    상기 확인된 복수의 포인트 및/또는 상기 계산된 커브 정보를 이미지 도메인 상에서의 좌표로 각각 변환하고, 상기 표시부 상에서 상기 이미지 도메인 상에서의 좌표로 각각 변환된 정보를 상기 원본 영상에 오버랩하여 표시하는 것을 특징으로 하는 차선 인식 장치.
KR1020110061949A 2011-06-24 2011-06-24 차선 인식 장치 및 그 방법 KR20130006893A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110061949A KR20130006893A (ko) 2011-06-24 2011-06-24 차선 인식 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110061949A KR20130006893A (ko) 2011-06-24 2011-06-24 차선 인식 장치 및 그 방법

Publications (1)

Publication Number Publication Date
KR20130006893A true KR20130006893A (ko) 2013-01-18

Family

ID=47837589

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110061949A KR20130006893A (ko) 2011-06-24 2011-06-24 차선 인식 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR20130006893A (ko)

Similar Documents

Publication Publication Date Title
KR20130015746A (ko) 차선 인식 장치 및 그 방법
US10021294B2 (en) Mobile terminal for providing partial attribute changes of camera preview image and method for controlling the same
US10001910B2 (en) Mobile terminal and controlling method thereof for creating shortcut of executing application
US9959040B1 (en) Input assistance for computing devices
US10360871B2 (en) Method for sharing screen with external display device by electronic device and electronic device
US9007321B2 (en) Method and apparatus for enlarging a display area
KR102331888B1 (ko) 디스플레이 센서 및 베젤 센서에 대한 도전성 트레이스 라우팅
US10073493B2 (en) Device and method for controlling a display panel
EP2808781A1 (en) Method, storage medium, and electronic device for mirroring screen data
EP2503438B1 (en) Mobile terminal and control method thereof
CN109558000B (zh) 一种人机交互方法及电子设备
CN105468261A (zh) 移动终端及其控制方法
KR101667727B1 (ko) 이동 단말기 및 이의 제어방법
CN108108113B (zh) 网页切换方法及装置
KR101257871B1 (ko) 소실점 및 광류를 기반으로 한 검출 장치 및 검출 방법
KR101641251B1 (ko) 차선 인식 장치 및 그 방법
US20140359410A1 (en) Method and apparatus for gesture-based data processing
US9262689B1 (en) Optimizing pre-processing times for faster response
KR101533603B1 (ko) 인식방법 및 인식장치
KR101677640B1 (ko) 차선 인식 장치 및 그 방법
US20140292726A1 (en) Information processing apparatus, information processing method, and computer-readable recording medium recording information processing program
KR20160016397A (ko) 이동 단말기 및 그 제어방법
KR101612821B1 (ko) 차선 인식 장치 및 그 방법
KR20130015740A (ko) 차선 유지 제어를 위한 차선 중심 추정 방법 및 그 장치
KR20200117183A (ko) 메시지를 표시하는 전자 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application