KR20120086962A - 차량용 내비게이션에서의 영상에서 앞차 검출을 통한 거리 인식 시스템 및 방법 - Google Patents

차량용 내비게이션에서의 영상에서 앞차 검출을 통한 거리 인식 시스템 및 방법 Download PDF

Info

Publication number
KR20120086962A
KR20120086962A KR1020110008348A KR20110008348A KR20120086962A KR 20120086962 A KR20120086962 A KR 20120086962A KR 1020110008348 A KR1020110008348 A KR 1020110008348A KR 20110008348 A KR20110008348 A KR 20110008348A KR 20120086962 A KR20120086962 A KR 20120086962A
Authority
KR
South Korea
Prior art keywords
vehicle
distance
image
detecting
candidate region
Prior art date
Application number
KR1020110008348A
Other languages
English (en)
Other versions
KR101276073B1 (ko
Inventor
이한우
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to KR1020110008348A priority Critical patent/KR101276073B1/ko
Publication of KR20120086962A publication Critical patent/KR20120086962A/ko
Application granted granted Critical
Publication of KR101276073B1 publication Critical patent/KR101276073B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control
    • B60Y2300/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

차량용 내비게이션에서의 영상에서 앞차 검출을 통한 거리 인식 시스템 및 방법이 개시된다. 카메라로부터 차량의 전방을 촬영한 영상을 입력 받아 영상을 그레이(grey) 영상으로 변환하는 영상 처리부; 그레이 영상에서 전방 차량을 검출하기 위한 관심 영역(region of interest)을 설정하는 영역 설정부; 차량에 대한 학습 데이터를 이용하여 관심 영역에서 전방 차량을 검출하는 차량 검출부; 및 영상에서의 거리에 대한 설정 값을 기초로 전방 차량과의 거리를 판단하는 거리 판단부를 포함하는 차량용 내비게이션의 전방 차량 거리 인식 시스템이 제공된다.

Description

차량용 내비게이션에서의 영상에서 앞차 검출을 통한 거리 인식 시스템 및 방법{SYSTEM AND METHOD FOR DETECTING DISTANCE BETWEEN FORWARD VEHICLE USING IMAGE IN NAVIGATION FOR VEHICLE}
본 발명의 실시예들은 카메라 일체형 내비게이션에서 전방 차량을 검출하여 전방 차량과의 거리를 인식하는 시스템 및 방법에 관한 것이다.
일반적으로, 자동차에는 운전자가 주행중 주변의 사물, 특히 차량들 위치를 파악할 수 있도록 룸 미러(Room Mirror) 및 사이드 미러(Side Mirror)를 구비한다. 통상 룸 미러는 후방의 사물들을 확인하기 위해 사용되고, 사이드 미러는 좌?우측 후방의 사물들을 확인하기 위해 사용된다.
그러나, 룸 미러 및 사이드 미러로는 사물을 확인할 수 없는 사각지대가 존재하고, 이로 인해 교통사고가 많이 발생하고 있다. 또한, 눈이나 비가 오는 경우 룸 미러 및 사이드 미러로 좌?우측 및 후방의 사물들을 확인하기 어려운 문제점이 있다.
이러한 문제점을 해결하기 위해 영상에서 전방의 차량을 인식하여 전방 충돌 경고를 해주는 차량 충돌 경고 장치들이 개발되어 출시되고 있다. 이러한 차량 충돌 경고 장치는 룸 미러 뒤의 차량 앞유리에 전용 카메라를 장착하여, 카메라로 전방의 영상을 촬영하고 촬영된 영상에서 전방 차량을 인식하여 일정 거리 이내의 인접차량들이 검출되는 경우 경보음을 발생하여 운전자에게 충돌 가능성이 있음을 알려주는 것이다.
기존의 차량 충돌 경고 장치는 전용 카메라 모듈을 구비한 별도의 제품으로 구성되어 있어, 필요할 경우 개인이 차량에 별도 장착 후 사용하는 수밖에 없다. 특히, 차량 충돌 경고 장치의 영상에서 거리를 인식하기 위해서는 스테레오 카메라 또는 카메라 설치 위치에 대한 정확한 수치 데이터가 필요하기 때문에 카메라를 설치하는 데에 있어 정확성이 요구되어 카메라 설치에 어려움이 있었다. 또한, 최근 내비게이션의 사용이 일반화 되고 있음에도 현재 내비게이션에서 영상을 통해 앞차 간 거리를 인식하여 충돌 경고 서비스를 제공하는 내비게이션이 없다는 문제가 지적되어 왔다.
카메라 전용 모듈을 이용하여 차량 충돌 경고 서비스를 하는 것이 아니라, 카메라 일체형 내비게이션에서의 영상에서 직접 전방 차량을 검출하여 전방 차량과의 거리를 인식할 수 있는 거리 인식 시스템 및 방법이 제공된다.
카메라 또는 카메라 설치 위치에 대한 수치 데이터를 사용하는 것이 아니라, 실험에 의해 얻어진 임계 값을 적용하여 앞차와의 거리를 검출할 수 있는 앞차 거리 인식 시스템 및 방법이 제공된다.
전방 차량을 검출하기 위하여 별도의 센서를 사용하지 않고 내비게이션에서의 영상만으로 전방 차량 검출을 통해 거리를 인식하는 거리 인식 시스템 및 방법이 제공된다.
카메라로부터 차량의 전방을 촬영한 영상을 입력 받아 영상을 그레이(grey) 영상으로 변환하는 영상 처리부; 그레이 영상에서 전방 차량을 검출하기 위한 관심 영역(region of interest)을 설정하는 영역 설정부; 차량에 대한 학습 데이터를 이용하여 관심 영역에서 전방 차량을 검출하는 차량 검출부; 및 영상에서의 거리에 대한 설정 값을 기초로 전방 차량과의 거리를 판단하는 거리 판단부를 포함하는 차량용 내비게이션의 전방 차량 거리 인식 시스템이 제공된다.
일측에 따르면, 학습 데이터는 차량을 촬영한 영상에 대하여 아다부스트(Adaboost) 알고리즘을 통해 학습된 데이터를 의미할 수 있다.
다른 측면에 따르면, 차량 검출부는 관심 영역에서 적어도 하나의 차량 후보 영역을 검출한 후, 차량 후보 영역의 시간에 따른 명암 누적 값을 이용하여 차량 후보 영역에서 전방 차량을 검출할 수 있다.
또 다른 측면에 다르면, 차량 검출부는 관심 영역에서 적어도 하나의 차량 후보 영역을 검출한 후, 차량 후보 영역의 크기 비율을 이용하여 차량 후보 영역에서 전방 차량을 검출할 수 있다.
또 다른 측면에 따르면, 차량 검출부는 관심 영역에서 차선을 검출한 후 차선을 기준으로 한 차량 후보 영역의 크기 비율에 따라 전방 차량을 검출할 수 있다.
또 다른 측면에 따르면, 차량 검출부는 관심 영역에 해당되는 그레이 영상을 에지(edge)가 검출된 에지 영상으로 변환한 후, 에지 영상에 대하여 허프 변환(hough transform) 알고리즘을 적용하여 직선을 나타내는 에지의 위치를 차선으로 검출할 수 있다.
또 다른 측면에 따르면, 차량 검출부는 관심 영역에서 적어도 하나의 차량 후보 영역을 검출한 후, 이전 영상과 비교하여 차량 후보 영역이 전방 차량으로 검출된 검출 빈도에 따라 차량 후보 영역에서 전방 차량을 판단할 수 있다.
또 다른 측면에 따르면, 거리에 대한 설정 값은 카메라의 초점거리에 의해 실제 차량이 카메라에서 촬영된 영상에 맺히는 상의 크기를 이용하여 측정된 값을 의미할 수 있다.
또 다른 측면에 따르면, 거리에 대한 설정 값은 카메라에서 촬영된 영상을 동일한 크기의 영역으로 분할하는 거리 표시 격자를 이용하여 거리 표시 격자의 각 영역의 위치 별로 실제 거리를 매칭시켜 테이블화 한 값을 의미할 수 있다.
카메라로부터 차량의 전방을 촬영한 영상을 입력 받아 영상을 그레이 영상으로 변환하는 영상 처리단계; 그레이 영상에서 전방 차량을 검출하기 위한 관심 영역을 설정하는 영역 설정단계; 차량에 대한 학습 데이터를 이용하여 관심 영역에서 전방 차량을 검출하는 차량 검출단계; 및 영상에서의 거리에 대한 설정 값을 기초로 전방 차량과의 거리를 판단하는 거리 판단단계를 포함하는 차량용 내비게이션의 전방 차량 거리 인식 방법이 제공된다.
카메라 일체형 내비게이션에서 전방 차량 검출 및 전방 차량과의 거리 인식을 직접 수행함으로써 별도의 차량 충돌 경고 장치를 이용하지 않고도 차량용 내비게이션 자체적으로 차량 충돌 경고 기능을 수행할 수 있어 기능적 측면에서 내비게이션의 제품 경쟁력을 높일 수 있다.
별도의 센서를 사용하지 않고 내비게이션에서의 영상만으로 전방 차량을 검출하는 것은 물론, 카메라 또는 카메라 설치 위치에 대한 수치 데이터를 사용하지 않고 실험에 의해 얻어진 임계 값을 적용하여 앞차와의 거리를 검출할 수 있어 최소한의 단가로 차량 충돌 경고 기능을 갖춘 내비게이션 제품을 만들 수 있다.
도 1은 본 발명의 일실시예에 있어서, 차량용 내비게이션의 전방 차량 거리 인식 시스템의 내부 구성을 도시한 블록도이다.
도 2는 본 발명의 일실시예에 있어서, 차량 후보 영역을 검출하는 과정을 설명하기 위한 예시 영상을 도시한 것이다.
도 3 내지 도 5는 본 발명의 일실시예에 있어서, 차량 후보 영역에서 전방 차량을 판단하는 과정을 설명하기 위한 예시 영상을 도시한 것이다.
도 6은 본 발명의 일실시예에 있어서, 전방 차량과의 거리를 판단하는 과정을 설명하기 위한 예시 영상을 도시한 것이다.
도 7은 본 발명의 일실시예에 있어서, 차량용 내비게이션의 전방 차량 거리 인식 방법의 전 과정을 도시한 흐름도이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일실시예에 있어서, 차량용 내비게이션의 전방 차량 거리 인식 시스템의 내부 구성을 도시한 블록도이다. 전방 차량 거리 인식 시스템(100)은 차량용 내비게이션 기기, 특히 카메라 일체형 내비게이션에 적용되는 것으로, 내비게이션 기기와 하나의 구성으로 이루어진다.
일실시예에 따른 전방 차량 거리 인식 시스템(100)은 전방 차량과의 추돌 위험을 사전에 경고하기 위하여 내비게이션에서 컴퓨터 비전 기술을 이용하여 전방 차량을 검출하고 전방 차량과의 거리를 인식하는 구성으로, 도 1에 도시한 바와 같이, 카메라(110), 영상 처리부(120), 영역 설정부(130), 차량 검출부(140), 거리 판단부(150)를 포함한다. 여기서, 전방 차량 거리 인식 시스템(100)은 공개 컴퓨터 비전 알고리즘 openCV 코드를 활용하여 내비게이션에서의 영상에서 전방 차량 및 전방 차량과의 거리를 인식할 수 있다.
카메라(110)는 주행 중인 차량의 전방을 촬영하는 수단으로, 일정 크기(예를 들어, 640*480)의 영상을 촬영할 수 있다. 이때, 촬영된 영상은 RGB(Red Green Blue)(칼라) 영상을 의미할 수 있다. 상기한 카메라(110)는 차량용 내비게이션에 일체형으로 구성된 것으로, 차량의 전방을 촬영할 수 있도록 내비게이션 본체의 뒤인, 차량의 앞 유리를 바라보는 위치에 장착된 것이다.
영상 처리부(120)는 카메라(110)로부터 촬영된 RGB 영상을 입력 받아 입력된 RGB 영상을 그레이(흑백) 영상으로 변환하는 역할을 수행한다. 또한, 영상 처리부(120)는 그레이 영상이 일정한 명암값 분포를 갖도록 그레이 영상의 명암 값에 대한 평활화를 수행할 수 있다.
도로의 일부분이 그림자 영향을 받으면 전방 차량이나 전방 차량과의 거리를 잘못 인식할 수 있기 때문에 그림자 영향을 최소화 하기 위하여, 본 실시예에서는 광원을 보정할 수 있는 방법을 적용할 수 있다. 일례로, 카메라(110)에서 촬영에 사용할 광원을 보정한 후 보정된 광원으로 차량의 전방을 촬영하여 RGB 영상을 얻을 수 있다. 다른 일례로, 영상 처리부(120)에서 RGB 영상에 대하여 광원 보정 알고리즘을 적용하여 RGB 영상의 광원을 보정한 후, 보정된 RGB 영상을 그레이 영상으로 변경할 수 있다. 한편, 차량 내부 유리에 반사된 피사체의 영향으로 영상의 특정 부분에서 앞차 검출이 실패하여 차간 거리를 인식하지 못하는 경우가 발생할 수 있다. 이와 같은 문제를 개선하고 반사에 의한 영향을 최소화 하기 위하여, 카메라(110)의 렌즈 앞 단에 반사 억제 상자를 부착함으로써 보정된 영상을 얻을 수 있다.
영역 설정부(130)는 그레이 영상에서 전방 차량을 검출하기 위한 관심 영역(ROI: Region of Interest)을 설정하는 역할을 수행한다. 이때, 관심 영역은 카메라(110)의 설치 각도 및 시야각에 따라 촬영된 영상 내에서 차량이 존재 가능한 영역으로 설정될 수 있다. 예를 들어, 영역 설정부(130)는 차선이 시작되는 위치를 기점으로 y축 방향으로 일정 거리만큼의 영역을 관심 영역으로 설정할 수 있다. 이때, 관심 영역이 결정되는 조건인, 차선이 시작되는 위치와 일정 거리는 차로의 폭과 카메라(110)의 시야각으로 추정할 수 있다.
차량 검출부(140)는 차량에 대한 학습 데이터를 이용하여 관심 영역에서 전방 차량을 검출하는 역할을 수행한다. 전방 차량 검출을 위한 학습패턴을 생성하기 위해서는, 카메라에서 촬영된 영상에서 차량의 뒷모습이 양호하게 나타나는 영상을 포지티브(positive) 영상으로 수집하고, 차량과 관련 없는 영상을 네가티브(negative) 영상으로 수집할 수 있다. 본 실시예에서는, 아다부스트(Adaboost) 알고리즘을 적용하여 포지티브 영상과 네가티브 영상으로 분류된 훈련 데이터를 학습시키고, 훈련된 학습 결과를 XML 파일로 변경한 후 이를 전방 차량을 검출하기 위한 자동차 검출 패턴으로 이용할 수 있다. 즉, 차량 검출부(140)는 도 2에 도시한 바와 같이, 관심 영역에서 아다부스트 알고리즘을 적용하여 적어도 하나의 차량 후보 영역(201)(202)을 검출한 후, 차량 후보 영역(201)(202)을 검증하는 과정을 통해 전방 차량을 검출할 수 있다. 일례로, 차량 검출부(140)는 영상에서 차량의 경우 시간 경과에 따라 명암 누적 값이 쌓이면 밝아진다는 점을 기반으로 차량 후보 영역을 검증할 수 있다. 도 3에 도시한 바와 같이, 차량 검출부(140)는 차량 후보 영역 별로 시간에 따른 명암 누적 값을 산출하여 명암 누적 값이 일정 임계치를 초과하는 차량 후보 영역(301)을 전방 차량인 것으로 판단하고 그렇지 않은 영역의 경우 차량 후보 영역에서 제외시킬 수 있다. 다른 일례로, 차량 검출부(140)는 한 장의 영상의 공간 영역에서 전방 차량과의 거리비율을 이용하여 차량 후보 영역을 검증할 수 있다. 도 4를 참조하면, 전방 차량의 경우 차간 거리가 멀어질수록 차량(401)의 좌우 폭이 줄어들고 차간 거리가 가까워질수록 차량(402)의 좌우 폭이 넓어지는 특성인 공간적 비율 특성을 이용하여 차량 위치에 따른 거리비율의 실험치를 구할 수 있다. 즉, 차량 검출부(140)는 차량 후보 영역 별로 크기 비율을 각각 산출한 후, 차량 후보 영역의 크기 비율이 차량 위치에 따른 거리비율의 실험치와 대응되면 전방 차량인 것으로 판단하고 그렇지 않은 영역의 경우 차량 후보 영역에서 제외시킬 수 있다. 또 다른 일례로, 차량 검출부(140)는 관심 영역에서 차선을 검출한 후 검출된 차선을 기준으로 한 전방 차량과의 거리비율을 통해 차량 후보 영역을 검증할 수 있다. 이를 위하여, 차량 검출부(140)는 관심 영역에 해당되는 그레이 영상에 캐니(Canny) 알고리즘을 적용하여 에지(edge)를 검출한 에지 영상을 얻을 수 있다. 그리고, 도 5에 도시한 바와 같이 차량 검출부(140)는 에지 영상에 대하여 허프 변환 알고리즘을 적용하여 직선을 나타내는 에지를 검출하고 검출된 직선의 위치를 차선(503)으로 인식할 수 있다. 이때, 차량 검출부(140)는 차량 후보 영역 중 차선(503)의 위치에 있는 차량 후보 영역을 선별한 후, 선별된 차량 후보 영역의 크기 비율이 차량 위치에 따른 거리비율의 실험치와 대응되면 전방 차량(501)인 것으로 판단할 수 있다. 전방 차량을 검출하기 위하여 상기한 차선 검출 알고리즘을 적용하는 경우 전방 차량과의 거리비율을 이용한 전방 차량 검출이 더욱 정확해질 수 있다. 또 다른 일례로, 차량 검출부(140)는 차량 후보 영역으로 검출된 위치에서 이전 영상들과 현재 영상의 차량 검출 빈도를 적용하여 전방 차량을 검출할 수 있다. 다시 말해, 차량 검출부(140)는 차량 후보 영역을 이전 영상과 비교하여 차량 후보 영역이 전방 차량으로 검출된 검출 빈도에 따라 전방 차량의 유무를 판단할 수 있다.
거리 판단부(150)는 실험을 통해 얻은 영상에서의 거리에 대한 설정 값(이하, '거리 실험치'라 칭함)을 기초로 전방 차량과의 거리를 판단하는 역할을 수행한다. 일례로, 거리 판단부(150)는 카메라(110)의 내부 파라미터를 기초로 측정된 거리 실험치를 이용하여 전방 차량과의 거리를 인식할 수 있다. 이는, 실제 3차원 세계와 카메라(110)에 의해 획득된 영상 사이의 관계를 규명하는데 중요한 역할을 한다. 여기에는 실세계의 단위와 영상에서의 단위 관계도 중요하다. 카메라 보정 과정은 카메라의 기하학적 모델과 렌즈의 왜곡 모델을 알려주는 역할을 한다. 이 두 모델은 카메라의 내부 파라미터를 정의하고 실제 장면을 해석하는 용도로 이 모델들을 사용할 수 있다. 카메라의 초점거리에 의해 실제 객체가 영상에서 얼마만한 크기로 상이 맺히는가를 계산하여 거리를 측정할 수 있다. 즉, 실험에 의해 카메라의 초점 거리에 의해 실제 차량이 카메라에 촬영된 영상에 맺히는 상의 크기를 이용하여 거리 실험치를 얻을 수 있으며, 거리 판단부(150)는 카메라(110)의 내부 파라미터를 기초로 측정된 거리 실험치를 기준으로 차량 검출부(140)에서 검출된 전방 차량과의 거리가 멀리 있는지 또는 가까이 있는지 여부를 판단할 수 있다. 다른 일례로, 거리 판단부(150)는 순수 카메라 측정 파라미터를 이용하지 않고 실험을 통해 얻은 실험치를 이용하여 전방 차량과의 거리를 인식할 수 있다. 실제 세계와 영상에서의 단위 관계를 구하는 과정에서 카메라 파라미터를 사용하지 않는다. 실제 세계에서 격자, 눈금자 등의 거리 표시를 이용하여 카메라로 투영하여 이때 투영되는 영상을 이용하여 거리 테이블을 정의할 수 있다. 도 6에 도시한 바와 같이, 동일한 크기의 격자지만 위치에 따라 실제 세계의 거리와는 그 거리 값이 다르다. 그러나, 격자 위치에 따라 일정한 거리를 가지므로 이를 거리 테이블 화 시킴으로써 영상에서 거리를 판별할 수 있다. 즉, 실험을 통해 카메라(110)에서 촬영된 영상을 동일한 크기의 영역으로 분할하는 거리 표시 격자를 이용하여 거리 표시 격자의 각 영역의 위치 별로 실제 거리를 매칭시켜 거리 실험치를 테이블화 할 수 있으며, 거리 판단부(150)는 미리 정의된 거리 테이블의 거리 실험치를 기준으로 차량 검출부(140)에서 검출된 전방 차량과의 거리가 멀리 있는지 또는 가까이 있는지 여부를 판단할 수 있다. 이때, 거리 판단부(150)는 영역 위치 별로 실제 거리 값이 매칭되어 있기 때문에 전방 차량과의 거리를 수치로 직접 제공할 수 있다.
상기한 구성의 전방 차량 거리 인식 시스템(100)은 내비게이션의 영상에서 전방 차량을 인식한 후, 전방 차량과의 거리가 가깝다고 판단되거나 일정 거리 이내로 판단되는 경우 경보음을 발생하여 운전자에게 전방 차량과의 추돌 위험을 사전에 경고할 수 있다.
도 7은 본 발명의 일실시예에 있어서, 차량용 내비게이션의 전방 차량 거리 인식 방법의 전 과정을 도시한 흐름도이다. 본 실시예에 따른 전방 차량 거리 인식 방법은 도 1을 통해 설명한 차량용 내비게이션의 전방 차량 거리 인식 시스템(100)에 의해 각각의 단계가 수행될 수 있다.
단계(710)에서 전방 차량 거리 인식 시스템(100)은 차량의 전방을 촬영하는 카메라로부터 촬영된 RGB 영상을 입력 받아, RGB 영상을 그레이 영상으로 변환한다. 이때, 전방 차량 거리 인식 시스템(100))은 그레이 영상이 일정한 명암값 분포를 갖도록 그레이 영상의 명암 값에 대한 평활화를 수행할 수 있으며, 영상에서의 그림자 영향을 최소화 하기 위하여 카메라에서 사용되는 광원을 보정하거나 촬영 영상인 RGB 영상의 광원을 보정한 후 그레이 영상으로 변경할 수 있다.
단계(720)에서 전방 차량 거리 인식 시스템(100)은 그레이 영상에서 전방 차량을 검출하기 위한 관심 영역을 설정한다. 이때, 관심 영역은 카메라(110)의 설치 각도 및 시야각에 따라 촬영된 영상 내에서 차량이 존재 가능한 영역으로 설정될 수 있다.
단계(730)에서 전방 차량 거리 인식 시스템(100)은 아다부스트 알고리즘에 의해 학습된 차량의 학습 데이터를 이용하여 관심 영역에서 전방 차량을 검출할 수 있다. 일례로, 전방 차량 거리 인식 시스템(100)은 관심 영역에서 적어도 하나의 차량 후보 영역을 검출한 후, 차량 후보 영역의 시간에 따른 명암 누적 값을 이용하여 전방 차량을 검출할 수 있다. 다른 일례로, 전방 차량 거리 인식 시스템(100)은 관심 영역에서 적어도 하나의 차량 후보 영역을 검출한 후, 차량 위치에 따른 거리비율의 실험치를 기준으로 차량 후보 영역의 크기 비율에 따라 전방 차량을 검출할 수 있다. 이때, 전방 차량 거리 인식 시스템(100)은 관심 영역에서 차선을 검출하여 차량 후보 영역 중 차선의 위치에 있는 차량 후보 영역을 선별한 후, 선별된 차량 후보 영역의 크기 비율을 차량 위치에 따른 거리비율의 실험치와 비교하여 전방 차량을 인식할 수 있다. 또 다른 일례로, 전방 차량 거리 인식 시스템(100)은 관심 영역에서 적어도 하나의 차량 후보 영역을 검출한 후, 차량 후보 영역으로 검출된 위치에서 이전 영상들과 현재 영상의 차량 검출 빈도를 적용하여 전방 차량을 검출할 수 있다.
단계(740)에서 전방 차량 거리 인식 시스템(100)은 실험을 통해 얻은 영상에서의 거리 실험치를 기준으로 전방 차량과의 거리를 판단할 수 있다. 여기서, 전방 차량과의 거리를 판단하기 위한 거리 실험치로는 카메라의 초점 거리에 의해 실제 차량이 카메라에서 촬영된 영상에 맺히는 상의 크기를 이용하여 측정된 값을 이용할 수 있다. 또한, 카메라에서 촬영된 영상을 동일한 크기의 영역으로 분할하는 거리 표시 격자를 이용하여 거리 표시 격자의 각 영역의 위치 별로 실제 거리 값을 매칭시켜 테이블화 한 거리 테이블을 영상에서의 거리 실험치로 이용할 수 있다.
이와 같이, 본 발명의 실시예들에 따르면, 전방 차량 검출 및 전방 차량과의 거리 인식을 직접 수행하는 구성을 통해 차량 충돌 경고 기능을 갖춘 카메라 일체형 내비게이션을 제공할 수 있다. 또한, 본 발명의 실시예들에 따르면, 별도의 센서나 순수 카메라 측정 파라미터를 이용하지 않고 실험을 통해 얻은 영상에서의 거리 실험치를 사용하여 앞차와의 거리를 검출할 수 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
100: 전방 차량 거리 인식 시스템
110: 카메라
120: 영상 처리부
130: 영역 설정부
140: 차량 검출부
150: 거리 판단부

Claims (21)

  1. 차량용 내비게이션의 전방 차량 거리 인식 시스템에 있어서,
    카메라로부터 차량의 전방을 촬영한 영상을 입력 받아 상기 영상을 그레이(grey) 영상으로 변환하는 영상 처리부;
    상기 그레이 영상에서 전방 차량을 검출하기 위한 관심 영역(region of interest)을 설정하는 영역 설정부;
    차량에 대한 학습 데이터를 이용하여 상기 관심 영역에서 상기 전방 차량을 검출하는 차량 검출부; 및
    상기 영상에서의 거리에 대한 설정 값을 기초로 상기 전방 차량과의 거리를 판단하는 거리 판단부
    를 포함하는 차량용 내비게이션의 전방 차량 거리 인식 시스템.
  2. 제1항에 있어서,
    상기 영상 처리부는,
    상기 그레이 영상의 명암 값에 대한 평활화를 수행하는 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 시스템.
  3. 제1항에 있어서,
    상기 학습 데이터는,
    상기 차량을 촬영한 영상에 대하여 아다부스트(Adaboost) 알고리즘을 통해 학습된 데이터인 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 시스템.
  4. 제1항에 있어서,
    상기 차량 검출부는,
    상기 관심 영역에서 적어도 하나의 차량 후보 영역을 검출한 후, 상기 차량 후보 영역의 시간에 따른 명암 누적 값을 이용하여 상기 차량 후보 영역에서 상기 전방 차량을 검출하는 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 시스템.
  5. 제1항에 있어서,
    상기 차량 검출부는,
    상기 관심 영역에서 적어도 하나의 차량 후보 영역을 검출한 후, 상기 차량 후보 영역의 크기 비율을 이용하여 상기 차량 후보 영역에서 상기 전방 차량을 검출하는 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 시스템.
  6. 제5항에 있어서,
    상기 차량 검출부는,
    상기 관심 영역에서 차선을 검출한 후 상기 차선을 기준으로 한 상기 차량 후보 영역의 크기 비율에 따라 상기 전방 차량을 검출하는 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 시스템.
  7. 제6항에 있어서,
    상기 차량 검출부는,
    상기 관심 영역에 해당되는 상기 그레이 영상을 에지(edge)가 검출된 에지 영상으로 변환한 후, 상기 에지 영상에 대하여 허프 변환(hough transform) 알고리즘을 적용하여 직선을 나타내는 에지의 위치를 상기 차선으로 검출하는 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 시스템.
  8. 제1항에 있어서,
    상기 차량 검출부는,
    상기 관심 영역에서 적어도 하나의 차량 후보 영역을 검출한 후, 이전 영상과 비교하여 상기 차량 후보 영역이 상기 전방 차량으로 검출된 검출 빈도에 따라 상기 차량 후보 영역에서 상기 전방 차량을 판단하는 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 시스템.
  9. 제1항에 있어서,
    상기 거리에 대한 설정 값은,
    상기 카메라의 초점거리에 의해 실제 차량이 상기 카메라에서 촬영된 영상에 맺히는 상의 크기를 이용하여 측정된 값인 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 시스템.
  10. 제1항에 있어서,
    상기 거리에 대한 설정 값은,
    상기 카메라에서 촬영된 영상을 동일한 크기의 영역으로 분할하는 거리 표시 격자를 이용하여 상기 거리 표시 격자의 각 영역의 위치 별로 실제 거리를 매칭시켜 테이블화 한 값인 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 시스템.
  11. 차량용 내비게이션의 전방 차량 거리 인식 방법에 있어서,
    카메라로부터 차량의 전방을 촬영한 영상을 입력 받아 상기 영상을 그레이 영상으로 변환하는 영상 처리단계;
    상기 그레이 영상에서 전방 차량을 검출하기 위한 관심 영역을 설정하는 영역 설정단계;
    차량에 대한 학습 데이터를 이용하여 상기 관심 영역에서 상기 전방 차량을 검출하는 차량 검출단계; 및
    상기 영상에서의 거리에 대한 설정 값을 기초로 상기 전방 차량과의 거리를 판단하는 거리 판단단계
    를 포함하는 차량용 내비게이션의 전방 차량 거리 인식 방법.
  12. 제11항에 있어서,
    상기 영상 처리단계는,
    상기 그레이 영상의 명암 값에 대한 평활화를 수행하는 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 방법.
  13. 제11항에 있어서,
    상기 학습 데이터는,
    상기 차량을 촬영한 영상에 대하여 아다부스트(Adaboost) 알고리즘을 통해 학습된 데이터인 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 방법.
  14. 제11항에 있어서,
    상기 차량 검출단계는,
    상기 관심 영역에서 적어도 하나의 차량 후보 영역을 검출한 후, 상기 차량 후보 영역의 시간에 따른 명암 누적 값을 이용하여 상기 차량 후보 영역에서 상기 전방 차량을 검출하는 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 방법.
  15. 제11항에 있어서,
    상기 차량 검출단계는,
    상기 관심 영역에서 적어도 하나의 차량 후보 영역을 검출한 후, 상기 차량 후보 영역의 크기 비율을 이용하여 상기 차량 후보 영역에서 상기 전방 차량을 검출하는 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 방법.
  16. 제15항에 있어서,
    상기 차량 검출단계는,
    상기 관심 영역에서 차선을 검출한 후 상기 차선을 기준으로 한 상기 차량 후보 영역의 크기 비율에 따라 상기 전방 차량을 검출하는 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 방법.
  17. 제16항에 있어서,
    상기 차량 검출단계는,
    상기 관심 영역에 해당되는 상기 그레이 영상을 에지가 검출된 에지 영상으로 변환한 후, 상기 에지 영상에 대하여 허프 변환 알고리즘을 적용하여 직선을 나타내는 에지의 위치를 상기 차선으로 검출하는 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 방법.
  18. 제11항에 있어서,
    상기 차량 검출단계는,
    상기 관심 영역에서 적어도 하나의 차량 후보 영역을 검출한 후, 이전 영상과 비교하여 상기 차량 후보 영역이 상기 전방 차량으로 검출된 검출 빈도에 따라 상기 차량 후보 영역에서 상기 전방 차량을 판단하는 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 방법.
  19. 제11항에 있어서,
    상기 거리에 대한 설정 값은,
    상기 카메라의 초점거리에 의해 실제 차량이 상기 카메라에서 촬영된 영상에 맺히는 상의 크기를 이용하여 측정된 값인 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 방법.
  20. 제11항에 있어서,
    상기 거리에 대한 설정 값은,
    상기 카메라에서 촬영된 영상을 동일한 크기의 영역으로 분할하는 거리 표시 격자를 이용하여 상기 거리 표시 격자의 각 영역의 위치 별로 실제 거리를 매칭시켜 테이블화 한 값인 것
    을 특징으로 하는 차량용 내비게이션의 전방 차량 거리 인식 방법.
  21. 제11항 내지 제20항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판단 가능한 기록 매체.
KR1020110008348A 2011-01-27 2011-01-27 차량용 내비게이션에서의 영상에서 앞차 검출을 통한 거리 인식 시스템 및 방법 KR101276073B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110008348A KR101276073B1 (ko) 2011-01-27 2011-01-27 차량용 내비게이션에서의 영상에서 앞차 검출을 통한 거리 인식 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110008348A KR101276073B1 (ko) 2011-01-27 2011-01-27 차량용 내비게이션에서의 영상에서 앞차 검출을 통한 거리 인식 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20120086962A true KR20120086962A (ko) 2012-08-06
KR101276073B1 KR101276073B1 (ko) 2013-06-18

Family

ID=46872629

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110008348A KR101276073B1 (ko) 2011-01-27 2011-01-27 차량용 내비게이션에서의 영상에서 앞차 검출을 통한 거리 인식 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101276073B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103630110A (zh) * 2012-08-28 2014-03-12 鸿富锦精密工业(深圳)有限公司 车辆测距系统及车辆测距方法
KR20160066438A (ko) * 2014-12-02 2016-06-10 주식회사 유라코퍼레이션 차량용 카메라 장치 및 이를 이용한 장애물 거리 측정방법
KR20210058350A (ko) * 2019-11-14 2021-05-24 계명대학교 산학협력단 차량 간 거리 산출 장치 및 방법
KR20220009609A (ko) * 2020-07-16 2022-01-25 주식회사 비젼그리드 자율주행을 위한 영상추적을 이용한 거리 측정 방법 및 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102177268B1 (ko) * 2018-12-20 2020-11-10 한국전자기술연구원 V2x 기지국에서 생성한 도로 레이더 정보를 이용한 도로 객체 지도 생성 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4144464B2 (ja) * 2003-07-08 2008-09-03 日産自動車株式会社 車載用距離算出装置
KR100975749B1 (ko) * 2008-09-24 2010-08-12 금오공과대학교 산학협력단 단일 차선을 이용한 차선 인식 및 차량의 차선 이탈 검출 방법
KR101281260B1 (ko) * 2009-04-07 2013-07-05 주식회사 만도 차량 인식 방법 및 장치
KR101076406B1 (ko) * 2009-11-30 2011-10-25 재단법인대구경북과학기술원 장애물체 위치 및 속도 추정 장치 및 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103630110A (zh) * 2012-08-28 2014-03-12 鸿富锦精密工业(深圳)有限公司 车辆测距系统及车辆测距方法
CN103630110B (zh) * 2012-08-28 2017-02-08 鸿富锦精密工业(深圳)有限公司 车辆测距系统及车辆测距方法
KR20160066438A (ko) * 2014-12-02 2016-06-10 주식회사 유라코퍼레이션 차량용 카메라 장치 및 이를 이용한 장애물 거리 측정방법
KR20210058350A (ko) * 2019-11-14 2021-05-24 계명대학교 산학협력단 차량 간 거리 산출 장치 및 방법
KR20220009609A (ko) * 2020-07-16 2022-01-25 주식회사 비젼그리드 자율주행을 위한 영상추적을 이용한 거리 측정 방법 및 장치

Also Published As

Publication number Publication date
KR101276073B1 (ko) 2013-06-18

Similar Documents

Publication Publication Date Title
CA2958832C (en) Method and axle-counting device for contact-free axle counting of a vehicle and axle-counting system for road traffic
CN106485233B (zh) 可行驶区域检测方法、装置和电子设备
EP2919197B1 (en) Object detection device and object detection method
US20180292201A1 (en) Calibration apparatus, calibration method, and calibration program
KR101243108B1 (ko) 차량의 후방 영상 표시 장치 및 방법
US8848980B2 (en) Front vehicle detecting method and front vehicle detecting apparatus
KR101276073B1 (ko) 차량용 내비게이션에서의 영상에서 앞차 검출을 통한 거리 인식 시스템 및 방법
EP3087532B1 (en) Method for determining a width of a target vehicle by means of a camera system of a motor vehicle, camera system and motor vehicle
KR101268282B1 (ko) 차량용 내비게이션의 차선 이탈 알림 시스템 및 방법
JP2016206721A (ja) 路面標示検出装置及び路面標示検出方法
WO2011016257A1 (ja) 車両用距離算出装置
US11176397B2 (en) Object recognition device
KR101721442B1 (ko) 차량용 블랙박스 후방카메라를 이용한 측후방 충돌방지 시스템 및 충돌방지방법
KR20130015326A (ko) 카메라 시스템 및 이를 이용한 거리 인식 방법
JP2009276906A (ja) 走行情報提供装置
KR20120076999A (ko) 차량의 거리 측정 장치 및 방법
KR20160133386A (ko) 차량용 블랙박스 후방카메라를 이용한 측후방 충돌방지 시스템의 충돌방지방법
JP6174884B2 (ja) 車外環境認識装置および車外環境認識方法
KR20210005605A (ko) 카메라 고유 파라미터에 대한 온라인 평가
WO2014050285A1 (ja) ステレオカメラ装置
WO2008037473A1 (en) Park assist system visually marking up dangerous objects
KR101180676B1 (ko) 차량의 영상인식 기반 상향등 자동 제어 방법
KR102565603B1 (ko) 긴급 제동 시스템의 성능평가 장치 및 방법
KR20150111611A (ko) 차량 후보 검출 장치 및 그 방법
KR102327342B1 (ko) 차량용 카메라 보정 장치

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160607

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170605

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190607

Year of fee payment: 7