KR20110048962A - 차량 인식 방법 및 장치 - Google Patents

차량 인식 방법 및 장치 Download PDF

Info

Publication number
KR20110048962A
KR20110048962A KR1020090105750A KR20090105750A KR20110048962A KR 20110048962 A KR20110048962 A KR 20110048962A KR 1020090105750 A KR1020090105750 A KR 1020090105750A KR 20090105750 A KR20090105750 A KR 20090105750A KR 20110048962 A KR20110048962 A KR 20110048962A
Authority
KR
South Korea
Prior art keywords
image
vehicle
information
peak
unit
Prior art date
Application number
KR1020090105750A
Other languages
English (en)
Other versions
KR101302944B1 (ko
Inventor
조영하
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020090105750A priority Critical patent/KR101302944B1/ko
Publication of KR20110048962A publication Critical patent/KR20110048962A/ko
Application granted granted Critical
Publication of KR101302944B1 publication Critical patent/KR101302944B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 일 실시예는 차량 인식 방법 및 장치에 관한 것입니다.
본 발명의 일 실시예는, 카메라를 이용하여 특정 방향의 영상을 획득하는 영상 획득부; 리다(Lidar)를 이용하여 특정 방향에 있는 실제 차량과의 거리정보를 획득하는 거리정보 획득부; 거리정보를 영상좌표로 변환하고, 영상좌표를 영상에 투영시켜, 영상에 투영된 영상좌표에 근거하여 영상에서 차량 인식을 위한 관심영역을 설정하는 관심영역 설정부; 및 관심영역에 해당하는 영상을 분석하여 상기 특정 방향에 있는 실제 차량을 인식하는 차량 인식부를 포함하는 것을 특징으로 하는 차량 인식 장치를 제공한다.
본 발명의 일 실시예에 의하면, 리다를 통해 획득된 거리정보와 카메라를 통해 획득된 영상을 이용하여 더욱 정확한 차량 인식을 효율적이고 신속하게 수행하는 효과가 있다.
차량 인식, 리다, 카메라

Description

차량 인식 방법 및 장치{Method and Apparatus for Recognizing Vehicle}
본 발명의 일 실시예는 차량 인식 방법 및 장치에 관한 것이다. 더욱 상세하게는, 리다를 통해 획득된 거리정보와 카메라를 통해 획득된 영상을 이용하여 차량 인식을 수행하는 차량 인식 방법 및 장치에 관한 것이다.
종래에는, 전방의 차량과의 충돌 위험을 감지하고, 감지 결과 전방에 충돌 위험성이 있는 차량이 감지되면 운전자에 소리 등의 형태로 경고해 줌으로써, 사고 위험을 감소시킬 수 있는 전방 충돌 경고 시스템(FCW: Forward Collision Warning)이 개발되었다.
이러한 전방 충돌 경고 시스템은 카메라를 통해 전방의 영상을 획득하고 획득된 영상을 통해서 전방에 있는 개체들을 인식하고 인식된 개체들 중에서 차량을 선별함으로 차량을 인식하게 된다. 이때 이용되는 카메라는 전방에 있는 개체의 횡방향 정보는 정확하나 종방향 정보가 정확하지 못한 한계가 있다. 이러한 카메라의 한계로 인해, 종래의 전방 충돌 경고 시스템은 부정확한 차량 인식 결과가 얻을 수 있고, 이 때문에 운전자에게 잘못된 경고를 주거나 경고를 해주어야 하는 상황에서 경고를 해주지 못하는 문제점이 발생할 수 있다.
또한, 종래의 전방 충돌 경고 시스템은 카메라를 통해 획득된 전방의 영상을 분석하여 차량 인식을 수행함으로써 카메라를 통해 획득된 영상 분석에 많은 부하가 걸리는 문제점이 있다. 이러한 점은 차량 인식이 지연되고 그로 인해 적시에 운전자에게 경고해주지 못하는 문제점이 초래될 수 있다.
이러한 배경에서, 본 발명의 일 실시예의 목적은, 카메라에서는 정확히 얻을 수 없는 특정 방향의 개체에 대한 부정확한 종방향 정보인 거리정보를 리다를 통해 얻고, 이렇게 얻어진 거리정보와 카메라를 통해 획득된 영상을 이용하여 더욱 정확한 차량 인식을 수행하는 데 있다.
또한 본 발명의 일 실시예의 다른 목적은, 차량 인식을 위해 카메라를 통해 획득된 영상 전체를 분석하지 않고, 리다를 통해 획득된 거리정보를 이용하여 영상 분석 범위(즉, 관심영역)를 줄이고, 줄여진 영상 분석 범위의 영상을 분석하여 효율적이고 신속한 차량 인식을 수행하는 데 있다.
본 발명의 일 실시예는, 카메라를 이용하여 특정 방향의 영상을 획득하는 영상 획득부; 리다(Lidar)를 이용하여 상기 특정 방향에 있는 실제 차량과의 거리정보를 획득하는 거리정보 획득부; 상기 거리정보를 영상좌표로 변환하고, 상기 영상좌표를 상기 영상에 투영시켜, 상기 영상에 투영된 상기 영상좌표에 근거하여 상기 영상에서 차량 인식을 위한 관심영역을 설정하는 관심영역 설정부; 및 상기 관심영역에 해당하는 영상을 분석하여 상기 특정 방향에 있는 상기 실제 차량을 인식하는 차량 인식부를 포함하는 것을 특징으로 하는 차량 인식 장치를 제공한다.
또한, 본 발명의 일 실시예는, 카메라를 이용하여 특정 방향의 영상을 획득하는 영상 획득 단계; 리다(Lidar)를 이용하여 상기 특정 방향에 있는 실제 차량과의 거리정보를 획득하는 거리정보 획득 단계; 상기 거리정보를 영상좌표로 변환하고, 상기 영상좌표를 상기 영상에 투영시켜, 상기 영상에 투영된 상기 영상좌표에 근거하여 상기 영상에서 차량 인식을 위해 관심영역을 설정하는 관심영역 설정 단계; 및 상기 관심영역에 해당하는 영상을 분석하여 상기 특정 방향에 있는 상기 실제 차량을 인식하는 차량 인식 단계를 포함하는 것을 특징으로 하는 차량 인식 방법을 제공한다.
이상에서 설명한 바와 같이 본 발명의 일 실시예에 의하면, 카메라에서는 정확히 얻을 수 없는 특정 방향의 개체에 대한 부정확한 종방향 정보인 거리정보를 리다를 통해 얻고, 이렇게 얻어진 거리정보와 카메라를 통해 획득된 영상을 이용하여 더욱 정확한 차량 인식을 수행하는 효과가 있다.
또한 본 발명에 의하면, 차량 인식을 위해 카메라를 통해 획득된 영상 전체를 분석하지 않고, 리다를 통해 획득된 거리정보를 이용하여 영상 분석 범위(즉, 관심영역)를 줄이고, 줄여진 영상 분석 범위의 영상을 분석하여 효율적이고 신속한 차량 인식을 수행하는 효과가 있다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음 에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 차량 인식 장치(100)에 대한 블록 구성도이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 차량 인식 장치(100)는, 차량 인식 장치(100)가 탑재된 차량의 특정 방향(예: 전방)의 영상을 카메라(10)를 통해 획득하고, 획득된 영상을 분석하여 특정 방향에 있는 차량을 인식함에 있어서, 리다(Lidar, 20)를 이용하여 특정 방향에 있는 차량과의 거리정보(이는 '종방향 정보'임)를 이용하여 차량 인식을 위한 영상 분석의 범위를 관심영역으로 줄임으로써 차량 인식을 효율적이고 신속하게 수행하기 위한 장치이다. 이를 위해, 본 발명의 일 실시예에 따른 차량 인식 장치(100)는, 영상 획득부(110), 거리정보 획득부(120), 관심영역 설정부(130) 및 차량 인식부(140) 등을 포함한다.
전술한 영상 획득부(110)는, 카메라(10)를 이용하여 특정 방향의 영상을 획득한다. 여기서, 카메라(10)가 전방의 영상을 획득하기 위한 것이라면, 차량 인식 장치(100)가 탑재된 차량의 윈드실드(Windshield)에 카메라(10)가 장착되고, 이러한 카메라(10)는 일정 각도의 시약각(FOV: Field Of View)이 설정된다.
전술한 거리정보 획득부(120)는 리다(20)를 이용하여 특정 방향에 있는 실제 차량과의 거리정보를 획득한다.
관심영역 설정부(130)는, 거리정보 획득부(120)가 리다(20)를 통해 획득된 거리정보를 영상좌표로 변환하고, 변환된 영상좌표를 영상에 투영시켜, 영상에 투영된 영상좌표에 근거하여 영상에서 차량 인식을 위한 관심영역(차량 인식을 위한 영상 분석 범위)을 설정한다.
전술한 차량 인식부(140)는, 관심영역 설정부(130)에서 설정된 관심영역에 해당하는 영상을 분석하여 특정 방향에 있는 실제 차량을 인식한다.
전술한 바에 따르면, 본 발명의 일 실시예에 따른 차량 인식 장치(100)는, 카메라(10)에서 획득된 영상 전체를 분석하여 특정 방향에 있는 차량을 인식하는 것이 아니라, 리다(20)를 통해 획득된 거리정보를 이용하여 카메라(10)에서 획득된 영상보다 작은 범위로 설정된 관심영역에서 차량을 인식할 수 있게 되는 것이다. 이를 통해, 본 발명의 일 실시예에 따른 차량 인식 장치(100)는 효율적이고 신속한 차량 인식 기능을 제공해줄 수 있다.
전술한 거리정보 획득부(120)는, 리다(20)를 이용하여, 일정 각도의 시야각 범위 이내에 있는 특정 방향 상의 실제 차량과의 거리정보를 획득한다. 여기서, 리 다(20)에는 일정 각도의 시약각(FOV: Field Of View)과 측정 가능 거리 정보가 설정되어 있다.
전술한 관심영역 설정부(130)는, 영상 획득부(110)에서 획득된 영상과 거리정보 획득부(120)에서 획득된 거리정보를 입력받아, 획득된 영상에서 관심영역을 설정하는데, 이때, 관심영역 설정부(130)는, 거리정보를 카메라(10)의 설정정보에 의해 정의된 특정 변환 행렬(H)을 통해 버즈 아이 뷰(Bird's Eye View) 정보로 변환하고, 이렇게 변환된 버즈 아이 뷰 정보를 영상좌표로 (역)변환한다. 위에서 언급한 특정 변환 행렬(H)은, 일 예로서, 하기 수학식 1과 같이 표현될 수 있다.
Figure 112009067705840-PAT00001
상기 수학식 1에서, H C 는 그라운드 플레인(Ground Plane)으로부터 카메라(10)의 높이이고, φ는 이미지 플레인(Image Plane)의 피치 각도(Pitch Angle)이며, θ는 이미지 플레인의 요 각도(Yaw Angle)이고, f는 렌즈들의 초점 길이(Focal Length)이다.
전술한 관심영역 설정부(130)는, 리다(20)를 통해 획득된 거리정보가 변환된 영상좌표를 영상에 투영하고, 카메라(10)의 설정정보 및 기 정의된 차량 높이 정보에 근거하여, 영상에 영상좌표가 투영된 지점(예: 영상 내 차량의 바닥)으로부터 영상 내 차량 높이를 계산하며, 이렇게 계산된 영상 내 차량 높이 및 리다(20)를 통해 획득된 거리정보가 변환된 영상좌표에 근거하여 관심영역을 설정할 수 있다.
관심영역 설정부(130)는, 영상에 영상좌표가 투영된 지점(예: 영상 내 차량의 바닥)으로부터 영상 내 차량 높이를 계산할 때, 일 예로서, 아래 수학식 2를 이용하여 계산할 수 있다.
Figure 112009067705840-PAT00002
상기 수학식 2에서, y c 는 이미지 플레인에서 차량의 높이의 y-좌표(y-coordinate)이고, f는 렌즈들의 초점 거리(Focal Length)이며, y w 는 기 정의된 차량 높이 정보(예: 1.5m)이고, z w 는 리다(20)를 통해 획득된 거리정보이다.
전술한 바와 같이, 관심영역 설정부(130)는, 앞에서 계산된 영상 내 차량 높이와, 리다(20)를 통해 획득된 거리정보가 변환된 영상좌표에 근거하여 관심영역을 설정할 수 있으며, 이렇게 설정된 관심영역을 도 2에서 예시적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 차량 인식 장치(100)에 포함된 관심영역 설정부(130)에 의해 설정된 관심영역을 예시적으로 나타낸 도면이다.
도 2를 참조하면, 리다(20)를 통해 획득된 거리정보는 특정 변환 행렬(H)을 통해 영상(200)으로 투영되고, 투영된 지점은 선으로 확장되어 하나의 영역을 형성한다. 또한 리다(20)의 횡방향의 일정 시야각(FOV, 예: ±6도) 때문에 일정 시야각을 벗어난 영역은 영상(200)에서 제외됨으로써 도 2에 도시된 바와 같은 최종적인 관심영역(250)이 설정된다. 도 2는 20m 전방(특정 방향)에 있는 차량에 대하여 관심영역(250)을 설정한 것으로서, 차량의 바닥의 선(210)은 리다(20)를 통해 획득된 거리정보가 영상에 투영된 선이고, 이러한 차량의 바닥의 선(210)으로부터 기 정의된 차량 높이(예: 1.5m) 만큼 위에 있는 선(220)은 수학식 2를 이용하여 계산된 영상 내 차량 높이를 영상에 투영한 선이며, 거리정보가 영상에 투영된 선(210)과 영상 내 차량 높이를 영상에 투영한 선(220) 사이의 수직선(230, 340)은 20m에서 일정 시야각(FOV, 예: ±6도)이 영상으로 투영된 선이다. 따라서, 거리정보가 영상에 투영된 선(210), 영상 내 차량 높이를 영상에 투영한 선(220) 및 수직선(230, 340)으로 둘러싸인 사각형 영역이 관심영역(250)으로 설정된 것이다.
도 3은 본 발명의 일 실시예에 따른 차량 인식 장치(100)에 포함된 차량 인식부(140)에 대한 블록 구성도이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 차량 인식 장치(100)에 포함된 차량 인식부(140)는, 관심영역(250)에서 수직 에지 및 수평 에지를 추출하는 에지 추출부(310)와, 추출된 수직 에지의 최고점을 추출하고, 추출된 최고점의 좌표 값에 근거하여 실제 차량으로 인식될 가능성이 있는 후보 차량을 지시하는 최고점 쌍을 선택하는 최고점 쌍 선택부(320)와, 최고점 쌍 각각에 대하여 수직 에지 파워 정보, 수평 에지 파워 정보 및 대칭성 에러 정보 중 하나 이상을 포함하는 특징정보(이를 '특징점'이라고도 함)를 추출하고, 추출된 특징정보에 근거하여 최고점 쌍을 차량에 해당하는 차량 최고점 쌍과 차량이 아닌 비차량에 해당하는 비차량 최고점 쌍으로 1차적으로 분류하는 약한 분류부(Weak Classifier, 330)와, 약한 분류부(330)에 의해 분류된 차량 최고점 쌍에 대한 특정 분류 알고리즘을 통해 차량 최고점 쌍 중에서 실제 차량으로 인식할 실제 차량 최고점 쌍을 선택함으로써, 특정 방향에 있는 실제 차량을 최종적으로 인식하는 강한 분류부(Strong Classifier) 등을 포함한다.
전술한 에지 추출부(310)는, 관심영역 설정부(130)에서 설정된 관심영역(250)에서 수직 에지 및 수평 에지를 추출하게 되면 차량과 비차량의 수직 에지 및 수평 에지가 모두 많이 추출된다. 따라서, 차량에 해당하는 수직 에지 및 수평 에지는 강화하고 비차량에 해당하는 수직 에지 및 수평 에지는 억제하는 기술을 이용하여 차량에 해당하는 수직 에지 및 수평 에지만을 추출한다. 수직 에지 및 수평 에지만을 추출하기 위한 기술의 일 예로서, 에지 추출부(310)는, 웨이브렛 변환(Wavelet Transform) 방식을 통해, 관심영역 설정부(130)에서 설정된 관심영역(250)에 존재하는 모든 수직 에지 중에서 차량 성분의 수직 에지를 강화하여 추출한다.
위에서 언급한 "웨이브렛 변환(Wavelet Transform) 방식"은, 다운 샘플 링(Down Sampling) 기법의 일종으로, 도 4에 예시적으로 도시된 웨이브렛 변환 알고리즘에 블록 구성도를 참조하면, 동일한 크기의 저대역 통과 필터(LPF: Low Pass Filter, 410)와 고대역 통과 필터(HPF: High Pass Filter, 420)를 사용하여 입력된 영상(S)을 저주파 영역의 영상(F)과 고주파 영역의 영상(G)으로 분리하고, 각각 분리된 저주파 영역의 영상(F)과 고주파 영역의 영상(G)을 다운 샘플링 동작을 수행하는 각기 해당 다운 샘플러(Down Sampler, 430, 440)를 통과시켜 해당 영상(cA1, cD1)을 얻는다. 여기서, 저주파 영역의 영상(F)이 다운 샘플러(430)를 통과되어 얻어진 영상(cA1)은, 웨이브렛 변환의 계수 벡터(Coefficient Vector) 중 '대략적인 계수(Approximation Coefficients)'를 이용하여 얻어질 수 있다. 고주파 영역의 영상(G)이 다운 샘플러(440)를 통과되어 얻어진 영상(cD1)은 웨이브렛 변환의 계수 벡터(Coefficient Vector) 중 '상세한 계수(Detail Coefficients)'를 이용하여 얻어질 수 있다.
전술한 바와 같이, 에지 추출부(310)는, 웨이브렛 변환(Wavelet Transform) 방식을 통해, 관심영역 설정부(130)에서 설정된 관심영역(250)에 존재하는 모든 수직 에지 중에서 차량 성분의 수직 에지를 강화하여 추출함에 있어서, 웨이브렛 변환 중 하나인 "하 웨이브렛 변환(Haar Wavelet Transform)"을 이용할 수 있다. 이러한 "하 웨이브렛 변환(Haar Wavelet Transform)"을 이용하여 수직 에지를 추출하는 과정을 도 5를 참조하여 더욱 상세하게 설명한다.
먼저, "하 웨이브렛 변환(Haar Wavelet Transform)"인 웨이브렛 변환을 위해 입력되는 영상의 크기는 N*640(높이, 너비)인 것으로 가정한다. "하 웨이브렛 변 환(Haar Wavelet Transform, 이하, '웨이브렛 변환'이라 칭함)을 적용하기 전에, N*640의 영상을 M*512 크기의 영상으로 변환한다. M은 2의 배수이고, 일 예로서, 16, 32, 64, 128, 512 중 현재 너비에 가장 가까운 값이다. M*512 크기로 영상의 변환이 완료되면, 영상의 각 행에 대하여, 일 예로서 하기 수학식 3을 이용하여 첫 번째 웨이브렛 변환을 실행하면, 도 5의 (a)와 같은 영상(510)을 획득할 수 있다.
Figure 112009067705840-PAT00003
상기 수학식 3에서, f는 이미지 픽셀(Image Pixel)의 강도(Intensity)이고, z는 웨이브렛 변환을 위한 이미지 픽셀의 임시값(Temporary Value)이며, y는 웨이블렛 변환의 출력이며, cA1은 웨이브렛 변환의 계수 벡터(Coefficient Vector)이다.
상기 수학식 3을 이용하여, 첫 번째 웨이브렛 변환이 수행되어 변환된 영상(510)은 M*256 크기를 갖는다. 이러한 영상(510)에 대하여 웨이브렛 변환을 다시 적용하여, 도 5의 (b)에 예시적으로 도시된 바와 같이, 더 낮은 해상도(더 작은 크기)의 영상(520)을 획득할 수 있다. 이때, 하기 수학식 4가 이용될 수 있다.
Figure 112009067705840-PAT00004
상기 수학식 4에서, f는 이미지 픽셀(Image Pixel)의 강도(Intensity)이고, z는 웨이브렛 변환을 위한 이미지 픽셀의 임시값(Temporary Value)이며, y는 웨이블렛 변환의 출력이며, cA2는 웨이브렛 변환의 다른 계수 벡터(Coefficient Vector)이다.
상기 수학식 4를 이용하여, 두 번째 웨이브렛 변환이 수행되어 변환된 영상(520)은 M*128 크기를 갖는다. 이러한 영상(520)에 대하여 웨이브렛 변환을 다시 마지막으로 적용하여, 도 5의 (c)에 예시적으로 도시된 바와 같이, 더 낮은 해상도(더 작은 크기)의 영상(530)을 획득할 수 있다. 이때, 하기 수학식 5가 이용될 수 있다.
Figure 112009067705840-PAT00005
상기 수학식 5에서, f는 이미지 픽셀(Image Pixel)의 강도(Intensity)이고, z는 웨이브렛 변환을 위한 이미지 픽셀의 임시값(Temporary Value)이며, y는 웨이 블렛 변환의 출력이며, cA3은 웨이브렛 변환의 또 다른 계수 벡터(Coefficient Vector)이다.
전술한 바와 같은 세 차례의 웨이브렛 변환을 통하여, 에지 추출부(310)는 최종적으로 얻어진 변환된 영상(530)으로부터 수직 에지 및 수평 에지를 추출한다. 특히, 에지 추출부(310)는 최종적으로 얻어진 변환된 영상(530)에서 수직 에지를 추출할 때, 하기 수학식 6과 같이, 수직 에지 함수(G x )와 이에 근거하여 B로 표현된 수직 에지를 추출할 수 있다.
Figure 112009067705840-PAT00006
이후, 최고점 쌍 선택부(320)는, 추출된 수직 에지의 최고점을 추출하고, 추출된 최고점의 좌표값에 근거하여 실제 차량으로 인식될 가능성이 있는 후보 차량을 지시하는 최고점 쌍을 선택하게 되는데, 최고점 쌍 선택부(320)는, 수학식 6에서 수직 에지를 표현한 B의 각 열에 대한 프로파일(Profile)을 구하고 이로부터 최고점을 추출한다. 최고점은 프로파일의 미분변화율로써 추출해낸다. 수학식 6을 참조하면, 추출된 최고점 중에서 그 값이 0.5 이상인 점들만 실제 차량으로 인식될 가능성이 있는 후보 차량을 지시하는 최고점으로 간주하여 추출한다. 이렇게 추출된 최고점은 도 6을 통해 확인할 수 있다. 도 6은 본 발명의 일 실시예에 따른 차량 인식 장치(100)에 포함된 차량 인식부(140)의 최고점 쌍 선택부(320)에서 최고점 쌍을 선택하기 위해 추출된 수직 에지의 최고점을 예시적으로 나타낸 도면이다.
도 6에서의 최고점을 도 5의 (a)에서 도시된 영상(510)에 투영하면, 도 7과 같다. 도 7을 참조하면, 최고점을 이루는 곡선의 범위를 4배(64*4=256)로 하여 그 범위 안의 최고점 중에서 가장 큰 값을 가지는 한 점을 동일 최고점으로 간주할 수 있다.
도 7에서 예시적으로 도시된 최고점 쌍을 원래 영상에 투영하면 도 8과 같다. 최고점 쌍에서의 최고점을 이루는 곡선의 범위를 2.5배(256*2.5=640)로 하여, 그 범위 이내의 최고점 중에서 가장 큰 값을 가지는 한 점을 동일 최고점으로 간주할 수 있다.
전술한 방식에 따라 수직 에지의 최고점을 추출한 이후, 최고점 쌍 선택부(320)는, 추출된 최고점 중에서 실제 차량의 후보가 될 수 있는 최고점 쌍을 선택한다. 이때, 최고점 쌍 선택부(320)는 수직 에지의 최고점의 좌표값(x 좌표값)을 토대로 수직 에지의 최고점 간의 영상 내 거리를 계산하고, 계산된 최고점 간의 영상 내 거리를 기 정의된 차량 폭(예: 1.5m) 정보와 비교하여, 비교 결과에 근거하여, 수직 에지의 최고점 간의 모든 최고점 쌍 중에서 후보 차량을 지시하는 최고점 쌍을 선택할 수 있다.
이렇게 하여, 실제 차량의 후보가 될 수 있는 최고점 쌍이 선택되고 나면, 약한 분류부(330)는 선택된 최고점 쌍에 대하여, 수직 에지 파워, 수평 에지 파워 및 대칭성 에러 등 중에서 하나 이상을 포함하는 특징정보를 추출하고, 추출된 특징정보를 토대로 1차적으로 차량 최고점 쌍과 비차량 최고점 쌍으로 구분한다.
다시 말해, 전술한 약한 분류부(330)는, 최고점 쌍 선택부(320)에서 선택된 최고점 쌍 중에서, 차량 최고점 쌍과 비차량 최고점 쌍으로 구분하기 위하여, 선택된 최고점 쌍에 대한 특징정보를 추출한다. 이를 위해, 약한 분류부(330)는, 특징정보에 포함될 수직 에지 파워 정보, 수평 에지 파워 정보 및 대칭성 에러 정보 중 하나 이상을 아래와 같은 방식으로 계산할 수 있다.
수직 에지 파워 정보는, 최고점 쌍 각각에 대하여, 해당 최고점 쌍의 영역 내의 모든 점에 대한 수직 에지의 크기를 해당 최고점 쌍의 영역 넓이로 나누어 계산될 수 있으며, 그 계산식은 아래 수학식 7을 이용할 수 있다.
Figure 112009067705840-PAT00007
상기 수학식 7에서, E y 는 수직 에지 파워이고, V(n,m)은 수직 에지의 크기이며, H는 해당 최고점 쌍의 너비이고, W는 해당 최고점 쌍의 높이이다.
수평 에지 파워 정보는, 최고점 쌍 각각에 대하여, 해당 최고점 쌍의 영역 내의 모든 점에 대한 수평 에지의 크기를 해당 최고점 쌍의 영역 넓이로 나누어 계산될 수 있으며, 그 계산식은 아래 수학식 8을 이용할 수 있다.
Figure 112009067705840-PAT00008
상기 수학식 8에서, E x 는 수평 에지 파워이고, V(n,m)은 수직 에지의 크기이며, H는 해당 최고점 쌍의 너비이고, W는 해당 최고점 쌍의 높이이다.
대칭성 에러 정보는, 최고점 쌍 각각에 대하여, 해당 최고점 쌍의 영역 내에서 마주보는 점 간의 영상 강도 차이를 해당 최고점 쌍의 영역 넓이로 나누어 계산될 수 있으며, 그 계산식은 아래 수학식 9를 이용할 수 있다.
Figure 112009067705840-PAT00009
상기 수학식 9에서, E syn 는 대칭성 에러이고, I(n,M/2+m) I(n,M/2+m)은 영상의 영상 강도(Intensity)이다.
약한 분류부(330)가, 최고점 쌍 선택부(320)에서 선택된 최고점 쌍을 차량 최고점 쌍과 비차량 최고점 쌍으로 분류하기 위해서, 전술한 특징정보로서 수직 에러 파워, 수평 에러 파워 및 대칭성 에러 파워를 모두 이용하는 것으로 가정하면, 계산된 3가지의 특징정보 간의 관계로부터 얻어진 파라미터에 근거하여 기 정의된 약한 분류 알고리즘 식을 통해 차량/비차량을 1차적으로 판단함으로써, 최고점 쌍 선택부(320)에서 선택된 최고점 쌍을 차량 최고점 쌍과 비차량 최고점 쌍으로 분류한다. 아래에서, 3가지의 특징정보 간의 관계로부터 파라미터를 얻는 것을 설명한다.
도 9는 본 발명의 일 실시예에 따른 차량 인식 장치(100)에 포함된 차량 인식부(140)의 약한 분류부(330)에서 특징정보로서 추출한 수직 에지 파워에 대한 수평 에지 파워를 나타낸 도면이다. 도 9에서, 점선으로 표시된 부분(900)은 실제 차량이고, 점선으로 표시된 부분(900)을 포함하여 넓게 점이 찍힌 부분은 비차량에 해당하는 부분이다. 차량에 해당하는 점선으로 표시된 부분(900)의 파라미터(Parameter, P1)를 구하면 다음과 같다.
P1 = {0.9260,-0.0095,0.3773,-96.6899,-72.2869,5788.8796}
도 10은 본 발명의 일 실시예에 따른 차량 인식 장치(100)에 포함된 차량 인식부(140)의 약한 분류부(330)에서 특징정보로서 추출한 수직 에지 파워에 대한 대칭성 에러를 나타낸 도면이다. 도 10에서 점선으로 표시된 부분(1000)의 획득된 파라미터(P2)는 다음과 같다.
P2 = {0.7001,-0.0012,0.7141,-138.1956,-60.0792,7628.6855}
도 11은 본 발명의 일 실시예에 따른 차량 인식 장치(100)에 포함된 차량 인식부(140)의 약한 분류부(330)에서 특징정보로서 추출한 수평 에지 파워에 대한 대칭성 에러를 나타낸 도면이다. 도 11에서 점선으로 표시된 부분(1100)의 획득된 파라미터(P3)는 다음과 같다.
P3 = {0.7633,0.2517,0.5950,-87.6090,-54.2743,2923.7941}
3가지의 특징정보 간의 관계로부터 얻어진 파라미터에 근거하여, 기 정의된 아래 수학식 10과 같은 약한 분류 알고리즘 식을 통해 차량/비차량을 1차적으로 판단할 수 있다.
Figure 112009067705840-PAT00010
상기 수학식 10에서, f1, f2 f3 각각은 0보다 작으면 해당 분류값은 1이고 0보다 크면 해당 분류값은 0이다. f1, f2 f3 분류값이 모두 1이면 약한 분류부(330)는 해당 최고점 쌍을 차량 최고점 쌍으로 분류하게 되고 이를 최종적으로 강한 분류부(340)로 입력한다. 이에 따라, 강한 분류부(340)는, 특정 분류 알고리즘을 이용하여 차량 최고점 쌍 중에서 실제 차량으로 인식할 실제 차량 최고점 쌍을 선택함으로써, 특정 방향에 있는 실제 차량의 인식을 마무리하게 된다. 이때, 강한 분류부(340)는 특정 분류 알고리즘의 일 예로서, 하기 수학식 11로 표현될 수 있는 서포트 벡터 머신(Support Vector Machine)을 통해 차량 최고점 쌍 중에서 실제 차량으로 인식할 실제 차량 최고점 쌍을 선택할 수 있다.
Figure 112009067705840-PAT00011
상기 수학식 11에서, w가 최대가 되는 f(x) 값이 차량 간 거리가 되고, 이러한 차량 간 거리의 값이 0보다 크면 실제 차량으로 판단한다.
이상에서 전술한 본 발명의 일 실시예에 따른 차량 인식 장치(100)는, 전방의 차량과의 충돌 위험을 감지하고, 감지 결과 전방에 충돌 위험성이 있는 차량이 감지되면 운전자에 소리 등의 형태로 경고해 줌으로써 사고 위험을 감소시킬 수 있 는 전방 충돌 경고 시스템(FCW: Forward Collision Warning)에 적용될 수 있다.
이러한 본 발명의 일 실시예에 따른 차량 인식 장치(100)가 제공하는 차량 인식 방법은 도 12에 도시된 흐름도에 따라 수행될 수 있다.
도 12를 참조하면, 본 발명의 일 실시예에 따른 차량 인식 방법은, 카메라(10)를 이용하여 특정 방향의 영상을 획득하는 영상 획득 단계(S1200)와, 리다(20)를 이용하여 특정 방향에 있는 실제 차량과의 거리정보를 획득하는 거리정보 획득 단계(S1202)와, 획득된 거리정보를 영상좌표로 변환하고, 영상좌표를 영상에 투영시켜, 영상에 투영된 영상좌표에 근거하여 영상에서 차량 인식을 위해 관심영역을 설정하는 관심영역 설정 단계(S1204)와, 관심영역에 해당하는 영상을 분석하여 특정 방향에 있는 실제 차량을 인식하는 차량 인식 단계(S1206) 등을 포함한다.
이상에서 설명한 바와 같이 본 발명의 일 실시예에 의하면, 카메라(10)에서는 정확히 얻을 수 없는 특정 방향의 개체에 대한 부정확한 종방향 정보인 거리정보를 리다(20)를 통해 얻고, 이렇게 얻어진 거리정보와 카메라(10)를 통해 획득된 영상을 이용하여 더욱 정확한 차량 인식을 수행하는 효과가 있다.
또한 본 발명에 의하면, 차량 인식을 위해 카메라(10)를 통해 획득된 영상 전체를 분석하지 않고, 리다(20)를 통해 획득된 거리정보를 이용하여 영상 분석 범위(즉, 관심영역)를 줄이고, 줄여진 영상 분석 범위의 영상을 분석하여 효율적이고 신속한 차량 인식을 수행하는 효과가 있다.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 차량 인식 장치에 대한 블록 구성도,
도 2는 본 발명의 일 실시예에 따른 차량 인식 장치에 포함된 관심영역 설정부에 의해 설정된 관심영역을 예시적으로 나타낸 도면,
도 3은 본 발명의 일 실시예에 따른 차량 인식 장치에 포함된 차량 인식부에 대한 블록 구성도,
도 4는 본 발명의 일 실시예에 따른 차량 인식 장치에 포함된 차량 인식부의 에지 추출부에서 에지 추출을 위한 웨이브렛 변환 알고리즘에 대한 블록 구성도,
도 5는 웨이브렛 변환으로 획득된 영상들을 예시적으로 나타낸 도면,
도 6은 본 발명의 일 실시예에 따른 차량 인식 장치에 포함된 차량 인식부의최고점 쌍 선택부에서 최고점 쌍을 선택하기 위해 추출된 수직 에지의 최고점을 예시적으로 나타낸 도면,
도 7은 수직 에지의 최고점을 첫 번째 웨이브렛 변환으로 획득된 영상(cA1)으로 투영하여 예시적으로 나타낸 도면,
도 8은 최고점을 원 영상으로 투영하여 예시적으로 나타낸 도면,
도 9는 본 발명의 일 실시예에 따른 차량 인식 장치에 포함된 차량 인식부의 약한 분류부에서 특징정보로서 추출한 수직 에지 파워에 대한 수평 에지 파워를 나타낸 도면,
도 10은 본 발명의 일 실시예에 따른 차량 인식 장치에 포함된 차량 인식부의 약한 분류부에서 특징정보로서 추출한 수직 에지 파워에 대한 대칭성 에러를 나 타낸 도면,
도 11은 본 발명의 일 실시예에 따른 차량 인식 장치에 포함된 차량 인식부의 약한 분류부에서 특징정보로서 추출한 수평 에지 파워에 대한 대칭성 에러를 나타낸 도면,
도 12는 본 발명의 일 실시예에 따른 차량 인식 방법에 대한 흐름도이다.
< 도면의 주요 부분에 대한 부호의 설명 >
10: 카메라
20: 리다(Lidar)
100: 차량 인식 장치
110: 영상 획득부
120: 거리 정보 획득부
130: 관심영역 설정부
140: 차량 인식부
310: 에지 추출부
320: 최고점 쌍 선택부
330: 약한 분류부
340: 강한 분류부

Claims (10)

  1. 카메라를 이용하여 특정 방향의 영상을 획득하는 영상 획득부;
    리다(Lidar)를 이용하여 상기 특정 방향에 있는 실제 차량과의 거리정보를 획득하는 거리정보 획득부;
    상기 거리정보를 영상좌표로 변환하고, 상기 영상좌표를 상기 영상에 투영시켜, 상기 영상에 투영된 상기 영상좌표에 근거하여 상기 영상에서 차량 인식을 위한 관심영역을 설정하는 관심영역 설정부; 및
    상기 관심영역에 해당하는 영상을 분석하여 상기 특정 방향에 있는 상기 실제 차량을 인식하는 차량 인식부
    를 포함하는 것을 특징으로 하는 차량 인식 장치.
  2. 제 1항에 있어서,
    상기 거리정보 획득부는,
    상기 리다를 이용하여, 일정 각도의 시야각 범위 이내에 있는 상기 실제 차량과의 상기 거리정보를 획득하는 것을 특징으로 하는 차량 인식 장치.
  3. 제 1항에 있어서,
    상기 관심영역 설정부는,
    상기 거리정보를 상기 카메라의 설정정보에 의해 정의된 특정 변환 행렬을 통해 버즈 아이 뷰(Bird's Eye View) 정보로 변환하고, 상기 변환된 버즈 아이 뷰 정보를 상기 영상좌표로 변환하는 것을 특징으로 하는 차량 인식 장치.
  4. 제 1항에 있어서,
    상기 관심영역 설정부는,
    상기 영상좌표를 상기 영상에 투영하고, 상기 카메라의 설정정보 및 기 정의된 차량 높이 정보에 근거하여, 상기 영상에 상기 영상좌표가 투영된 지점으로부터 영상 내 차량 높이를 계산하며, 상기 영상 내 차량 높이 및 상기 영상좌표에 근거하여 상기 관심영역을 설정하는 것을 특징으로 하는 차량 인식 장치.
  5. 제 1항에 있어서,
    상기 차량 인식부는,
    상기 관심영역에서 수직 에지 및 수평 에지를 추출하는 에지 추출부;
    상기 수직 에지의 최고점을 추출하고, 상기 최고점의 좌표값에 근거하여 실제 차량으로 인식될 가능성이 있는 후보 차량을 지시하는 최고점 쌍을 선택하는 최고점 쌍 선택부;
    상기 최고점 쌍 각각에 대하여 수직 에지 파워 정보, 수평 에지 파워 정보 및 대칭성 에러 정보 중 하나 이상을 포함하는 특징정보를 추출하고, 상기 특징정보에 근거하여 상기 최고점 쌍을 차량 최고점 쌍과 비차량 최고점 쌍으로 분류하는 약한 분류부; 및
    상기 차량 최고점 쌍에 대한 특정 분류 알고리즘을 통해 상기 차량 최고점 쌍 중에서 상기 실제 차량으로 인식할 실제 차량 최고점 쌍을 선택함으로써, 상기 특정 방향에 있는 상기 실제 차량을 인식하는 강한 분류부
    를 포함하는 것을 특징으로 하는 차량 인식 장치.
  6. 제 5항에 있어서,
    상기 에지 추출부는,
    웨이브렛 변환(Wavelet Transform) 방식을 통해, 상기 관심영역에 존재하는 모든 수직 에지 중에서 차량 성분의 상기 수직 에지를 강화하여 추출하는 것을 특징으로 하는 차량 인식 장치.
  7. 제 5항에 있어서,
    상기 최고점 쌍 선택부는,
    상기 수직 에지의 최고점의 좌표값을 토대로 상기 수직 에지의 최고점 간의 영상 내 거리를 계산하고, 상기 최고점 간의 영상 내 거리를 기 정의된 차량 폭 정보와 비교하여, 비교 결과에 근거하여, 상기 수직 에지의 최고점 간의 모든 최고점 쌍 중에서 상기 후보 차량을 지시하는 상기 최고점 쌍을 선택하는 것을 특징으로 하는 차량 인식 장치.
  8. 제 5항에 있어서,
    상기 약한 분류부는,
    상기 특징정보에 포함될 상기 수직 에지 파워 정보, 상기 수평 에지 파워 정보 및 상기 대칭성 에러 정보 중 하나 이상을 계산하되,
    상기 수직 에지 파워 정보는,
    상기 최고점 쌍 각각에 대하여, 해당 최고점 쌍의 영역 내의 모든 점에 대한 수직 에지의 크기를 해당 최고점 쌍의 영역 넓이로 나누어 계산되고,
    상기 수평 에지 파워 정보는,
    상기 최고점 쌍 각각에 대하여, 해당 최고점 쌍의 영역 내의 모든 점에 대한 수평 에지의 크기를 해당 최고점 쌍의 영역 넓이로 나누어 계산되며,
    상기 대칭성 에러 정보는,
    상기 최고점 쌍 각각에 대하여, 해당 최고점 쌍의 영역 내에서 마주보는 점 간의 영상 강도 차이를 해당 최고점 쌍의 영역 넓이로 나누어 계산되는 것을 특징으로 하는 차량 인식 장치.
  9. 제 5항에 있어서,
    상기 강한 분류부는,
    상기 특정 분류 알고리즘인 서포트 벡터 머신(Support Vector Machine)을 통해 상기 차량 최고점 쌍 중에서 상기 실제 차량으로 인식할 실제 차량 최고점 쌍을 선택하는 것을 특징으로 하는 차량 인식 장치.
  10. 카메라를 이용하여 특정 방향의 영상을 획득하는 영상 획득 단계;
    리다(Lidar)를 이용하여 상기 특정 방향에 있는 실제 차량과의 거리정보를 획득하는 거리정보 획득 단계;
    상기 거리정보를 영상좌표로 변환하고, 상기 영상좌표를 상기 영상에 투영시켜, 상기 영상에 투영된 상기 영상좌표에 근거하여 상기 영상에서 차량 인식을 위해 관심영역을 설정하는 관심영역 설정 단계; 및
    상기 관심영역에 해당하는 영상을 분석하여 상기 특정 방향에 있는 상기 실제 차량을 인식하는 차량 인식 단계
    를 포함하는 것을 특징으로 하는 차량 인식 방법.
KR1020090105750A 2009-11-04 2009-11-04 차량 인식 방법 및 장치 KR101302944B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090105750A KR101302944B1 (ko) 2009-11-04 2009-11-04 차량 인식 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090105750A KR101302944B1 (ko) 2009-11-04 2009-11-04 차량 인식 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20110048962A true KR20110048962A (ko) 2011-05-12
KR101302944B1 KR101302944B1 (ko) 2013-09-06

Family

ID=44360173

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090105750A KR101302944B1 (ko) 2009-11-04 2009-11-04 차량 인식 방법 및 장치

Country Status (1)

Country Link
KR (1) KR101302944B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101282663B1 (ko) * 2012-10-17 2013-07-12 최종기 차량 번호판의 이미지 영역을 검출하기 위한 장치 및 그 방법
KR101381737B1 (ko) * 2012-09-04 2014-04-07 전자부품연구원 다양한 검증 기법이 복합된 전방 차량 영역 검증방법 및 장치
KR101417408B1 (ko) * 2012-11-15 2014-07-14 현대자동차주식회사 레이더를 이용한 객체 인식방법 및 시스템
WO2017047873A1 (ko) * 2015-09-14 2017-03-23 한화테크윈 주식회사 고속 스캐닝 장치를 이용한 스캐닝 방법
KR20170081523A (ko) * 2016-01-04 2017-07-12 한국전자통신연구원 차량용 융합 시스템 및 이 시스템의 정보 처리 방법
KR20170095005A (ko) * 2016-02-12 2017-08-22 주식회사 만도 센서 퓨전을 이용한 이미지센서 장치 및 제어 방법
WO2018124337A1 (ko) * 2016-12-28 2018-07-05 주식회사 에이다스원 적응적 관심영역 및 탐색창을 이용한 객체 검출 방법 및 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102048999B1 (ko) * 2018-02-13 2019-11-27 코가플렉스 주식회사 자율 주행 장치 및 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1115250B1 (en) * 1998-07-31 2012-06-06 Panasonic Corporation Method and apparatus for displaying image
JP2003084064A (ja) * 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd 前方車両の認識装置及び認識方法
US20030154010A1 (en) 2002-02-13 2003-08-14 Ford Global Technologies, Inc. Method for operating a pre-crash sensing system in a vehicle having a countermeasure system using a radar and camera
JP5098563B2 (ja) 2007-10-17 2012-12-12 トヨタ自動車株式会社 物体検出装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101381737B1 (ko) * 2012-09-04 2014-04-07 전자부품연구원 다양한 검증 기법이 복합된 전방 차량 영역 검증방법 및 장치
KR101282663B1 (ko) * 2012-10-17 2013-07-12 최종기 차량 번호판의 이미지 영역을 검출하기 위한 장치 및 그 방법
KR101417408B1 (ko) * 2012-11-15 2014-07-14 현대자동차주식회사 레이더를 이용한 객체 인식방법 및 시스템
WO2017047873A1 (ko) * 2015-09-14 2017-03-23 한화테크윈 주식회사 고속 스캐닝 장치를 이용한 스캐닝 방법
KR20170081523A (ko) * 2016-01-04 2017-07-12 한국전자통신연구원 차량용 융합 시스템 및 이 시스템의 정보 처리 방법
KR20170095005A (ko) * 2016-02-12 2017-08-22 주식회사 만도 센서 퓨전을 이용한 이미지센서 장치 및 제어 방법
WO2018124337A1 (ko) * 2016-12-28 2018-07-05 주식회사 에이다스원 적응적 관심영역 및 탐색창을 이용한 객체 검출 방법 및 장치

Also Published As

Publication number Publication date
KR101302944B1 (ko) 2013-09-06

Similar Documents

Publication Publication Date Title
KR101302944B1 (ko) 차량 인식 방법 및 장치
KR101281260B1 (ko) 차량 인식 방법 및 장치
JP5542889B2 (ja) 画像処理装置
US9613266B2 (en) Complex background-oriented optical character recognition method and device
US9147105B2 (en) Image recognizing apparatus, image recognizing method, and program
JP4877374B2 (ja) 画像処理装置及びプログラム
KR101279712B1 (ko) 실시간 차선 검출 장치 및 방법과 이에 관한 기록매체
EP2573708B1 (en) Method and System for Detecting Vehicle Position by Employing Polarization Image
US9715632B2 (en) Intersection recognizing apparatus and computer-readable storage medium
KR101176552B1 (ko) 속도 제한 표지판 인식 방법 및 장치, 이미지 인식 방법
US9704057B1 (en) Methods and apparatus relating to image binarization
JP4674179B2 (ja) 影認識方法及び影境界抽出方法
KR102619326B1 (ko) 이미지 피라미드를 이용한 차량 인식 장치 및 방법
KR101178508B1 (ko) 차량 충돌 경보 시스템 및 방법
KR20170087817A (ko) 얼굴 검출 방법 및 장치
US9064156B2 (en) Pattern discriminating apparatus
CN110235177B (zh) 图像处理装置、图像识别装置、以及存储介质
KR101205565B1 (ko) 영상을 이용한 전후방 차량 검출 방법
JP5664078B2 (ja) 撮像装置、画像評価方法、及び焦点調整制御プログラム
JP2013164643A (ja) 画像認識装置、画像認識方法および画像認識プログラム
KR101437228B1 (ko) 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치 및 방법
Chan et al. A system to measure gap distance between two vehicles using license plate character height
KR101705876B1 (ko) 보행자 후보 영역 검출 방법 및 이를 이용한 보행자 인식 방법
KR20110131727A (ko) 영상 처리 시스템에서의 객체 인식 방법 및 시스템
WO2013035951A1 (ko) 실시간 차선 검출 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee