KR101449371B1 - 차량 영상의 영역 분할에 기초하여 주행 사건을 분류하는 방법 - Google Patents

차량 영상의 영역 분할에 기초하여 주행 사건을 분류하는 방법 Download PDF

Info

Publication number
KR101449371B1
KR101449371B1 KR1020140031944A KR20140031944A KR101449371B1 KR 101449371 B1 KR101449371 B1 KR 101449371B1 KR 1020140031944 A KR1020140031944 A KR 1020140031944A KR 20140031944 A KR20140031944 A KR 20140031944A KR 101449371 B1 KR101449371 B1 KR 101449371B1
Authority
KR
South Korea
Prior art keywords
driving
extracting
region
feature vector
input image
Prior art date
Application number
KR1020140031944A
Other languages
English (en)
Inventor
이상철
최민국
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020140031944A priority Critical patent/KR101449371B1/ko
Application granted granted Critical
Publication of KR101449371B1 publication Critical patent/KR101449371B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

차량 영상의 영역 분할에 기초하여 주행 사건을 분류하는 방법이 개시된다. 주행 사건 분류 방법은, 주행 시작 이후 촬영된 입력 영상을 구성하는 적어도 두 장의 프레임을 대상으로, 현재 주행 환경을 나타내는 사전 정보를 수집하는 단계, 입력 영상을 복수 개의 분할 영역으로 분할하는 단계, 복수 개의 분할 영역 별로 특징 벡터를 추출하는 단계, 특징 벡터에 기초하여 복수 개의 분할 영역 중 적어도 하나를 관심 영역으로 결정하는 단계, 관심 영역 내의 움직임 정보에 기초하여 최종 특징 벡터를 추출하는 단계, 및 최종 특징 벡터에 기초하여 주행 사건을 분류하는 단계를 포함할 수 있다.

Description

차량 영상의 영역 분할에 기초하여 주행 사건을 분류하는 방법{METHOD FOR CLASSIFING DRIVING EVENT BASED ON REGION SEGMENTATION OF VECHILE IMAGE}
본 발명의 실시예들은 차량 영상의 의미적 영역 분할을 통해 사용자 사건을 분류하는 방법에 관한 것이다.
보다 자세하게는, 차량이 주행을 시작한 이후에 촬영된 입력 영상에서 관심 영역을 결정하고, 관심 영역에서 추출된 특징 벡터에 기초하여 주행 사건을 분류하는 방법에 관한 것이다.
최근 들어, 사회 및 경제 규모가 확대되고, 고도화됨에 따라 차량 및 교통 수요가 폭발적으로 증가하였다.
또한, 가구 당 한대 이상의 차량을 보유할 정도로 차량의 이용이 일반화됨에 따라, 교통 사고가 증가하고 있다. 이러한 교통 사고는 물적 피해뿐만 아니라 치명적인 인명 피해까지 발생시키게 된다.
이에 따라, 현재 차량이 주행하면서 경험하고 있는 주행 사건(또는, 주행 정보)를 분류하여 운전자에게 제공함에 따라, 교통 사고 등을 예방하면서 운전자의 주행에 도움을 줄 수 있는 운전자를 위한 운전 보조 시스템이 요구된다.
[선행 기술 문헌]
한국공개특허공보 제10-2012-0116699호
일본공개특허공보 특개2011-254436호
한국공개특허공보 제10-2011-0114905호
본 발명은 강건한 주행 사건 분류를 위한 전처리 단계로서, 입력 영상 내에 분포하는 입력 정보뿐만 아니라, 차량 영상에 특화된 공간적 특징이 반영된 사전 정보에 기초하여 입력 영상에 대한 영역을 분할하기 위한 것이다.
또한, 현재 주행 중인 차량이 경험하고 있는 주행 사건(또는, 주행 정보)를 분류하기 위한 것으로서, 관심 영역에서 추출된 특징 벡터에 기초하여 주행 사건을 분류함에 따라 운전자를 위한 운전 보조 시스템을 구축하기 위한 것이다.
본 주행 사건 분류 방법은, 주행 시작 이후 촬영된 입력 영상을 구성하는 적어도 두 장의 프레임을 대상으로, 현재 주행 환경을 나타내는 사전 정보를 수집하는 단계, 상기 입력 영상을 복수 개의 분할 영역으로 분할하는 단계, 상기 복수 개의 분할 영역 별로 특징 벡터를 추출하는 단계, 상기 특징 벡터에 기초하여 상기 복수 개의 분할 영역 중 적어도 하나를 관심 영역으로 결정하는 단계, 상기 관심 영역 내의 움직임 정보에 기초하여 최종 특징 벡터를 추출하는 단계, 및 상기 최종 특징 벡터에 기초하여 주행 사건을 분류하는 단계를 포함할 수 있다.
다른 측면에 따르면, 상기 사전 정보를 수집하는 단계는, 상기 입력 영상 중 일부 영역을 상기 사전 정보를 수집하기 위한 영역으로 설정하고, 상기 일부 영역에서 상기 사전 정보를 수집할 수 있다. 여기서, 상기 사전 정보는, 주행 차량의 도로면, 및 주행 차량의 주변 환경이 촬영된 입력 영상의 컬러 정보 및 텍스처 정보를 포함할 수 있다.
또 다른 측면에 따르면, 상기 복수 개의 분할 영역 별로 특징 벡터를 추출하는 단계는, 상기 복수 개의 분할 영역 중 최소 크기의 분할 영역을 대상으로 분할 그리드(grid) 개수의 특징 벡터들을 추출하는 단계, 및 상기 추출된 특징 벡터들 별로 이진 분류를 수행하여 상기 최소 크기의 분할 영역에 해당하는 이진 벡터를 추출하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 관심 영역으로 결정하는 단계는, 상기 최소 크기의 분할 영역에 해당하는 이진 벡터와 상기 분할 그리드(grid) 개수에 기초하여, 상기 복수 개의 분할 영역 중 적어도 하나를 관심 영역으로 결정할 수 있다.
또 다른 측면에 따르면, 상기 최종 특징 벡터를 추출하는 단계는, 상기 관심 영역 내의 움직임 정보로부터 통계적 파라미터를 추출하는 단계, 및 상기 통계적 파라미터를 상기 최종 특징 벡터로 결정하는 단계를 포함할 수 있다.
본 발명에 의하면, 입력 영상 내에 분포하는 입력 정보뿐만 아니라, 차량 영상에 특화된 공간적 특징이 반영된 사전 정보에 기초하여 입력 영상에 대한 영역을 분할할 수 있다.
또한, 관심 영역에서 추출된 특징 벡터에 기초하여 주행 사건을 분류함에 따라 운전자를 위한 운전 보조 시스템을 제공할 수 있다.
도 1은 본 발명의 일실시예에 있어서, 주행 사건을 분류하는 방법을 설명하기 위해 제공되는 흐름도이다.
도 2는 본 발명의 일실시예에 있어서, 주행 환경에서 사전 정보 수집을 위한 영역 설정이 도시된 도면이다.
도 3은 본 발명의 일실시예에 따른 텍스처 정보 추출을 위한 커널 정보의 예시를 도시한 도면이다.
도 4 내지 도 6은 본 발명의 일실시예에 있어서, 그리드 분할 기법에 기초하여 복수 개의 분할 영역으로 분할된 입력 영상을 도시한 도면이다.
도 7은 본 발명의 일실시예에 따라 실측값으로 추출된 관심 영역 및 분할 영역에 기초하여 결정된 관심 영역을 도시한 도면이다.
본 발명에서는, 입력 영상을 복수개의 분할 영역으로 분할하고, 분할 영역 내의 컬러 정보, 텍스처(texture) 정보, 사전 정보, 및 공간 정보를 결합하여 각 분할 영역에 대한 관심 영역 분류를 수행하고자 한다. 이때, 분할 영역의 관심 강도에 따라 관심 영역에서 추출된 특징 벡터들은 높은 가중치를 가질 수 있으며, 이러한 가중치는 주행 사건 분류 결과에 영향을 미칠 수 있다.
이하 본 발명에 따른 주행 사건 분류 방법은, 주행 사건 분류 장치에 의해 수행될 수 있다.
이하, 본 발명에 따른 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일실시예에 있어서, 주행 사건을 분류하는 방법을 설명하기 위해 제공되는 흐름도이다.
도 1에 따르면, 101 단계에서, 주행 사건 분류 장치는, 입력 영상에 대한 움직임 정보를 추출하고, 입력 영상에 대한 사전 정보를 수집할 수 있다.
일례로, 주행 사건 분류 장치는, 주행 시작 이후 촬영된 입력 영상을 구성하는 복수의 프레임들 중 적어도 두 장의 프레임을 이용하여 움직임 정보를 추출할 수 있다. 이때, 실시간성이 확보된 움직임 정보는, 혼(Horn) 등이 개발한 에너지 최소화 기법 기반의 옵티컬 플로우 측정 기법, 또는 루카스(Lucas) 등이 개발한 선형 모델링 기반의 옵티컬 플로우 측정 기법을 이용하여 입력 영상으로부터 추출될 수 있다. 그러면, 추출된 움직임 정보는, 모든 픽셀 위치에 걸쳐 하나의 움직임 벡터 값
Figure 112014026175000-pat00001
으로 저장될 수 있다. 여기서, u는 옵티컬 플로우 측정 기법에 의해 추정된 움직임 벡터의 수평 방향 크기이고, v는 옵티컬 플로우 측정 기법에 의해 추정된 움직임 벡터의 수직 방향 크기일 수 있다. 그리고, x, y, t는 t번째 프레임에 해당하는 영상 정보의 (x, y)에서의 픽셀 위치를 나타낼 수 있다.
이때, 분류하고자 주행 사건의 종류에 따라, 주행 영상의 특성 상 입력 영상에 해당하는 전체 정보를 활용하는 것보다는 부분적인 정보를 활용하는 것이 유용할 수 있다. 이에 따라, 주행 사건 분류 장치는, 주행 시작 후 k장의 프레임을 이용하여 현재 주행 환경을 나타내는 사전 정보를 수집할 수 있다
일례로, 주행 사건 분류 장치는, 주행 시작 이후 촬영된 입력 영상을 구성하는 적어도 두 장의 프레임을 대상으로, 현재 주행 환경을 나타내는 사전 정보를 수집할 수 있다. 여기서, 사전 정보는, 주행 차량의 도로면, 및 주행 차량의 주변 환경이 촬영된 입력 영상의 컬러 정보 및 텍스처 정보를 포함할 수 있다. 예를 들면, 주변 환경은, 주행 차량 주변에 존재하는 고가 도로, 육교, 학교 등을 포함할 수 있다.
이어, 102 단계에서, 주행 사건 분류 장치는, 그리드 분할 기법(grid division algorithm)에 기초하여 입력 영상을 복수 개의 분할 영역으로 분할할 수 있다.
그리고, 103 단계에서, 주행 사건 분류 장치는, 복수 개의 분할 영역 별로 특징 벡터를 추출할 수 있다.
이어, 104 단계에서, 주행 사건 분류 장치는, 분할 영역 별로 추출된 특징 벡터에 기초하여 복수 개의 분할 영역 중 적어도 하나를 관심 영역으로 결정할 수 있다.
그리고, 105 단계에서, 주행 사건 분류 장치는, 관심 영역 내에서 움직임 정보를 추출하고, 추출된 움직임 정보에 기초하여 최종 특징 벡터를 추출할 수 있다.
일례로, 주행 사건 분류 장치는, 관심 영역 내의 움직임 정보로부터 통계적 파라미터를 추출할 수 있다. 그리고, 주행 사건 분류 장치는, 통계적 파라미터를 최종 특징 벡터를 결정할 수 있다.
이어, 106 단계에서, 주행 사건 분류 장치는, 최종 특징 벡터에 기초하여 주행 사건을 분류할 수 있다.
이하에서는, 도 2를 참조하여 일실시예에 따른 주행 사건 분류 장치에서 입력 영상에 대한 사전 정보를 수집하는 동작에 대해 상세히 설명하기로 한다.
도 2는 주행 환경에서 사전 정보 수집을 위한 영역 설정이 도시된 도면이다.
도 2를 참고하면, 주행 사건 분류 장치는, 입력 영상 중 일부 영역을 사전 정보를 수집하기 위한 영역으로 설정할 수 있다. 그리고, 주행 사건 분류 장치는, 일부 영역에서 사전 정보를 수집할 수 있다.
이때, 주행 사건 분류 장치는, 입력 영상 중 고가 도로와 같은 특징이 나타나는 영역들을 일부 영역들(202, 203)로 설정할 수 있다. 예를 들면, 주행 사건 분류 장치는, 입력 영상 중 고가 도로를 중앙에 위치하는 영역(201) 중 고가 도로의 상부 영역(202)과 하부 영역(203)을 각각 일부 영역으로 설정할 수 있다.
그리고, 주행 사건 분류 장치는, 상기 두 일부 영역(202, 203)에서 사전 정보를 수집할 수 있다. 예를 들며, 주행 사건 분류 장치는, 상기 두 일부 영역(202, 203)에서 추출되는 컬러 정보 및 특징 벡터(
Figure 112014026175000-pat00002
,
Figure 112014026175000-pat00003
)를 사전 정보로서 수집할 수 있다. 여기서, 특징 벡터는 4차원 벡터로서, 아래의 수학식 1과 같이 정의될 수 있다.
Figure 112014026175000-pat00004
수학식 1에서, h(m, n)은 사전 정보가 수집된 일부 영역 내에서의 휴(hue) 값으로서, HSV(Hue Saturation Value) 컬러 공간으로의 컬러 모델 변환을 통해 얻어질 수 있다. B(m, n)은 텍스처 특성 추출을 위한 블록 필터링 결과 값으로서, 도 3과 같은 커널(kernel) 적용을 통해 얻어질 수 있다. 여기서, 블록 필터링은, 영상의 흑백 변환 이후에 적용될 수 있다.
도 4 내지 도 6은 본 발명의 일실시예에 있어서, 그리드 분할 기법에 기초하여 복수 개의 분할 영역으로 분할된 입력 영상을 도시한 도면이다.
주행 사건 분류 장치는, 입력 영상에서 관심 영역을 결정하기 위해 입력 영상을 복수 개의 분할 영역으로 분할할 수 있다. 이때, 주행 사건 분류 장치는, 입력 영상을 크기 별로 단계적으로 분할할 수 있다. 그리고, 주행 사건 분류 장치는, 단계적으로 분할된 분할 영역들 중 최소 크기의 분할 영역에서의 영역 인덱스는 분할 그리드의 개수(g)만큼 가질 수 있다. 도 4 내지 도 6에서는, 분할 그리드의 개수가 3인 경우(g=3)에 분할된 입력 영상을 도시하였다.
도 4를 참고하면, 주행 사건 분류 장치는, 그리드 분할 기법에 기초하여 입력 영상을 25개의 분할 영역으로 분할할 수 있다. 도 5를 참고하면, 주행 사건 분류 장치는, 그리드 분할 기법에 기초하여 입력 영상을 100개의 분할 영역으로 분할할 수 있다. 도 6을 참고하면, 주행 사건 분류 장치는, 그리드 분할 기법에 기초하여 입력 영상을 400개의 분할 영역으로 분할할 수 있다.
도 7은 본 발명의 일실시예에 따라 실측값으로 추출된 관심 영역 및 분할 영역에 기초하여 결정된 관심 영역을 도시한 도면이다.
주행 사건 분류 장치는, 사전 정보로부터 추출된 특징 벡터 세트(
Figure 112014026175000-pat00005
,
Figure 112014026175000-pat00006
)를 이용하여 SVM(Support Vector Machine) 분류기를 학습할 수 있다. 그러면, 주행 사건 분류 장치는, SVM 분류기 학습이 이루어짐에 따라, 각 분할 영역들에서 동일한 특징 벡터 z를 추출할 수 있다.
이때, 주행 사건 분류 장치는, 복수 개의 분할 영역 중 최소 크기의 분할 영역(
Figure 112014026175000-pat00007
)을 대상으로 총 그리드 분할 개수(g)만큼의 특징 벡터 세트들(
Figure 112014026175000-pat00008
)을 추출할 수 있다. 그리고, 주행 사건 분류 장치는, SVM 분류기를 이용하여 특징 벡터 세트들 각각에 대해 이진 분류를 수행할 수 있다. 이처럼, 이진 분류를 수행함에 따라, 주행 사건 분류 장치는, 최소 크기의 분할 영역에 해당하는 이진 벡터를 추출할 수 있다. 다시 말해, 주행 사건 분류 장치는, 최소 크기의 분할 영역(
Figure 112014026175000-pat00009
)에서 최종적으로 하나의 이진 벡터(
Figure 112014026175000-pat00010
)를 추출할 수 있다.
그리고, 주행 사건 분류 장치는, 추출된 이진 벡터 및 그리드 분할 개수에 기초하여 복수 개의 분할 영역들 중 적어도 하나를 관심 영역으로 결정할 수 있다.
예를 들면, 도 7을 참고하면, 주행 사건 분류 장치는, 추출된 이진 벡터의
Figure 112014026175000-pat00011
노름을 기준으로
Figure 112014026175000-pat00012
를 만족하는 경우, 최소 크기의 분할 영역(
Figure 112014026175000-pat00013
)을 관심 영역으로 결정할 수 있다. 그리고, 주행 사건 분류 장치는, 관심 영역으로 결정된 최소 크기의 분할 영역에 해당하는 이진 벡터의 값(
Figure 112014026175000-pat00014
)을 주행 사건 분류를 위한 가중치로 사용할 수 있다.
이하에서는, 주행 사건 분류 장치가 관심 영역 내의 움직임 정보에 기초하여 최종 특징 벡터를 추출하는 동작에 대해 설명하기로 한다.
일례로, 주행 사건 분류 장치는, 결정된 관심 영역 내에서 움직임 정보(u, v)를 추출할 수 있다. 이때, 주행 사건 분류 장치는, 혼(Horn) 등이 개발한 에너지 최소화 기법 기반의 옵티컬 플로우 측정 기법, 또는 루카스(Lucas) 등이 개발한 선형 모델링 기반의 옵티컬 플로우 측정 기법을 이용하여 관심 영역으로부터 움직임 정보(u, v)를 추출할 수 있다.
그리고, 주행 사건 분류 장치는, 관심 영역 내의 움직임 정보로부터 통계적 파라미터를 추출할 수 있다. 이때, u부터 v까지에서 얻어지는 통계적 파라미터는 총 12가지 원소를 가질 수 있다. 그러면, 주행 사건 분류 장치는, 통계적 파라미터를 최종 특징 벡터(
Figure 112014026175000-pat00015
)를 결정할 수 있다. 예를 들면, 결정된 최종 특징 벡터는, 아래의 수학식 2와 같이 정의될 수 있다.
Figure 112014026175000-pat00016
이하에서는, 최종 특징 벡터에 기초하여 최종 사건을 분류하는 동작에 대해 설명하기로 한다.
일례로, 주행 사건 분류 장치는, 미리 정의된 n개의 주행 사건을 대상으로, n-부류 분류를 수행할 수 있다. 이때, 주행 사건 분류 장치는, 최종 특징 벡터 x를 이용하여 SVM 분류기를 통해 각 관심 영역 별로 n-부류 분류를 수행할 수 있다. 여기서, 최종 특징 벡터 x를 이용하여 관심 영역 별로 n-부류 분류가 수행되는 동작은 아래의 수학식 3과 같이 표현될 수 있다.
Figure 112014026175000-pat00017
수학식 3에서, y는
Figure 112014026175000-pat00018
값을 갖는 부류 변수, K는 커널 함수, λ는 정규화 매개 변수, α는 라그랑지 승수, 여기서, λ는 라그랑지 승수 α를 최대화하는 듀얼 형태의 최적화 문제로 연산될 수 있다. 그러면, 주행 사건 분류 장치는, 관심 영역으로 결정된 각 분할 영역(
Figure 112014026175000-pat00019
) 에서의 분류 결과를 얻을 수 있다. 이때, 관심 영역으로 결정된 각 분할 영역(
Figure 112014026175000-pat00020
)에서의 분류 결과가 아래의 수학식 4를 만족하는 경우, 주행 사건 분류 장치는, 수학식 4를 통해 최종 분류를 획득할 수 있다.
Figure 112014026175000-pat00021
수학식 4에서, s는 최소 크기의 분할 영역의 총 개수로서, 모든 부류에서 얻어진 정규화된 가중치 부류의 누적값을 최대화하는 값을 나타낼 수 있다. 이에 따라, 주행 사건 분류 장치는, 수학식 4를 만족하는 부류를 주행 사건 분류를 위한 최종 분류로 결정할 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (5)

  1. 삭제
  2. 주행 시작 이후 촬영된 입력 영상을 구성하는 적어도 두 장의 프레임을 대상으로, 현재 주행 환경을 나타내는 사전 정보를 수집하는 단계;
    상기 입력 영상을 복수 개의 분할 영역으로 분할하는 단계;
    상기 복수 개의 분할 영역 별로 특징 벡터를 추출하는 단계;
    상기 특징 벡터에 기초하여 상기 복수 개의 분할 영역 중 적어도 하나를 관심 영역으로 결정하는 단계;
    상기 관심 영역 내의 움직임 정보에 기초하여 최종 특징 벡터를 추출하는 단계; 및
    상기 최종 특징 벡터에 기초하여 주행 사건을 분류하는 단계
    를 포함하고,
    상기 사전 정보를 수집하는 단계는,
    상기 입력 영상 중 일부 영역을 상기 사전 정보를 수집하기 위한 영역으로 설정하고, 상기 일부 영역에서 상기 사전 정보를 수집하고,
    상기 사전 정보는,
    주행 차량의 도로면, 및 주행 차량의 주변 환경이 촬영된 입력 영상의 컬러 정보 및 텍스처 정보를 포함하고,
    상기 복수 개의 분할 영역 별로 특징 벡터를 추출하는 단계는,
    상기 복수 개의 분할 영역 중 최소 크기의 분할 영역을 대상으로 분할 그리드(grid) 개수의 특징 벡터들을 추출하는 단계; 및
    상기 추출된 특징 벡터들 별로 이진 분류를 수행하여 상기 최소 크기의 분할 영역에 해당하는 이진 벡터를 추출하는 단계
    를 포함하는 주행 사건 분류 방법.
  3. 주행 시작 이후 촬영된 입력 영상을 구성하는 적어도 두 장의 프레임을 대상으로, 현재 주행 환경을 나타내는 사전 정보를 수집하는 단계;
    상기 입력 영상을 복수 개의 분할 영역으로 분할하는 단계;
    상기 복수 개의 분할 영역 별로 특징 벡터를 추출하는 단계;
    상기 특징 벡터에 기초하여 상기 복수 개의 분할 영역 중 적어도 하나를 관심 영역으로 결정하는 단계;
    상기 관심 영역 내의 움직임 정보에 기초하여 최종 특징 벡터를 추출하는 단계; 및
    상기 최종 특징 벡터에 기초하여 주행 사건을 분류하는 단계
    를 포함하고,
    상기 복수 개의 분할 영역 별로 특징 벡터를 추출하는 단계는,
    상기 복수 개의 분할 영역 중 최소 크기의 분할 영역을 대상으로 분할 그리드(grid) 개수의 특징 벡터들을 추출하는 단계; 및
    상기 추출된 특징 벡터들 별로 이진 분류를 수행하여 상기 최소 크기의 분할 영역에 해당하는 이진 벡터를 추출하는 단계
    를 포함하는 주행 사건 분류 방법.
  4. 제3항에 있어서,
    상기 관심 영역으로 결정하는 단계는,
    상기 최소 크기의 분할 영역에 해당하는 이진 벡터와 상기 분할 그리드(grid) 개수에 기초하여, 상기 복수 개의 분할 영역 중 적어도 하나를 관심 영역으로 결정하는 주행 사건 분류 방법.
  5. 제3항에 있어서,
    상기 최종 특징 벡터를 추출하는 단계는,
    상기 관심 영역 내의 움직임 정보로부터 통계적 파라미터를 추출하는 단계; 및
    상기 통계적 파라미터를 상기 최종 특징 벡터로 결정하는 단계
    를 포함하는 주행 사건 분류 방법.
KR1020140031944A 2014-03-19 2014-03-19 차량 영상의 영역 분할에 기초하여 주행 사건을 분류하는 방법 KR101449371B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140031944A KR101449371B1 (ko) 2014-03-19 2014-03-19 차량 영상의 영역 분할에 기초하여 주행 사건을 분류하는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140031944A KR101449371B1 (ko) 2014-03-19 2014-03-19 차량 영상의 영역 분할에 기초하여 주행 사건을 분류하는 방법

Publications (1)

Publication Number Publication Date
KR101449371B1 true KR101449371B1 (ko) 2014-10-13

Family

ID=51997219

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140031944A KR101449371B1 (ko) 2014-03-19 2014-03-19 차량 영상의 영역 분할에 기초하여 주행 사건을 분류하는 방법

Country Status (1)

Country Link
KR (1) KR101449371B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092797A (ja) 2000-09-18 2002-03-29 Nippon Signal Co Ltd:The 交通情報提供システム
KR20110114905A (ko) * 2010-04-14 2011-10-20 숭실대학교산학협력단 차선 감지 방법
JP2011254436A (ja) * 2010-06-04 2011-12-15 Toshiba Alpine Automotive Technology Corp 移動体検出装置及び移動体検出方法
KR20120116699A (ko) * 2011-04-13 2012-10-23 서강대학교산학협력단 클러스터링 기법을 이용한 이동물체 검출장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092797A (ja) 2000-09-18 2002-03-29 Nippon Signal Co Ltd:The 交通情報提供システム
KR20110114905A (ko) * 2010-04-14 2011-10-20 숭실대학교산학협력단 차선 감지 방법
JP2011254436A (ja) * 2010-06-04 2011-12-15 Toshiba Alpine Automotive Technology Corp 移動体検出装置及び移動体検出方法
KR20120116699A (ko) * 2011-04-13 2012-10-23 서강대학교산학협력단 클러스터링 기법을 이용한 이동물체 검출장치 및 방법

Similar Documents

Publication Publication Date Title
CN109977812B (zh) 一种基于深度学习的车载视频目标检测方法
JP6144656B2 (ja) 歩行者の視覚的認識が困難であり得ることを運転者に警告するシステム及び方法
Rateke et al. Road surface classification with images captured from low-cost camera-road traversing knowledge (rtk) dataset
CN103366154B (zh) 可重配置的畅通路径检测系统
CN110929593B (zh) 一种基于细节辨别区别的实时显著性行人检测方法
DE112018007287T5 (de) Fahrzeugsystem und -verfahren zum erfassen von objekten und einer objektentfernung
CN106780536A (zh) 一种基于对象掩码网络的形状感知实例分割方法
JP2019061658A (ja) 領域判別器訓練方法、領域判別装置、領域判別器訓練装置及びプログラム
CN103942560B (zh) 一种智能交通监控系统中的高分辨率视频车辆检测方法
CN107305635A (zh) 对象识别方法、对象识别装置和分类器训练方法
CN104680124A (zh) 检测行人的影像处理装置及其方法
WO2013186662A1 (en) Multi-cue object detection and analysis
DE102011078615A1 (de) Objekterfassungsvorrichtung und objekterfassungsprogramm
Kim et al. Effective traffic lights recognition method for real time driving assistance systemin the daytime
Pollard et al. Lane marking extraction with combination strategy and comparative evaluation on synthetic and camera images
CN103810707B (zh) 一种基于移动视觉焦点的图像视觉显著性检测方法
CN104537356A (zh) 利用瑞士轮排序进行步态识别的行人再标识方法和装置
CN101369312B (zh) 检测图像中交叉口的方法和设备
CN114092917A (zh) 一种基于mr-ssd的被遮挡交通标志检测方法及系统
CN116597411A (zh) 极端天气下无人驾驶车辆识别交通标志的方法及系统
Helala et al. Road boundary detection in challenging scenarios
CN103177248B (zh) 一种基于视觉的快速行人检测方法
KR102039723B1 (ko) 공중촬영 영상을 이용한 차량 행태 분석 시스템 및 이를 이용한 분석 방법
CN111339834B (zh) 车辆行驶方向的识别方法、计算机设备及存储介质
Sathiya et al. Pattern recognition based detection recognition of traffic sign using SVM

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170829

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180823

Year of fee payment: 5