KR101393851B1 - Method and apparatus for sturdy classification of drive incident based on two step layer - Google Patents

Method and apparatus for sturdy classification of drive incident based on two step layer Download PDF

Info

Publication number
KR101393851B1
KR101393851B1 KR1020140034507A KR20140034507A KR101393851B1 KR 101393851 B1 KR101393851 B1 KR 101393851B1 KR 1020140034507 A KR1020140034507 A KR 1020140034507A KR 20140034507 A KR20140034507 A KR 20140034507A KR 101393851 B1 KR101393851 B1 KR 101393851B1
Authority
KR
South Korea
Prior art keywords
classification
motion
region
global
interest
Prior art date
Application number
KR1020140034507A
Other languages
Korean (ko)
Inventor
이상철
최민국
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020140034507A priority Critical patent/KR101393851B1/en
Application granted granted Critical
Publication of KR101393851B1 publication Critical patent/KR101393851B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Abstract

Provided are a method and an apparatus for classifying sturdy driving incidents based on a two-step layer. The sturdy driving incident classifying method based on the two-step layer, provided by the present invention, includes the following steps of extracting motion information on an inputted vehicle image, and setting grid division-based areas of the image; selecting an interest area for an entire area classification of the set areas, and building a motion feature-based entire area motion classifying unit for the entire area classification; filtering an entire area motion for a partial area classification, and selecting an interest area for the partial area classification; building a motion feature-based partial area motion classifying unit for the partial area classification; and generating the result of an automated driving incident classification which has the layer of the entire area/partial area classifications.

Description

두 단계 레이어 기반의 강건한 주행사건 분류 방법 및 장치{Method and Apparatus for sturdy classification of drive incident based on two step layer}TECHNICAL FIELD [0001] The present invention relates to a two-stage layer-based robust driving event classification method and apparatus,

본 발명은 차량영상 분석 기반의 사건 분류 알고리즘 제시와 관련된 것으로서, 두 단계 레이어 기반의 강건한 주행사건 분류 방법 및 장치에 관한 것이다. The present invention relates to a vehicle image analysis based event classification algorithm, and more particularly, to a two-layer based robust driving event classification method and apparatus.

최근 차량 영상을 이용하여 차량 전방의 보행자 및 차량을 인식하고, 충돌 위험이 존재하는 경우 운전자에게 경고하거나 자동으로 제동 제어나 조향 제어를 수행함으로써 충돌을 회피하는 시스템이 개발되고 있다. 이러한 시스템이 제대로 작동하기 위해서는 차량 전방의 물체가 보행자인지, 아니면 차량인지, 아니면 이외의 다른 물체인지를 빠르고 정확하게 판별하는 것이 선행되어야 한다. 또한, 차량일 경우, 차량의 움직임도 정확하게 판별할 수 있어야 한다. 전방의 물체를 인식하는 방법으로는 현재 사용되고 있는 것은 카메라를 이용하는 방법, 레인지 센서를 이용하는 방법 등이 있다.A system has been developed that recognizes pedestrians and vehicles in front of a vehicle using recent vehicle images and warns a driver when there is a risk of collision or automatically performs braking control or steering control to avoid collision. For such a system to function properly, it must be preceded by a quick and accurate determination of whether the object in front of the vehicle is a pedestrian, a vehicle, or any other object. In addition, in the case of a vehicle, it is necessary to accurately determine the movement of the vehicle. As a method of recognizing a forward object, there are a method using a camera and a method using a range sensor, which are currently being used.

뿐만 아니라, 차량 영상을 이용한 주행사건 분류 장치도 개발되고 있다. 이러한 주행사건 분류 장치는 영상의 영역 기반 모션 분석을 통해 각 영역 내에 분포하는 모션의 통계적 특성들을 반영하고 현재 주행정보를 특정 영역의 지역적 모션들의 분석을 필요로 한다. 또한, 실시간으로 주행과정에서 일어나는 사건 분류를 수행함으로써 모든 분류 과정이 실시간으로 처리가 가능한 주행사건 분류 장치를 필요로 한다.In addition, a driving event classification apparatus using a vehicle image is also being developed. Such a traveling event classifier needs to analyze local motion of a specific area reflecting current statistical characteristics of motion distributed in each area through region-based motion analysis of the image. Also, it requires a traveling event classification device that can process all classification processes in real time by performing event classification that occurs in the traveling process in real time.

본 발명이 이루고자 하는 기술적 과제는 보다 강건한 분류를 위한 분류부를 구축하기 위해 전역, 지역 분류에 해당하는 두 단계 분류 단계를 설정하고 현재 겪고 있는 주행 정보에 대한 전역, 지역적 사건을 독립적으로 분류하여 정보를 제공하기 위한 두 단계 레이어 기반의 강건한 주행사건 분류 방법 및 장치를 제공하는데 있다. In order to construct a classification section for a more robust classification, the present invention sets two classification stages corresponding to a global classification and a regional classification, independently classifies global and local events of the current traveling information, Layer based robust driving event classification method and apparatus.

일 측면에 있어서, 본 발명에서 제안하는 두 단계 레이어 기반의 강건한 주행사건 분류 방법은 입력된 차량 영상에 대한 모션 정보 추출 및 상기 영상의 그리드 분할 기반의 영역을 설정하는 단계, 상기 설정된 영역에 대하여 전역 분류를 위한 관심영역 선별 및 상기 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축하는 단계, 지역 분류를 위한 전역 모션 필터링 및 상기 지역 분류를 위한 관심영역을 선별하는 단계, 상기 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축하는 단계, 상기 전역 분류 및 상기 지역 분류 레이어를 갖는 자동화된 주행사건 분류 결과를 생성하는 단계를 포함할 수 있다. According to an aspect of the present invention, there is provided a robust driving event classification method based on a two-stage layer proposed in the present invention, comprising the steps of: extracting motion information of an input vehicle image and setting an area based on a grid division of the image; Constructing a global motion classification unit based on a motion feature for sorting a region of interest and for global classification, global motion filtering for region classification, selecting a region of interest for the region classification, Constructing a feature-based local motion classifier, and generating an automated driving event classification result having the global classifier and the local classifying layer.

상기 입력된 차량 영상에 대한 모션 정보 추출 및 상기 영상의 그리드 분할 기반의 영역을 설정하는 단계는 상기 영상 내에 관심영역을 설정하기 위해 영역의 크기를 단계적으로 조절하여 그리드 분할 영역을 설정할 수 있다. In the step of extracting motion information of the input vehicle image and setting an area based on the grid division of the image, a grid partition area may be set by adjusting the size of the area in order to set a region of interest in the image.

상기 설정된 영역에 대하여 전역 분류를 위한 관심영역 선별 및 상기 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축하는 단계는 상기 영역 별 모션 정보에 대한 중요도가 다르게 분포하므로 상기 영역 별 모션 정보의 특징을 활용하기 위해 히스토그램 기반의 관심영역을 선별할 수 있다. The step of selecting the region of interest for the global classification and the global motion classification unit based on the motion feature for the global classification for the set region are different in the importance of the motion information for each region, A histogram-based region of interest can be selected for use.

상기 관심영역 선별 후 각 영역 내에서 추출된 모션 벡터들의 통계적 파라미터를 추출하여 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축할 수 있다. The global motion classification unit based on the motion feature for global classification can be constructed by extracting the statistical parameters of the extracted motion vectors in each region after sorting the ROIs.

상기 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축하는 단계는 미리 설정된 수의 지역 사건에 대한 추출된 특징 벡터를 이용하여 상기 각 영역에 대한 분류를 수행할 수 있다.The step of constructing the local motion classifier based on the motion feature for the local classification may classify the regions using the extracted feature vectors for a predetermined number of local events.

또 다른 일 측면에 있어서, 본 발명에서 제안하는 두 단계 레이어 기반의 강건한 주행사건 분류 장치는 입력된 차량 영상에 대한 모션 정보를 추출하는 모션 정보 추출부, 상기 영상의 그리드 분할 기반의 영역을 설정하는 영역 설정부, 상기 설정된 영역에 대하여 전역 분류를 위한 관심영역을 선별하고 상기 전역 분류를 수행하는 모션 특징 기반의 전역 모션 분류부, 지역 분류를 위한 전역 모션 필터링을 수행하는 필터링부, 상기 지역 분류를 위한 관심영역을 선별하고 상기 지역 분류를 수행하는 모션 특징 기반의 지역 모션 분류부를 포함할 수 있다. According to another aspect of the present invention, there is provided a robust driving event classification apparatus based on a two-layer structure proposed in the present invention, including a motion information extraction unit for extracting motion information on an input vehicle image, A global motion classification unit based on a motion feature for selecting a region of interest for the global classification and performing the global classification for the set region, a filtering unit for performing global motion filtering for region classification, And a local motion classifier based on a motion feature for classifying the region of interest and performing the local classification.

본 발명의 실시예들에 따르면 모션 벡터 추정 및 통계적 파라미터 추출을 통하여 영상의 영역 기반의 모션 특징을 추출할 수 있다. 영상의 영역 기반 모션 분석을 통해 각 영역 내에 분포하는 모션의 통계적 특성들을 반영하고 현재 주행정보를 특정 영역의 지역적 모션들의 분석을 기반으로 분류할 수 있다According to embodiments of the present invention, region-based motion characteristics of an image can be extracted through motion vector estimation and statistical parameter extraction. Based on the region-based motion analysis of the image, it is possible to classify the current driving information based on the analysis of the local motions of a specific region, reflecting the statistical characteristics of the motions distributed in each region

도 1은 본 발명의 일 실시예에 따른 두 단계 레이어 기반의 강건한 주행사건 분류 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 그리드 분할의 영상 영역 설정 과정을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 특정 전역 주행사건에 해당하는 모션 텐서 P에서의 각도 히스토그램 누적 값에 대한 의사색채 맵을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 모션 텐서 Wj에서의 전역 모션 필터링 이후 지역 주행사건의 의사색채 맵을 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 두 단계 레이어 기반의 강건한 주행사건 분류 장치의 구성을 나타내는 도면이다.
FIG. 1 is a flowchart illustrating a robust driving event classification method based on a two-level layer according to an embodiment of the present invention.
2 is a diagram for explaining a process of setting a video region of a grid split according to an embodiment of the present invention.
3 is a diagram showing a pseudo color map for an accumulated value of an angular histogram in a motion tensor P corresponding to a specific global driving event according to an embodiment of the present invention.
4 is a diagram showing a pseudo color map of a local driving event after global motion filtering in the motion tensor W j according to an embodiment of the present invention.
5 is a diagram illustrating a configuration of a two-layer layer based robust traveling event classification apparatus according to an embodiment of the present invention.

이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

제안하는 두 단계 레이어 기반의 강건한 주행사건 분류 방법 및 장치는 모션 벡터 추정 및 통계적 파라미터 추출을 통하여 영상의 영역 기반의 모션 특징을 추출할 수 있다. 영상의 영역 기반 모션 분석을 통해 각 영역 내에 분포하는 모션의 통계적 특성들을 반영하고 현재 주행정보를 특정 영역의 지역적 모션들의 분석을 기반으로 분류할 수 있다. 또한, 보다 강건한 분류를 위한 분류부를 구축하기 위해 전역, 지역 분류에 해당하는 두 단계 분류 단계를 설정하고 현재 겪고 있는 주행 정보에 대한 전역, 지역적 사건을 독립적으로 분류하여 정보를 제공할 수 있다. 이러한 과정을 통해 주행정보의 세분화와 다발적인 사건에 대해 검출이 가능한 시스템을 구축할 수 있다. 그리고, 모든 분류 과정이 실시간 처리가 가능하도록 함으로써, 실제 주행환경에서 오프라인 분석이 아닌 온라인에서의 실시간 주행정보 도움 서비스를 구축할 수 있다. 분류부를 구축하는 단계에서 데이터 수집 및 가공 가정은 오프라인에서 작동하도록 설계되었으나, 한번 구축된 분류부를 활용하여 실시간으로 주행과정에서 일어나는 사건 분류를 수행할 수 있도록 설계가 가능하다.
The proposed two - layer based robust driving event classification method and apparatus can extract region - based motion features of an image through motion vector estimation and statistical parameter extraction. Based on the region-based motion analysis of the image, it is possible to classify the current driving information based on the analysis of the local motions of the specific region, reflecting the statistical characteristics of the motions distributed in each region. In addition, in order to construct a classification section for more robust classification, a two-step classification step corresponding to global and local classification can be set up, and information on global and local events related to current traveling information can be independently classified and provided. Through this process, it is possible to construct a system capable of detecting the subdivision of driving information and detecting multiple events. By realizing all classification processes in real time, it is possible to construct online real-time driving information assistance service instead of offline analysis in actual driving environment. In the step of constructing the classification part, the data collection and processing assumption is designed to operate offline, but it can be designed to classify the events occurring in the traveling process in real time by using the classification part once constructed.

도 1은 본 발명의 일 실시예에 따른 두 단계 레이어 기반의 강건한 주행사건 분류 방법을 설명하기 위한 흐름도이다. FIG. 1 is a flowchart illustrating a robust driving event classification method based on a two-level layer according to an embodiment of the present invention.

두 단계 레이어 기반의 강건한 주행사건 분류 방법은 입력된 차량 영상에 대한 모션 정보 추출 및 상기 영상의 그리드 분할 기반의 영역을 설정하는 단계(110), 상기 설정된 영역에 대하여 전역 분류를 위한 관심영역 선별 및 상기 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축하는 단계(120), 지역 분류를 위한 전역 모션 필터링 및 상기 지역 분류를 위한 관심영역을 선별하는 단계(130), 상기 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축하는 단계(140), 상기 전역 분류 및 상기 지역 분류 레이어를 갖는 자동화된 주행사건 분류 결과를 생성하는 단계(150)를 포함할 수 있다.
A robust driving event classification method based on a two-stage layer includes a step 110 of extracting motion information of an input vehicle image and setting an area based on a grid division of the image (110), selecting a region of interest for global classification A step 120 of constructing a global motion classification unit based on a motion feature for the global classification, a global motion filtering for a local classification, a step 130 selecting a region of interest for the regional classification, Based local motion classification unit 140, and generating 150 an automated driving event classification result having the global classification and the regional classification layer.

단계(110)에서, 입력된 차량 영상에 대한 모션 정보 추출 및 상기 영상의 그리드 분할 기반의 영역을 설정할 수 있다. 다시 말해, 영상 내에 관심영역을 설정하기 위해 영역의 크기를 단계적으로 조절하여 그리드 분할 영역을 설정할 수 있다.In step 110, motion information extraction for the inputted vehicle image and grid-division-based area of the image can be set. In other words, in order to set the region of interest in the image, the size of the region can be adjusted stepwise to set the grid partition region.

먼저 입력 영상에 대한 모션 정보를 추출할 수 있다. 예를 들어, 두 프레임의 영상이 카메라에 의해 입력되면 모션 정보 추출을 수행할 수 있다. 실시간성이 확보된 모션 정보는 추출을 위해 Horn 등이 개발한 에너지 최소화 기법 기반의 옵티컬 플로우(Optical Flow) 측정 기법이나 루카스(Lucas) 등이 개발한 선형 모델링 기반의 옵티컬 플로우 측정 기법을 사용할 수 있다. 그리고, 각각의 알고리즘으로부터 추정된 모션은 모든 픽셀 위치에 걸쳐 하나의 모션 벡터 값 (u, v)x,y,t으로 저장될 수 있다. 이때 u와 v는 각각 옵티컬 플로우 측정 기법으로 추정된 모션 벡터의 수평, 수직 방향의 크기를 의미하고, 아래 첨자 x, y, t는 t번째 프레임에 해당하는 영상 정보의 (x, y)에 해당하는 픽셀 위치를 의미한다.First, motion information on the input image can be extracted. For example, when an image of two frames is inputted by the camera, motion information extraction can be performed. In order to extract real-time motion information, optical flow measurement technique based on energy minimization technique developed by Horn et al. Or linear modeling based optical flow measurement technique developed by Lucas et al can be used . And motion estimated from each algorithm can be stored as one motion vector value (u, v) x, y, t over all pixel positions. In this case, u and v are the horizontal and vertical sizes of the motion vector estimated by the optical flow measurement technique, respectively, and the subscripts x, y, and t correspond to (x, y) ≪ / RTI >

다음으로, 상기 영상의 그리드 분할 기반의 영역을 설정할 수 있다. 주행사건 분류를 위한 초기 단계로 그리드 분할 기반의 영상 영역을 설정할 수 있다. 예를 들어, 주행사건 분류를 위한 영상 내에 관심 영역 여부를 설정하기 위해 영역의 크기를 단계적으로 조절하여 그리드 분할 영역의 수를 s만큼 가질 수 있다. 그리고, 분할 영역의 크기에 따라 총 g만큼의 영역 스케일을 가질 수 있다. 도 2를 참조하여 더욱 상세히 설명한다.
Next, the grid-division-based region of the image can be set. As an initial step for classification of driving events, it is possible to set the image area based on the grid division. For example, the size of the region may be stepwise adjusted to set the number of grid partition regions by s in order to set whether or not a region of interest is within the image for classification of a driving event. And, it can have an area scale of a total g according to the size of the divided area. Will be described in more detail with reference to FIG.

도 2는 본 발명의 일 실시예에 따른 그리드 분할의 영상 영역 설정 과정을 설명하기 위한 도면이다. 2 is a diagram for explaining a process of setting a video region of a grid split according to an embodiment of the present invention.

도 2와 같이, 주행사건 분류를 위한 영상 내에 관심 영역 여부를 설정하기 위해 영역의 크기를 단계적으로 조절하여 그리드 분할 영역의 수를 설정할 수 있다. 도 2를 참조하면, 도 2(a)의 분할 그리드 영역의 수는 25개이고, 도 2(b)의 분할 그리드 영역의 수는 100개이고, 도 2(c)의 분할 그리드 영역의 수는 400개이다. 예를 들어, 이때 총 영역 스케일 g는 3이다.
As shown in FIG. 2, the number of the grid partition areas can be set by gradually adjusting the size of the area in order to set whether or not the area of interest is within the image for the travel event classification. 2, the number of divided grid areas in FIG. 2 (a) is 25, the number of divided grid areas in FIG. 2 (b) is 100, and the number of divided grid areas in FIG. . For example, the total area scale g is 3 at this time.

단계(120)에서, 상기 설정된 영역에 대하여 전역 분류를 위한 관심영역 선별 및 상기 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축할 수 있다. In step 120, a global motion classification unit based on a motion feature for global classification and a region selection for a global classification may be constructed for the set region.

먼저, 히스토그램 기반의 관심영역을 선별할 수 있다. 주행정보의 부류에 따라 특정 부류가 나타내는 모션의 영역 정보에 대한 중요도가 다르게 분포할 수 있다. 이러한 특징을 활용하기 위해 히스토그램 기반의 관심 영역 선별을 수행할 수 있다. 예를 들어, 총 n개의 전역 주행사건을 갖는 사건공간에서 특정한 부류의 전역 사건이 일어난 k프레임의 시간 간격을 갖는 h x w x k 크기의 모션 텐서 W를 추출하였다고 가정한다. 이때 각 전역 사건에 따라 W1, W2, ..., Wn 총 n개의 모션 텐서를 추출할 수 있다. 이때 수직 방향과 수평 방향의 모션 벡터에 대한 데카르트 좌표 상에 존재하는 i번째 모션 텐서 Wi에 대하여 각도와 크기를 갖는 극좌표 텐서 Pi에 대한 좌표 변환 Wi → Pi이 존재할 수 있다. 이러한 극좌표 상의 모션 텐서 Pi에 대해 s개의 영역에서 모션 벡터의 각도 θ값을 기준으로 총 4개의 빈을 갖는 히스토그램 h를 생성할 수 있다. 이때 i번째 영역에서의 히스토그램 h는 수학식1과 같이 정의될 수 있다.
First, the histogram-based region of interest can be selected. Depending on the type of travel information, the importance of the region information of the motion indicated by the specific class may be distributed differently. To take advantage of these features, we can perform histogram-based region-of-interest screening. For example, it is assumed that a motion tensor W of hxwxk size having a time interval of k frames in which a global event of a specific class occurs in an event space having a total of n global driving events is extracted. At this time, a total of n motion tensors W 1 , W 2 , ..., W n can be extracted according to each global event. At this time, there may be a coordinate transformation W i ? P i for the polar coordinate tensor P i having an angle and a magnitude with respect to the i-th motion tensor W i existing on the Cartesian coordinate for the vertical and horizontal motion vectors. A histogram h having a total of four bins can be generated based on the angle &thetas; value of the motion vector in s regions with respect to the motion tensor P i on this polar coordinate. At this time, the histogram h in the i-th region can be defined as Equation (1).

Figure 112014028445327-pat00001
수학식1
Figure 112014028445327-pat00001
Equation 1

모든 주행사건 부류에 대한 최대 히스토그램 누적값이 특정 임계값 k이상인 경우, 다시 말해 max h > k 기준을 바탕으로 분할 영역 내의 관심 영역을 추출할 수 있다. 도 3을 참조하여 더욱 상세히 설명한다.
If the maximum histogram accumulation value for all driving event classes is above a certain threshold value k, that is, the interest area within the partition area can be extracted based on the max h> k criterion. Will be described in more detail with reference to FIG.

도 3은 본 발명의 일 실시예에 따른 특정 전역 주행사건에 해당하는 모션 텐서 P에서의 각도 히스토그램 누적 값에 대한 의사색채 맵을 나타내는 도면이다.3 is a diagram showing a pseudo color map for an accumulated value of an angular histogram in a motion tensor P corresponding to a specific global driving event according to an embodiment of the present invention.

영역 별 모션 정보에 대한 중요도가 다르게 분포하므로 영역 별 모션 정보의 특징을 활용하기 위해 히스토그램 기반의 관심영역을 선별할 수 있다. 예를 들어, 도 3(a)는 직진을 나타내는 각도 히스토그램 누적값에 대한 의사색채 맵을 나타내고, 도 3(b)는 우회전을 나타내는 각도 히스토그램 누적값에 대한 의사색채 맵을 나타낸다. 그리고, 도 3(c)는 좌회전을 나타내는 각도 히스토그램 누적값에 대한 의사색채 맵을 나타내고, 도 3(d)는 감속을 나타내는 각도 히스토그램 누적값에 대한 의사색채 맵을 나타낸다.
Since the importance of the motion information per domain is different, the histogram-based region of interest can be selected to utilize the feature of motion information per region. For example, FIG. 3 (a) shows a pseudo color map for the accumulated value of the angle histogram indicating the straight ahead, and FIG. 3 (b) shows the pseudo color map for the accumulated value of the angle histogram showing the right turn. Fig. 3 (c) shows a pseudo color map for the accumulated value of the angle histogram indicating the left turn, and Fig. 3 (d) shows the pseudo color map for the accumulated value of the angular histogram showing the deceleration.

다음으로, 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축할 수 있다. 다시 말해, 상기 관심영역 선별 후 각 영역 내에서 추출된 모션 벡터들의 통계적 파라미터를 추출하여 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축할 수 있다. 관심영역 선별 후 각 영역 내에서 추출된 모션 벡터들의 세트 u와 v에 대해서 통계적 파라미터를 추출할 수 있다. u와 v에서 얻어지는 통계적 파라미터는 총 12가지 원소를 갖게 되고, 최종 추출된 특징 벡터 x = [x1, x2, ..., x12]T는 다음과 같이 정의할 수 있다.
Next, a global motion classification unit based on motion characteristics for global classification can be constructed. In other words, the global motion classification unit based on motion characteristics for global classification can be constructed by extracting the statistical parameters of the extracted motion vectors in each region after sorting the ROIs. After selecting the region of interest, statistical parameters can be extracted for the set of extracted motion vectors u and v in each region. The statistical parameters obtained from u and v have a total of 12 elements, and the final extracted feature vector x = [x 1 , x 2 , ..., x 12 ] T can be defined as follows.

Figure 112014028445327-pat00002

Figure 112014028445327-pat00002

예를 들어, n개의 전역 사건에 대해서 최종적으로 추출된 특징 벡터 x를 활용하여 SVM(Support Vector Machine) 분류부를 통해 수학식2를 이용하여 각 영역에 대한 n-부류 분류를 수행할 수 있다.
For example, n-class classification for each region can be performed using Equation (2) through SVM (Support Vector Machine) classification unit using the finally extracted feature vector x for n global events.

Figure 112014028445327-pat00003
수학식2
Figure 112014028445327-pat00003
Equation 2

y는 y ∈ {0, 1, ..., n} 값을 갖는 부류 변수이며, K는 커널 함수, λ는 정규화 매개변수로 라그랑지 승수 α를 최대화하는 듀얼 형태의 최적화 문제로 연산할 수 있다. 최소 크기의 분할 영역 중 i번째 관심영역 ri은 g개의 스케일 영역에서 하나의 부류 벡터 ri = [r1, r2, ..., rg]를 추출할 수 있다. 그리고, 각 ri는 1부터 n사이의 분류 변수값을 가질 수 있다. R을 각 ri를 행으로 갖는 전체 관심영역에 대한 부류 정보를 담고 있는 행렬로 정의할 때, R로부터 각 분류 결과의 누적 벡터 c = {c1, c2, ..., cg}를 얻을 수 있다. i번째 관심영역 ri에 대한 결정 분류 값은

Figure 112014028445327-pat00004
으로 정의되며 최대값 cmax에 대한 정규화 값을 그 영역의 가중치 값으로 할당할 수 있다. 최종적으로 전역 주행사건에 대한 분류는 각 영역에서 분류 결과에 대한 수학식3을 만족하는 형태로 얻을 수 있다.
y is a class variable with y ∈ {0, 1, ..., n}, K is a kernel function, and λ is a dual-type optimization problem that maximizes the Lagrangian multiplier α with normalization parameters . We can extract one class vector ri = [r 1 , r 2 , ..., r g ] in the g scale regions of the i-th interested region r i among the smallest size region. And, each r i can have a classification variable value between 1 and n. Let R be the matrix containing the class information for the whole region of interest with each r i as a row. Let R denote the cumulative vector c = {c 1 , c 2 , ..., c g } Can be obtained. The decision classification value for the ith region of interest r i is
Figure 112014028445327-pat00004
And the normalization value for the maximum value c max can be assigned as the weight value of the area. Finally, the classification of global driving events can be obtained in a form satisfying Equation (3) for classification results in each region.

Figure 112014028445327-pat00005
수학식3
Figure 112014028445327-pat00005
Equation 3

Figure 112014028445327-pat00006
는 최소 크기의 영역 내 관심영역의 총 개수이다. 모든 부류에서 얻어진 정규화된 가중치 부류의 누적값을 최대화하는 형태로 현재 분류를 위한 전역 주행사건을 선택할 수 있다.
Figure 112014028445327-pat00006
Is the total number of regions of interest within the minimum size region. The global driving event for the current classification can be selected in such a manner as to maximize the cumulative value of the normalized weight class obtained from all classes.

단계(130)에서, 지역 분류를 위한 전역 모션 필터링 및 상기 지역 분류를 위한 관심영역을 선별할 수 있다. 강건한 지역 주행사건 분류를 위해 전역 모션 필터링 수행할 수 있다. 그리고, 이를 위해 각 전역 주행사건에 대한 통계적 모션 모델을 구축할 수 있다. 총 n개의 전역 주행사건 중 j번째 전역 주행사건으로부터 얻어진 모션 텐서 Wj로부터 i번째 영역에서의 평균 모션 벡터를 수학식4와 같이 정의할 수 있다.
In step 130, global motion filtering for region classification and region of interest for the regional classification may be selected. Global motion filtering can be performed to classify robust local driving events. To do this, a statistical motion model for each global driving event can be constructed. The average motion vector in the i-th region from the motion tensor W j obtained from the j-th global driving event among the n total global driving events can be defined as shown in Equation (4).

Figure 112014028445327-pat00007
수학식4
Figure 112014028445327-pat00007
Equation 4

전역 분류부로부터 j번째 부류로 현재 주행사건이 분류된 경우 모든 영역에서 음의 방향의 평균 모션을 더해줌으로써 수학식5와 같이 수행될 수 있다.
If the current driving event is classified from the global classification unit to the jth class, the average motion in the negative direction may be added to all the regions to perform Equation (5).

Figure 112014028445327-pat00008
수학식5
Figure 112014028445327-pat00008
Equation 5

전역 모션 필터링 이후 얻어진 모션 텐서

Figure 112014028445327-pat00009
에 대하여 전역 주행사건에 대한 관심영역 추출과 같은 방법으로 누적 히스토그램
Figure 112014028445327-pat00010
을 생성할 수 있다. 전역 주행사건의 경우와 같이
Figure 112014028445327-pat00011
기준을 바탕으로 지역 주행사건의 관심 영역을 추출할 수 있다. 도 4를 참조하여 더욱 상세히 설명한다.
Motion tensor obtained after global motion filtering
Figure 112014028445327-pat00009
In the same way as the extraction of the region of interest for the global driving event, the cumulative histogram
Figure 112014028445327-pat00010
Can be generated. As in the case of the global driving case
Figure 112014028445327-pat00011
Based on the criteria, it is possible to extract the area of interest of the local driving event. This will be described in more detail with reference to FIG.

도 4는 본 발명의 일 실시예에 따른 모션 텐서 Wj에서의 전역 모션 필터링 이후 지역 주행사건의 의사색채 맵을 나타내는 도면이다.4 is a diagram showing a pseudo color map of a local driving event after global motion filtering in the motion tensor W j according to an embodiment of the present invention.

도 4를 참조하면, 특정 전역 주행사건에 해당하는 모션 텐서 Wj에 대하여 전역 모션 필터링을 수행한 뒤 얻어진 모션 텐서

Figure 112014028445327-pat00012
에 대한 지역 주행사건의 의사색채 맵을 나타내었다. 도 4(a)는 우측 차선변경을 나타내는 지역 주행사건의 의사색채 맵을 나타내는 도면이고, 도 4(b)는 좌측 차선변경을 나타내는 지역 주행사건의 의사색채 맵을 나타내는 도면이다. 그리고, 도 4(c)는 우측 끼어듦을 나타내는 지역 주행사건의 의사색채 맵을 나타내는 도면이고, 도 4(d)는 좌측 끼어듦을 나타내는 지역 주행사건의 의사색채 맵을 나타내는 도면이다. 그리고, 도 4(e)는 전방차량 우측 차선변경을 나타내는 지역 주행사건의 의사색채 맵을 나타내는 도면이고, 도 4(f)는 전방차량 좌측 차선변경을 나타내는 지역 주행사건의 의사색채 맵을 나타내는 도면이다.
4, global motion filtering is performed on a motion tensor W j corresponding to a specific global driving event, and a motion tensor
Figure 112014028445327-pat00012
The results of this study are as follows. FIG. 4A is a diagram showing a pseudo color map of a local driving event showing a right lane change, and FIG. 4B is a diagram showing a pseudo color map of a local driving event showing a left lane change. FIG. 4 (c) is a diagram showing a pseudo color map of a local driving event indicating a right pincushion, and FIG. 4 (d) is a diagram showing a pseudo color map of a local driving event indicating a left pincushion. Fig. 4 (e) is a diagram showing a pseudo color map of a local driving event showing a right lane change of the front vehicle, and Fig. 4 (f) to be.

단계(140)에서, 상기 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축할 수 있다. 이때, 미리 설정된 수의 지역 사건에 대한 추출된 특징 벡터를 이용하여 상기 각 영역에 대한 분류를 수행할 수 있다. In step 140, a local motion classifier based on the motion feature for the regional classification may be constructed. At this time, classification for each region can be performed using the extracted feature vectors for a predetermined number of local events.

예를 들어, 미리 정의된 m개의 지역 사건에 대해서 추출된 특징 벡터 x를 활용하여 SVM(Support Vector Machine) 분류부기반의 각 영역에 대한 n-부류 분류를 수학식6을 이용하여 수행할 수 있다.
For example, n-class classification for each region based on the SVM (Support Vector Machine) classifier can be performed using Equation 6 using the extracted feature vector x for m local events that are defined in advance .

Figure 112014028445327-pat00013
수학식6
Figure 112014028445327-pat00013
Equation 6

y는 y ∈ {0, 1, ..., m}값을 갖는 부류 변수이며, K는 커널 함수, λ는 정규화 매개변수로 라그랑지 승수 σ를 최대화하는 듀얼 형태의 최적화 문제로 연산할 수 있다. 최소 크기의 분할 영역 중 i번째 관심영역 ri은 g개의 스케일 영역에서 하나의 부류 벡터 ri = [r1, r2, ..., rg]T를 추출하게 되며, 각 ri는 1부터 m사이의 분류 변수값을 가질 수 있다. R을 각 ri를 행으로 갖는 전체 관심영역에 대한 부류 정보를 담고 있는 행렬로 정의할 때, R로부터 각 분류 결과의 누적 벡터 c = {c1, c2, ..., cg}를 얻을 수 있다. i번째 관심영역 ri에 대한 결정 분류 값은

Figure 112014028445327-pat00014
으로 정의되며 최대값 cmax에 대한 정규화 값을 그 영역의 가중치 값으로 할당할 수 있다. 최종적으로 지역 주행사건에 대한 분류는 각 영역에서 분류 결과에 대한 다음 수식을 만족하는 형태로 수학식7과 같이 나타낼 수 있다.
y is a class variable with y ∈ {0, 1, ..., m}, K can be computed as a kernel function, and λ can be computed as a dual-form optimization problem that maximizes the Lagrangian multiplier σ as a normalization parameter . And to extract one of the class of the i-th region of interest of the smallest partition r i is in the g region of the scale vector ri = [r 1, r 2 , ..., r g] T, each r i is from 1 m. < / RTI > Let R be the matrix containing the class information for the whole region of interest with each r i as a row. Let R denote the cumulative vector c = {c 1 , c 2 , ..., c g } Can be obtained. The decision classification value for the ith region of interest r i is
Figure 112014028445327-pat00014
And the normalization value for the maximum value c max can be assigned as the weight value of the area. Finally, the classification of local driving events can be expressed as Equation (7) in the form of satisfying the following formula for classification results in each area.

Figure 112014028445327-pat00015
수학식7
Figure 112014028445327-pat00015
Equation 7

Figure 112014028445327-pat00016
는 최소 크기의 영역 내 관심영역의 총 개수이다. 모든 부류에서 얻어진 정규화된 가중치 부류의 누적값을 최대화하는 형태로 현재 분류를 위한 지역 주행사건을 선택할 수 있다.
Figure 112014028445327-pat00016
Is the total number of regions of interest within the minimum size region. A local driving event for the current classification can be selected in a form maximizing the cumulative value of the normalized weight class obtained from all classes.

단계(150)에서, 상기 전역 분류 및 상기 지역 분류 레이어를 갖는 자동화된 주행사건 분류 결과를 생성할 수 있다. 전역 분류와 지역 분류 단계를 모두 거친 후 두 단계 레이어를 갖는 자동화된 주행사건 분류 결과를 생성할 수 있다. 미리 정의된 n개의 전역 주행사건과 m개의 지역 주행사건을 바탕으로 총 n x m개 사건에 대한 다부류 분류를 수행할 수 있다.
In step 150, an automated driving event classification result having the global classification and the regional classification layer may be generated. After both the global classification and the regional classification step, an automated case classification result with two layers can be generated. Based on the predefined n global driving events and m local driving events, it is possible to perform multi-class classification for a total of nxm events.

도 5는 본 발명의 일 실시예에 따른 두 단계 레이어 기반의 강건한 주행사건 분류 장치의 구성을 나타내는 도면이다. 5 is a diagram illustrating a configuration of a two-layer layer based robust traveling event classification apparatus according to an embodiment of the present invention.

두 단계 레이어 기반의 강건한 주행사건 분류 장치는 모션 정보 추출부(510), 영역 설정부(520), 모션 분류부(530), 필터링부(540), 모션 분류부(550)를 포함할 수 있다. The robust running event classification apparatus based on the two-stage layer may include a motion information extracting unit 510, an area setting unit 520, a motion classifying unit 530, a filtering unit 540, and a motion classifying unit 550 .

모션 정보 추출부(510)는 입력된 차량 영상에 대한 모션 정보를 추출할 수 있다. 예를 들어, 두 프레임의 영상이 카메라에 의해 입력되면 모션 정보 추출을 수행할 수 있다. 실시간성이 확보된 모션 정보는 추출을 위해 Horn 등이 개발한 에너지 최소화 기법 기반의 옵티컬 플로우(Optical Flow) 측정 기법이나 루카스(Lucas) 등이 개발한 선형 모델링 기반의 옵티컬 플로우 측정 기법을 사용할 수 있다.The motion information extraction unit 510 may extract motion information on the input vehicle image. For example, when an image of two frames is inputted by the camera, motion information extraction can be performed. In order to extract real-time motion information, optical flow measurement technique based on energy minimization technique developed by Horn et al. Or optical flow measurement technique based on linear modeling developed by Lucas et al can be used .

영역 설정부(520)는 영상의 그리드 분할 기반의 영역을 설정할 수 있다. The area setting unit 520 can set a grid-based area of the image.

주행사건 분류를 위한 초기 단계로 그리드 분할 기반의 영상 영역을 설정할 수 있다. 예를 들어, 주행사건 분류를 위한 영상 내에 관심 영역 여부를 설정하기 위해 영역의 크기를 단계적으로 조절하여 그리드 분할 영역의 수를 s만큼 가질 수 있다. 그리고, 분할 영역의 크기에 따라 총 g만큼의 영역 스케일을 가질 수 있다.As an initial step for classification of driving events, it is possible to set the image area based on the grid division. For example, the size of the region may be stepwise adjusted to set the number of grid partition regions by s in order to set whether or not a region of interest is within the image for classification of a driving event. And, it can have an area scale of a total g according to the size of the divided area.

전역 모션 분류부(530)는 상기 설정된 영역에 대하여 전역 분류를 위한 관심영역을 선별하고 상기 전역 분류를 수행하는 모션 특징 기반의 전역 모션 분류부이다. 주행정보의 부류에 따라 특정 부류가 나타내는 모션의 영역 정보에 대한 중요도가 다르게 분포할 수 있다. 이러한 특징을 활용하기 위해 히스토그램 기반의 관심 영역 선별을 수행할 수 있다. 그리고, 관심영역 선별 후 각 영역 내에서 추출된 모션 벡터들의 통계적 파라미터를 추출하여 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축할 수 있다. 그리고, 전역 분류와 지역 분류 단계를 모두 거친 후 자동화된 주행사건 분류 결과를 생성할 수 있다.The global motion classifier 530 is a global motion classifier based on a motion feature that selects a region of interest for global classification and performs the global classification on the set region. Depending on the type of travel information, the importance of the region information of the motion indicated by the specific class may be distributed differently. To take advantage of these features, we can perform histogram-based region-of-interest screening. Then, the global motion classification unit based on the motion feature for global classification can be constructed by extracting the statistical parameters of the extracted motion vectors in each region after selecting the region of interest. It is also possible to generate automated driving event classification results after passing both the global classification and the regional classification step.

필터링부(540) 지역 분류를 위한 전역 모션 필터링을 수행할 수 있다. 다시 말해, 강건한 지역 주행사건 분류를 위해 전역 모션 필터링 수행할 수 있다. 그리고, 이를 위해 각 전역 주행사건에 대한 통계적 모션 모델을 구축할 수 있다.The filtering unit 540 may perform global motion filtering for local classification. In other words, global motion filtering can be performed for robust local driving event classification. To do this, a statistical motion model for each global driving event can be constructed.

지역 모션 분류부(550)는 상기 지역 분류를 위한 관심영역을 선별하고 상기 지역 분류를 수행하는 모션 특징 기반의 지역 모션 분류부이다. 다시 말해, 지역 모션 분류부(550)는 지역 분류를 위한 관심영역을 선별하고, 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축할 수 있다. 이때, 미리 설정된 수의 지역 사건에 대한 추출된 특징 벡터를 이용하여 상기 각 영역에 대한 분류를 수행할 수 있다. 그리고, 전역 분류와 지역 분류 단계를 모두 거친 후 자동화된 주행사건 분류 결과를 생성할 수 있다.
The local motion classifying unit 550 is a local motion classifying unit based on a motion feature that selects a region of interest for the region classifying and performs the region classifying. In other words, the local motion classifier 550 can select a region of interest for local classification and construct a local motion classifier based on motion characteristics for local classification. At this time, classification for each region can be performed using the extracted feature vectors for a predetermined number of local events. It is also possible to generate automated driving event classification results after passing both the global classification and the regional classification step.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (6)

주행사건 분류 방법에 있어서,
입력된 차량 영상에 대한 모션 정보 추출 및 상기 영상의 그리드 분할 기반의 영역을 설정하는 단계;
상기 설정된 영역에 대하여 전역 분류를 위한 관심영역 선별 및 상기 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축하는 단계;
지역 분류를 위한 전역 모션 필터링 및 상기 지역 분류를 위한 관심영역을 선별하는 단계;
상기 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축하는 단계; 및
상기 전역 분류 및 지역 분류 레이어를 갖는 자동화된 주행사건 분류 결과를 생성하는 단계
를 포함하는 주행사건 분류 방법.
In a driving event classification method,
Extracting motion information of the input vehicle image and setting an area based on the grid division of the image;
Constructing a global motion classification unit based on a motion feature for global classification and a region of interest for global classification for the set region;
Global motion filtering for local classification and selection of a region of interest for the regional classification;
Constructing a local motion classifier based on a motion feature for the regional classification; And
Generating an automated driving event classification result having the global classification and the regional classification layer
Wherein the driving event classification method comprises the steps of:
제1항에 있어서,
상기 입력된 차량 영상에 대한 모션 정보 추출 및 상기 영상의 그리드 분할 기반의 영역을 설정하는 단계는,
상기 영상 내에 관심영역을 설정하기 위해 영역의 크기를 단계적으로 조절하여 그리드 분할 영역을 설정하는
주행사건 분류 방법.
The method according to claim 1,
Wherein the step of extracting motion information of the input vehicle image and setting an area of the image based on the grid division,
The size of the region is stepwise adjusted to set the region of interest in the image to set the grid partition region
Driving event classification method.
제1항에 있어서,
상기 설정된 영역에 대하여 전역 분류를 위한 관심영역 선별 및 상기 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축하는 단계는,
영역 별 모션 정보에 대한 중요도가 다르게 분포하므로 상기 영역 별 모션 정보의 특징을 활용하기 위해 히스토그램 기반의 관심영역을 선별하는
주행사건 분류 방법.
The method according to claim 1,
Wherein the step of constructing a global motion classification unit based on a motion feature for global classification and a region-of-interest selection for global classification for the set region comprises:
Since the importance of the motion information per area is differently distributed, the histogram-based interest region is selected to utilize the feature of the motion information per region
Driving event classification method.
제3항에 있어서,
상기 관심영역 선별 후 각 영역 내에서 추출된 모션 벡터들의 통계적 파라미터를 추출하여 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축하는
주행사건 분류 방법.
The method of claim 3,
After the region of interest is selected, statistical parameters of the motion vectors extracted in each region are extracted to construct a global motion classification unit based on motion characteristics for global classification
Driving event classification method.
제1항에 있어서,
상기 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축하는 단계는,
미리 설정된 수의 지역 사건에 대한 추출된 특징 벡터를 이용하여 상기 각 영역에 대한 분류를 수행하는
주행사건 분류 방법.
The method according to claim 1,
Wherein the step of constructing the local motion classifier based on the motion feature for local classification includes:
And performs classification on each of the regions using the extracted feature vectors for a predetermined number of local events
Driving event classification method.
주행사건 분류 장치에 있어서,
입력된 차량 영상에 대한 모션 정보를 추출하는 모션 정보 추출부;
상기 영상의 그리드 분할 기반의 영역을 설정하는 영역 설정부;
상기 설정된 영역에 대하여 전역 분류를 위한 관심영역을 선별하고 상기 전역 분류를 수행하는 모션 특징 기반의 전역 모션 분류부;
지역 분류를 위한 전역 모션 필터링을 수행하는 필터링부; 및
상기 지역 분류를 위한 관심영역을 선별하고 상기 지역 분류를 수행하는 모션 특징 기반의 지역 모션 분류부
를 포함하는 주행사건 분류 장치.
A driving event classification apparatus comprising:
A motion information extraction unit for extracting motion information on the input vehicle image;
An area setting unit for setting a grid division based area of the image;
A global motion classification unit based on a motion feature for selecting a region of interest for the global classification and performing the global classification for the set region;
A filtering unit for performing global motion filtering for local classification; And
A motion-feature-based local motion classifier for classifying the region of interest for the regional classification and performing the regional classification;
Wherein the traveling classifier comprises:
KR1020140034507A 2014-03-25 2014-03-25 Method and apparatus for sturdy classification of drive incident based on two step layer KR101393851B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140034507A KR101393851B1 (en) 2014-03-25 2014-03-25 Method and apparatus for sturdy classification of drive incident based on two step layer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140034507A KR101393851B1 (en) 2014-03-25 2014-03-25 Method and apparatus for sturdy classification of drive incident based on two step layer

Publications (1)

Publication Number Publication Date
KR101393851B1 true KR101393851B1 (en) 2014-05-28

Family

ID=50893794

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140034507A KR101393851B1 (en) 2014-03-25 2014-03-25 Method and apparatus for sturdy classification of drive incident based on two step layer

Country Status (1)

Country Link
KR (1) KR101393851B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012084056A (en) * 2010-10-14 2012-04-26 Foundation For The Promotion Of Industrial Science Object detection device
KR20120053108A (en) * 2010-11-17 2012-05-25 (주)소프트코리아 Object detection method for the wild pig surveillance system
KR20120116699A (en) * 2011-04-13 2012-10-23 서강대학교산학협력단 Moving object detecting apparatus and method using clustering
KR20130075802A (en) * 2011-12-28 2013-07-08 대전대학교 산학협력단 Detecting and tracing system of human using gradient histogram and method of the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012084056A (en) * 2010-10-14 2012-04-26 Foundation For The Promotion Of Industrial Science Object detection device
KR20120053108A (en) * 2010-11-17 2012-05-25 (주)소프트코리아 Object detection method for the wild pig surveillance system
KR20120116699A (en) * 2011-04-13 2012-10-23 서강대학교산학협력단 Moving object detecting apparatus and method using clustering
KR20130075802A (en) * 2011-12-28 2013-07-08 대전대학교 산학협력단 Detecting and tracing system of human using gradient histogram and method of the same

Similar Documents

Publication Publication Date Title
Akyon et al. Slicing aided hyper inference and fine-tuning for small object detection
US11928866B2 (en) Neural networks for object detection and characterization
JP7239703B2 (en) Object classification using extraterritorial context
EP3602489B1 (en) Machine-vision method to classify input data based on object components
EP3096292A1 (en) Multi-object tracking with generic object proposals
JP5124592B2 (en) System and method for detecting and tracking a vehicle
US20170344855A1 (en) Method of predicting traffic collisions and system thereof
US9607228B2 (en) Parts based object tracking method and apparatus
US9477892B2 (en) Efficient method of offline training a special-type parked vehicle detector for video-based on-street parking occupancy detection systems
KR102073162B1 (en) Small object detection based on deep learning
WO2017059576A1 (en) Apparatus and method for pedestrian detection
US9836851B2 (en) Apparatus and method for detecting multiple objects using adaptive block partitioning
CN111263954A (en) System and method for detecting moving obstacles based on sensory prediction from self-movement
EP2860661A1 (en) Mean shift tracking method
US20220171975A1 (en) Method for Determining a Semantic Free Space
EP4036792A1 (en) Method and device for classifying pixels of an image
BOURJA et al. Real time vehicle detection, tracking, and inter-vehicle distance estimation based on stereovision and deep learning using YOLOv3
JP7165353B2 (en) Image feature output device, image recognition device, image feature output program, and image recognition program
KR101393851B1 (en) Method and apparatus for sturdy classification of drive incident based on two step layer
JP2021197184A (en) Device and method for training and testing classifier
Shirazi et al. Traffic phase inference using traffic cameras
Zaman et al. Deep Learning Approaches for Vehicle and Pedestrian Detection in Adverse Weather
KR102236792B1 (en) Method and system for learning lane changeable time based on camera and method and system for predicting time lane changeable time
Yu et al. Discovering and visualizing underlying traffic regions from vehicle trajectories with multi-features
Ismail et al. Vehicle Detection, Counting, and Classification System based on Video using Deep learning Models

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170223

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190408

Year of fee payment: 6