KR101393851B1 - Method and apparatus for sturdy classification of drive incident based on two step layer - Google Patents
Method and apparatus for sturdy classification of drive incident based on two step layer Download PDFInfo
- Publication number
- KR101393851B1 KR101393851B1 KR1020140034507A KR20140034507A KR101393851B1 KR 101393851 B1 KR101393851 B1 KR 101393851B1 KR 1020140034507 A KR1020140034507 A KR 1020140034507A KR 20140034507 A KR20140034507 A KR 20140034507A KR 101393851 B1 KR101393851 B1 KR 101393851B1
- Authority
- KR
- South Korea
- Prior art keywords
- classification
- motion
- region
- global
- interest
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Abstract
Description
본 발명은 차량영상 분석 기반의 사건 분류 알고리즘 제시와 관련된 것으로서, 두 단계 레이어 기반의 강건한 주행사건 분류 방법 및 장치에 관한 것이다. The present invention relates to a vehicle image analysis based event classification algorithm, and more particularly, to a two-layer based robust driving event classification method and apparatus.
최근 차량 영상을 이용하여 차량 전방의 보행자 및 차량을 인식하고, 충돌 위험이 존재하는 경우 운전자에게 경고하거나 자동으로 제동 제어나 조향 제어를 수행함으로써 충돌을 회피하는 시스템이 개발되고 있다. 이러한 시스템이 제대로 작동하기 위해서는 차량 전방의 물체가 보행자인지, 아니면 차량인지, 아니면 이외의 다른 물체인지를 빠르고 정확하게 판별하는 것이 선행되어야 한다. 또한, 차량일 경우, 차량의 움직임도 정확하게 판별할 수 있어야 한다. 전방의 물체를 인식하는 방법으로는 현재 사용되고 있는 것은 카메라를 이용하는 방법, 레인지 센서를 이용하는 방법 등이 있다.A system has been developed that recognizes pedestrians and vehicles in front of a vehicle using recent vehicle images and warns a driver when there is a risk of collision or automatically performs braking control or steering control to avoid collision. For such a system to function properly, it must be preceded by a quick and accurate determination of whether the object in front of the vehicle is a pedestrian, a vehicle, or any other object. In addition, in the case of a vehicle, it is necessary to accurately determine the movement of the vehicle. As a method of recognizing a forward object, there are a method using a camera and a method using a range sensor, which are currently being used.
뿐만 아니라, 차량 영상을 이용한 주행사건 분류 장치도 개발되고 있다. 이러한 주행사건 분류 장치는 영상의 영역 기반 모션 분석을 통해 각 영역 내에 분포하는 모션의 통계적 특성들을 반영하고 현재 주행정보를 특정 영역의 지역적 모션들의 분석을 필요로 한다. 또한, 실시간으로 주행과정에서 일어나는 사건 분류를 수행함으로써 모든 분류 과정이 실시간으로 처리가 가능한 주행사건 분류 장치를 필요로 한다.In addition, a driving event classification apparatus using a vehicle image is also being developed. Such a traveling event classifier needs to analyze local motion of a specific area reflecting current statistical characteristics of motion distributed in each area through region-based motion analysis of the image. Also, it requires a traveling event classification device that can process all classification processes in real time by performing event classification that occurs in the traveling process in real time.
본 발명이 이루고자 하는 기술적 과제는 보다 강건한 분류를 위한 분류부를 구축하기 위해 전역, 지역 분류에 해당하는 두 단계 분류 단계를 설정하고 현재 겪고 있는 주행 정보에 대한 전역, 지역적 사건을 독립적으로 분류하여 정보를 제공하기 위한 두 단계 레이어 기반의 강건한 주행사건 분류 방법 및 장치를 제공하는데 있다. In order to construct a classification section for a more robust classification, the present invention sets two classification stages corresponding to a global classification and a regional classification, independently classifies global and local events of the current traveling information, Layer based robust driving event classification method and apparatus.
일 측면에 있어서, 본 발명에서 제안하는 두 단계 레이어 기반의 강건한 주행사건 분류 방법은 입력된 차량 영상에 대한 모션 정보 추출 및 상기 영상의 그리드 분할 기반의 영역을 설정하는 단계, 상기 설정된 영역에 대하여 전역 분류를 위한 관심영역 선별 및 상기 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축하는 단계, 지역 분류를 위한 전역 모션 필터링 및 상기 지역 분류를 위한 관심영역을 선별하는 단계, 상기 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축하는 단계, 상기 전역 분류 및 상기 지역 분류 레이어를 갖는 자동화된 주행사건 분류 결과를 생성하는 단계를 포함할 수 있다. According to an aspect of the present invention, there is provided a robust driving event classification method based on a two-stage layer proposed in the present invention, comprising the steps of: extracting motion information of an input vehicle image and setting an area based on a grid division of the image; Constructing a global motion classification unit based on a motion feature for sorting a region of interest and for global classification, global motion filtering for region classification, selecting a region of interest for the region classification, Constructing a feature-based local motion classifier, and generating an automated driving event classification result having the global classifier and the local classifying layer.
상기 입력된 차량 영상에 대한 모션 정보 추출 및 상기 영상의 그리드 분할 기반의 영역을 설정하는 단계는 상기 영상 내에 관심영역을 설정하기 위해 영역의 크기를 단계적으로 조절하여 그리드 분할 영역을 설정할 수 있다. In the step of extracting motion information of the input vehicle image and setting an area based on the grid division of the image, a grid partition area may be set by adjusting the size of the area in order to set a region of interest in the image.
상기 설정된 영역에 대하여 전역 분류를 위한 관심영역 선별 및 상기 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축하는 단계는 상기 영역 별 모션 정보에 대한 중요도가 다르게 분포하므로 상기 영역 별 모션 정보의 특징을 활용하기 위해 히스토그램 기반의 관심영역을 선별할 수 있다. The step of selecting the region of interest for the global classification and the global motion classification unit based on the motion feature for the global classification for the set region are different in the importance of the motion information for each region, A histogram-based region of interest can be selected for use.
상기 관심영역 선별 후 각 영역 내에서 추출된 모션 벡터들의 통계적 파라미터를 추출하여 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축할 수 있다. The global motion classification unit based on the motion feature for global classification can be constructed by extracting the statistical parameters of the extracted motion vectors in each region after sorting the ROIs.
상기 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축하는 단계는 미리 설정된 수의 지역 사건에 대한 추출된 특징 벡터를 이용하여 상기 각 영역에 대한 분류를 수행할 수 있다.The step of constructing the local motion classifier based on the motion feature for the local classification may classify the regions using the extracted feature vectors for a predetermined number of local events.
또 다른 일 측면에 있어서, 본 발명에서 제안하는 두 단계 레이어 기반의 강건한 주행사건 분류 장치는 입력된 차량 영상에 대한 모션 정보를 추출하는 모션 정보 추출부, 상기 영상의 그리드 분할 기반의 영역을 설정하는 영역 설정부, 상기 설정된 영역에 대하여 전역 분류를 위한 관심영역을 선별하고 상기 전역 분류를 수행하는 모션 특징 기반의 전역 모션 분류부, 지역 분류를 위한 전역 모션 필터링을 수행하는 필터링부, 상기 지역 분류를 위한 관심영역을 선별하고 상기 지역 분류를 수행하는 모션 특징 기반의 지역 모션 분류부를 포함할 수 있다. According to another aspect of the present invention, there is provided a robust driving event classification apparatus based on a two-layer structure proposed in the present invention, including a motion information extraction unit for extracting motion information on an input vehicle image, A global motion classification unit based on a motion feature for selecting a region of interest for the global classification and performing the global classification for the set region, a filtering unit for performing global motion filtering for region classification, And a local motion classifier based on a motion feature for classifying the region of interest and performing the local classification.
본 발명의 실시예들에 따르면 모션 벡터 추정 및 통계적 파라미터 추출을 통하여 영상의 영역 기반의 모션 특징을 추출할 수 있다. 영상의 영역 기반 모션 분석을 통해 각 영역 내에 분포하는 모션의 통계적 특성들을 반영하고 현재 주행정보를 특정 영역의 지역적 모션들의 분석을 기반으로 분류할 수 있다According to embodiments of the present invention, region-based motion characteristics of an image can be extracted through motion vector estimation and statistical parameter extraction. Based on the region-based motion analysis of the image, it is possible to classify the current driving information based on the analysis of the local motions of a specific region, reflecting the statistical characteristics of the motions distributed in each region
도 1은 본 발명의 일 실시예에 따른 두 단계 레이어 기반의 강건한 주행사건 분류 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 그리드 분할의 영상 영역 설정 과정을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 특정 전역 주행사건에 해당하는 모션 텐서 P에서의 각도 히스토그램 누적 값에 대한 의사색채 맵을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 모션 텐서 Wj에서의 전역 모션 필터링 이후 지역 주행사건의 의사색채 맵을 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 두 단계 레이어 기반의 강건한 주행사건 분류 장치의 구성을 나타내는 도면이다.FIG. 1 is a flowchart illustrating a robust driving event classification method based on a two-level layer according to an embodiment of the present invention.
2 is a diagram for explaining a process of setting a video region of a grid split according to an embodiment of the present invention.
3 is a diagram showing a pseudo color map for an accumulated value of an angular histogram in a motion tensor P corresponding to a specific global driving event according to an embodiment of the present invention.
4 is a diagram showing a pseudo color map of a local driving event after global motion filtering in the motion tensor W j according to an embodiment of the present invention.
5 is a diagram illustrating a configuration of a two-layer layer based robust traveling event classification apparatus according to an embodiment of the present invention.
이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
제안하는 두 단계 레이어 기반의 강건한 주행사건 분류 방법 및 장치는 모션 벡터 추정 및 통계적 파라미터 추출을 통하여 영상의 영역 기반의 모션 특징을 추출할 수 있다. 영상의 영역 기반 모션 분석을 통해 각 영역 내에 분포하는 모션의 통계적 특성들을 반영하고 현재 주행정보를 특정 영역의 지역적 모션들의 분석을 기반으로 분류할 수 있다. 또한, 보다 강건한 분류를 위한 분류부를 구축하기 위해 전역, 지역 분류에 해당하는 두 단계 분류 단계를 설정하고 현재 겪고 있는 주행 정보에 대한 전역, 지역적 사건을 독립적으로 분류하여 정보를 제공할 수 있다. 이러한 과정을 통해 주행정보의 세분화와 다발적인 사건에 대해 검출이 가능한 시스템을 구축할 수 있다. 그리고, 모든 분류 과정이 실시간 처리가 가능하도록 함으로써, 실제 주행환경에서 오프라인 분석이 아닌 온라인에서의 실시간 주행정보 도움 서비스를 구축할 수 있다. 분류부를 구축하는 단계에서 데이터 수집 및 가공 가정은 오프라인에서 작동하도록 설계되었으나, 한번 구축된 분류부를 활용하여 실시간으로 주행과정에서 일어나는 사건 분류를 수행할 수 있도록 설계가 가능하다.
The proposed two - layer based robust driving event classification method and apparatus can extract region - based motion features of an image through motion vector estimation and statistical parameter extraction. Based on the region-based motion analysis of the image, it is possible to classify the current driving information based on the analysis of the local motions of the specific region, reflecting the statistical characteristics of the motions distributed in each region. In addition, in order to construct a classification section for more robust classification, a two-step classification step corresponding to global and local classification can be set up, and information on global and local events related to current traveling information can be independently classified and provided. Through this process, it is possible to construct a system capable of detecting the subdivision of driving information and detecting multiple events. By realizing all classification processes in real time, it is possible to construct online real-time driving information assistance service instead of offline analysis in actual driving environment. In the step of constructing the classification part, the data collection and processing assumption is designed to operate offline, but it can be designed to classify the events occurring in the traveling process in real time by using the classification part once constructed.
도 1은 본 발명의 일 실시예에 따른 두 단계 레이어 기반의 강건한 주행사건 분류 방법을 설명하기 위한 흐름도이다. FIG. 1 is a flowchart illustrating a robust driving event classification method based on a two-level layer according to an embodiment of the present invention.
두 단계 레이어 기반의 강건한 주행사건 분류 방법은 입력된 차량 영상에 대한 모션 정보 추출 및 상기 영상의 그리드 분할 기반의 영역을 설정하는 단계(110), 상기 설정된 영역에 대하여 전역 분류를 위한 관심영역 선별 및 상기 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축하는 단계(120), 지역 분류를 위한 전역 모션 필터링 및 상기 지역 분류를 위한 관심영역을 선별하는 단계(130), 상기 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축하는 단계(140), 상기 전역 분류 및 상기 지역 분류 레이어를 갖는 자동화된 주행사건 분류 결과를 생성하는 단계(150)를 포함할 수 있다.
A robust driving event classification method based on a two-stage layer includes a
단계(110)에서, 입력된 차량 영상에 대한 모션 정보 추출 및 상기 영상의 그리드 분할 기반의 영역을 설정할 수 있다. 다시 말해, 영상 내에 관심영역을 설정하기 위해 영역의 크기를 단계적으로 조절하여 그리드 분할 영역을 설정할 수 있다.In
먼저 입력 영상에 대한 모션 정보를 추출할 수 있다. 예를 들어, 두 프레임의 영상이 카메라에 의해 입력되면 모션 정보 추출을 수행할 수 있다. 실시간성이 확보된 모션 정보는 추출을 위해 Horn 등이 개발한 에너지 최소화 기법 기반의 옵티컬 플로우(Optical Flow) 측정 기법이나 루카스(Lucas) 등이 개발한 선형 모델링 기반의 옵티컬 플로우 측정 기법을 사용할 수 있다. 그리고, 각각의 알고리즘으로부터 추정된 모션은 모든 픽셀 위치에 걸쳐 하나의 모션 벡터 값 (u, v)x,y,t으로 저장될 수 있다. 이때 u와 v는 각각 옵티컬 플로우 측정 기법으로 추정된 모션 벡터의 수평, 수직 방향의 크기를 의미하고, 아래 첨자 x, y, t는 t번째 프레임에 해당하는 영상 정보의 (x, y)에 해당하는 픽셀 위치를 의미한다.First, motion information on the input image can be extracted. For example, when an image of two frames is inputted by the camera, motion information extraction can be performed. In order to extract real-time motion information, optical flow measurement technique based on energy minimization technique developed by Horn et al. Or linear modeling based optical flow measurement technique developed by Lucas et al can be used . And motion estimated from each algorithm can be stored as one motion vector value (u, v) x, y, t over all pixel positions. In this case, u and v are the horizontal and vertical sizes of the motion vector estimated by the optical flow measurement technique, respectively, and the subscripts x, y, and t correspond to (x, y) ≪ / RTI >
다음으로, 상기 영상의 그리드 분할 기반의 영역을 설정할 수 있다. 주행사건 분류를 위한 초기 단계로 그리드 분할 기반의 영상 영역을 설정할 수 있다. 예를 들어, 주행사건 분류를 위한 영상 내에 관심 영역 여부를 설정하기 위해 영역의 크기를 단계적으로 조절하여 그리드 분할 영역의 수를 s만큼 가질 수 있다. 그리고, 분할 영역의 크기에 따라 총 g만큼의 영역 스케일을 가질 수 있다. 도 2를 참조하여 더욱 상세히 설명한다.
Next, the grid-division-based region of the image can be set. As an initial step for classification of driving events, it is possible to set the image area based on the grid division. For example, the size of the region may be stepwise adjusted to set the number of grid partition regions by s in order to set whether or not a region of interest is within the image for classification of a driving event. And, it can have an area scale of a total g according to the size of the divided area. Will be described in more detail with reference to FIG.
도 2는 본 발명의 일 실시예에 따른 그리드 분할의 영상 영역 설정 과정을 설명하기 위한 도면이다. 2 is a diagram for explaining a process of setting a video region of a grid split according to an embodiment of the present invention.
도 2와 같이, 주행사건 분류를 위한 영상 내에 관심 영역 여부를 설정하기 위해 영역의 크기를 단계적으로 조절하여 그리드 분할 영역의 수를 설정할 수 있다. 도 2를 참조하면, 도 2(a)의 분할 그리드 영역의 수는 25개이고, 도 2(b)의 분할 그리드 영역의 수는 100개이고, 도 2(c)의 분할 그리드 영역의 수는 400개이다. 예를 들어, 이때 총 영역 스케일 g는 3이다.
As shown in FIG. 2, the number of the grid partition areas can be set by gradually adjusting the size of the area in order to set whether or not the area of interest is within the image for the travel event classification. 2, the number of divided grid areas in FIG. 2 (a) is 25, the number of divided grid areas in FIG. 2 (b) is 100, and the number of divided grid areas in FIG. . For example, the total area scale g is 3 at this time.
단계(120)에서, 상기 설정된 영역에 대하여 전역 분류를 위한 관심영역 선별 및 상기 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축할 수 있다. In
먼저, 히스토그램 기반의 관심영역을 선별할 수 있다. 주행정보의 부류에 따라 특정 부류가 나타내는 모션의 영역 정보에 대한 중요도가 다르게 분포할 수 있다. 이러한 특징을 활용하기 위해 히스토그램 기반의 관심 영역 선별을 수행할 수 있다. 예를 들어, 총 n개의 전역 주행사건을 갖는 사건공간에서 특정한 부류의 전역 사건이 일어난 k프레임의 시간 간격을 갖는 h x w x k 크기의 모션 텐서 W를 추출하였다고 가정한다. 이때 각 전역 사건에 따라 W1, W2, ..., Wn 총 n개의 모션 텐서를 추출할 수 있다. 이때 수직 방향과 수평 방향의 모션 벡터에 대한 데카르트 좌표 상에 존재하는 i번째 모션 텐서 Wi에 대하여 각도와 크기를 갖는 극좌표 텐서 Pi에 대한 좌표 변환 Wi → Pi이 존재할 수 있다. 이러한 극좌표 상의 모션 텐서 Pi에 대해 s개의 영역에서 모션 벡터의 각도 θ값을 기준으로 총 4개의 빈을 갖는 히스토그램 h를 생성할 수 있다. 이때 i번째 영역에서의 히스토그램 h는 수학식1과 같이 정의될 수 있다.
First, the histogram-based region of interest can be selected. Depending on the type of travel information, the importance of the region information of the motion indicated by the specific class may be distributed differently. To take advantage of these features, we can perform histogram-based region-of-interest screening. For example, it is assumed that a motion tensor W of hxwxk size having a time interval of k frames in which a global event of a specific class occurs in an event space having a total of n global driving events is extracted. At this time, a total of n motion tensors W 1 , W 2 , ..., W n can be extracted according to each global event. At this time, there may be a coordinate transformation W i ? P i for the polar coordinate tensor P i having an angle and a magnitude with respect to the i-th motion tensor W i existing on the Cartesian coordinate for the vertical and horizontal motion vectors. A histogram h having a total of four bins can be generated based on the angle &thetas; value of the motion vector in s regions with respect to the motion tensor P i on this polar coordinate. At this time, the histogram h in the i-th region can be defined as Equation (1).
수학식1
Equation 1
모든 주행사건 부류에 대한 최대 히스토그램 누적값이 특정 임계값 k이상인 경우, 다시 말해 max h > k 기준을 바탕으로 분할 영역 내의 관심 영역을 추출할 수 있다. 도 3을 참조하여 더욱 상세히 설명한다.
If the maximum histogram accumulation value for all driving event classes is above a certain threshold value k, that is, the interest area within the partition area can be extracted based on the max h> k criterion. Will be described in more detail with reference to FIG.
도 3은 본 발명의 일 실시예에 따른 특정 전역 주행사건에 해당하는 모션 텐서 P에서의 각도 히스토그램 누적 값에 대한 의사색채 맵을 나타내는 도면이다.3 is a diagram showing a pseudo color map for an accumulated value of an angular histogram in a motion tensor P corresponding to a specific global driving event according to an embodiment of the present invention.
영역 별 모션 정보에 대한 중요도가 다르게 분포하므로 영역 별 모션 정보의 특징을 활용하기 위해 히스토그램 기반의 관심영역을 선별할 수 있다. 예를 들어, 도 3(a)는 직진을 나타내는 각도 히스토그램 누적값에 대한 의사색채 맵을 나타내고, 도 3(b)는 우회전을 나타내는 각도 히스토그램 누적값에 대한 의사색채 맵을 나타낸다. 그리고, 도 3(c)는 좌회전을 나타내는 각도 히스토그램 누적값에 대한 의사색채 맵을 나타내고, 도 3(d)는 감속을 나타내는 각도 히스토그램 누적값에 대한 의사색채 맵을 나타낸다.
Since the importance of the motion information per domain is different, the histogram-based region of interest can be selected to utilize the feature of motion information per region. For example, FIG. 3 (a) shows a pseudo color map for the accumulated value of the angle histogram indicating the straight ahead, and FIG. 3 (b) shows the pseudo color map for the accumulated value of the angle histogram showing the right turn. Fig. 3 (c) shows a pseudo color map for the accumulated value of the angle histogram indicating the left turn, and Fig. 3 (d) shows the pseudo color map for the accumulated value of the angular histogram showing the deceleration.
다음으로, 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축할 수 있다. 다시 말해, 상기 관심영역 선별 후 각 영역 내에서 추출된 모션 벡터들의 통계적 파라미터를 추출하여 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축할 수 있다. 관심영역 선별 후 각 영역 내에서 추출된 모션 벡터들의 세트 u와 v에 대해서 통계적 파라미터를 추출할 수 있다. u와 v에서 얻어지는 통계적 파라미터는 총 12가지 원소를 갖게 되고, 최종 추출된 특징 벡터 x = [x1, x2, ..., x12]T는 다음과 같이 정의할 수 있다.
Next, a global motion classification unit based on motion characteristics for global classification can be constructed. In other words, the global motion classification unit based on motion characteristics for global classification can be constructed by extracting the statistical parameters of the extracted motion vectors in each region after sorting the ROIs. After selecting the region of interest, statistical parameters can be extracted for the set of extracted motion vectors u and v in each region. The statistical parameters obtained from u and v have a total of 12 elements, and the final extracted feature vector x = [x 1 , x 2 , ..., x 12 ] T can be defined as follows.
예를 들어, n개의 전역 사건에 대해서 최종적으로 추출된 특징 벡터 x를 활용하여 SVM(Support Vector Machine) 분류부를 통해 수학식2를 이용하여 각 영역에 대한 n-부류 분류를 수행할 수 있다.
For example, n-class classification for each region can be performed using Equation (2) through SVM (Support Vector Machine) classification unit using the finally extracted feature vector x for n global events.
수학식2
Equation 2
y는 y ∈ {0, 1, ..., n} 값을 갖는 부류 변수이며, K는 커널 함수, λ는 정규화 매개변수로 라그랑지 승수 α를 최대화하는 듀얼 형태의 최적화 문제로 연산할 수 있다. 최소 크기의 분할 영역 중 i번째 관심영역 ri은 g개의 스케일 영역에서 하나의 부류 벡터 ri = [r1, r2, ..., rg]를 추출할 수 있다. 그리고, 각 ri는 1부터 n사이의 분류 변수값을 가질 수 있다. R을 각 ri를 행으로 갖는 전체 관심영역에 대한 부류 정보를 담고 있는 행렬로 정의할 때, R로부터 각 분류 결과의 누적 벡터 c = {c1, c2, ..., cg}를 얻을 수 있다. i번째 관심영역 ri에 대한 결정 분류 값은 으로 정의되며 최대값 cmax에 대한 정규화 값을 그 영역의 가중치 값으로 할당할 수 있다. 최종적으로 전역 주행사건에 대한 분류는 각 영역에서 분류 결과에 대한 수학식3을 만족하는 형태로 얻을 수 있다.
y is a class variable with y ∈ {0, 1, ..., n}, K is a kernel function, and λ is a dual-type optimization problem that maximizes the Lagrangian multiplier α with normalization parameters . We can extract one class vector ri = [r 1 , r 2 , ..., r g ] in the g scale regions of the i-th interested region r i among the smallest size region. And, each r i can have a classification variable value between 1 and n. Let R be the matrix containing the class information for the whole region of interest with each r i as a row. Let R denote the cumulative vector c = {c 1 , c 2 , ..., c g } Can be obtained. The decision classification value for the ith region of interest r i is And the normalization value for the maximum value c max can be assigned as the weight value of the area. Finally, the classification of global driving events can be obtained in a form satisfying Equation (3) for classification results in each region.
수학식3
Equation 3
는 최소 크기의 영역 내 관심영역의 총 개수이다. 모든 부류에서 얻어진 정규화된 가중치 부류의 누적값을 최대화하는 형태로 현재 분류를 위한 전역 주행사건을 선택할 수 있다.
Is the total number of regions of interest within the minimum size region. The global driving event for the current classification can be selected in such a manner as to maximize the cumulative value of the normalized weight class obtained from all classes.
단계(130)에서, 지역 분류를 위한 전역 모션 필터링 및 상기 지역 분류를 위한 관심영역을 선별할 수 있다. 강건한 지역 주행사건 분류를 위해 전역 모션 필터링 수행할 수 있다. 그리고, 이를 위해 각 전역 주행사건에 대한 통계적 모션 모델을 구축할 수 있다. 총 n개의 전역 주행사건 중 j번째 전역 주행사건으로부터 얻어진 모션 텐서 Wj로부터 i번째 영역에서의 평균 모션 벡터를 수학식4와 같이 정의할 수 있다.
In
수학식4
Equation 4
전역 분류부로부터 j번째 부류로 현재 주행사건이 분류된 경우 모든 영역에서 음의 방향의 평균 모션을 더해줌으로써 수학식5와 같이 수행될 수 있다.
If the current driving event is classified from the global classification unit to the jth class, the average motion in the negative direction may be added to all the regions to perform Equation (5).
수학식5
Equation 5
전역 모션 필터링 이후 얻어진 모션 텐서 에 대하여 전역 주행사건에 대한 관심영역 추출과 같은 방법으로 누적 히스토그램 을 생성할 수 있다. 전역 주행사건의 경우와 같이 기준을 바탕으로 지역 주행사건의 관심 영역을 추출할 수 있다. 도 4를 참조하여 더욱 상세히 설명한다.
Motion tensor obtained after global motion filtering In the same way as the extraction of the region of interest for the global driving event, the cumulative histogram Can be generated. As in the case of the global driving case Based on the criteria, it is possible to extract the area of interest of the local driving event. This will be described in more detail with reference to FIG.
도 4는 본 발명의 일 실시예에 따른 모션 텐서 Wj에서의 전역 모션 필터링 이후 지역 주행사건의 의사색채 맵을 나타내는 도면이다.4 is a diagram showing a pseudo color map of a local driving event after global motion filtering in the motion tensor W j according to an embodiment of the present invention.
도 4를 참조하면, 특정 전역 주행사건에 해당하는 모션 텐서 Wj에 대하여 전역 모션 필터링을 수행한 뒤 얻어진 모션 텐서 에 대한 지역 주행사건의 의사색채 맵을 나타내었다. 도 4(a)는 우측 차선변경을 나타내는 지역 주행사건의 의사색채 맵을 나타내는 도면이고, 도 4(b)는 좌측 차선변경을 나타내는 지역 주행사건의 의사색채 맵을 나타내는 도면이다. 그리고, 도 4(c)는 우측 끼어듦을 나타내는 지역 주행사건의 의사색채 맵을 나타내는 도면이고, 도 4(d)는 좌측 끼어듦을 나타내는 지역 주행사건의 의사색채 맵을 나타내는 도면이다. 그리고, 도 4(e)는 전방차량 우측 차선변경을 나타내는 지역 주행사건의 의사색채 맵을 나타내는 도면이고, 도 4(f)는 전방차량 좌측 차선변경을 나타내는 지역 주행사건의 의사색채 맵을 나타내는 도면이다.
4, global motion filtering is performed on a motion tensor W j corresponding to a specific global driving event, and a motion tensor The results of this study are as follows. FIG. 4A is a diagram showing a pseudo color map of a local driving event showing a right lane change, and FIG. 4B is a diagram showing a pseudo color map of a local driving event showing a left lane change. FIG. 4 (c) is a diagram showing a pseudo color map of a local driving event indicating a right pincushion, and FIG. 4 (d) is a diagram showing a pseudo color map of a local driving event indicating a left pincushion. Fig. 4 (e) is a diagram showing a pseudo color map of a local driving event showing a right lane change of the front vehicle, and Fig. 4 (f) to be.
단계(140)에서, 상기 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축할 수 있다. 이때, 미리 설정된 수의 지역 사건에 대한 추출된 특징 벡터를 이용하여 상기 각 영역에 대한 분류를 수행할 수 있다. In
예를 들어, 미리 정의된 m개의 지역 사건에 대해서 추출된 특징 벡터 x를 활용하여 SVM(Support Vector Machine) 분류부기반의 각 영역에 대한 n-부류 분류를 수학식6을 이용하여 수행할 수 있다.
For example, n-class classification for each region based on the SVM (Support Vector Machine) classifier can be performed using Equation 6 using the extracted feature vector x for m local events that are defined in advance .
수학식6
Equation 6
y는 y ∈ {0, 1, ..., m}값을 갖는 부류 변수이며, K는 커널 함수, λ는 정규화 매개변수로 라그랑지 승수 σ를 최대화하는 듀얼 형태의 최적화 문제로 연산할 수 있다. 최소 크기의 분할 영역 중 i번째 관심영역 ri은 g개의 스케일 영역에서 하나의 부류 벡터 ri = [r1, r2, ..., rg]T를 추출하게 되며, 각 ri는 1부터 m사이의 분류 변수값을 가질 수 있다. R을 각 ri를 행으로 갖는 전체 관심영역에 대한 부류 정보를 담고 있는 행렬로 정의할 때, R로부터 각 분류 결과의 누적 벡터 c = {c1, c2, ..., cg}를 얻을 수 있다. i번째 관심영역 ri에 대한 결정 분류 값은 으로 정의되며 최대값 cmax에 대한 정규화 값을 그 영역의 가중치 값으로 할당할 수 있다. 최종적으로 지역 주행사건에 대한 분류는 각 영역에서 분류 결과에 대한 다음 수식을 만족하는 형태로 수학식7과 같이 나타낼 수 있다.
y is a class variable with y ∈ {0, 1, ..., m}, K can be computed as a kernel function, and λ can be computed as a dual-form optimization problem that maximizes the Lagrangian multiplier σ as a normalization parameter . And to extract one of the class of the i-th region of interest of the smallest partition r i is in the g region of the scale vector ri = [r 1, r 2 , ..., r g] T, each r i is from 1 m. < / RTI > Let R be the matrix containing the class information for the whole region of interest with each r i as a row. Let R denote the cumulative vector c = {c 1 , c 2 , ..., c g } Can be obtained. The decision classification value for the ith region of interest r i is And the normalization value for the maximum value c max can be assigned as the weight value of the area. Finally, the classification of local driving events can be expressed as Equation (7) in the form of satisfying the following formula for classification results in each area.
수학식7
Equation 7
는 최소 크기의 영역 내 관심영역의 총 개수이다. 모든 부류에서 얻어진 정규화된 가중치 부류의 누적값을 최대화하는 형태로 현재 분류를 위한 지역 주행사건을 선택할 수 있다.
Is the total number of regions of interest within the minimum size region. A local driving event for the current classification can be selected in a form maximizing the cumulative value of the normalized weight class obtained from all classes.
단계(150)에서, 상기 전역 분류 및 상기 지역 분류 레이어를 갖는 자동화된 주행사건 분류 결과를 생성할 수 있다. 전역 분류와 지역 분류 단계를 모두 거친 후 두 단계 레이어를 갖는 자동화된 주행사건 분류 결과를 생성할 수 있다. 미리 정의된 n개의 전역 주행사건과 m개의 지역 주행사건을 바탕으로 총 n x m개 사건에 대한 다부류 분류를 수행할 수 있다.
In
도 5는 본 발명의 일 실시예에 따른 두 단계 레이어 기반의 강건한 주행사건 분류 장치의 구성을 나타내는 도면이다. 5 is a diagram illustrating a configuration of a two-layer layer based robust traveling event classification apparatus according to an embodiment of the present invention.
두 단계 레이어 기반의 강건한 주행사건 분류 장치는 모션 정보 추출부(510), 영역 설정부(520), 모션 분류부(530), 필터링부(540), 모션 분류부(550)를 포함할 수 있다. The robust running event classification apparatus based on the two-stage layer may include a motion
모션 정보 추출부(510)는 입력된 차량 영상에 대한 모션 정보를 추출할 수 있다. 예를 들어, 두 프레임의 영상이 카메라에 의해 입력되면 모션 정보 추출을 수행할 수 있다. 실시간성이 확보된 모션 정보는 추출을 위해 Horn 등이 개발한 에너지 최소화 기법 기반의 옵티컬 플로우(Optical Flow) 측정 기법이나 루카스(Lucas) 등이 개발한 선형 모델링 기반의 옵티컬 플로우 측정 기법을 사용할 수 있다.The motion
영역 설정부(520)는 영상의 그리드 분할 기반의 영역을 설정할 수 있다. The
주행사건 분류를 위한 초기 단계로 그리드 분할 기반의 영상 영역을 설정할 수 있다. 예를 들어, 주행사건 분류를 위한 영상 내에 관심 영역 여부를 설정하기 위해 영역의 크기를 단계적으로 조절하여 그리드 분할 영역의 수를 s만큼 가질 수 있다. 그리고, 분할 영역의 크기에 따라 총 g만큼의 영역 스케일을 가질 수 있다.As an initial step for classification of driving events, it is possible to set the image area based on the grid division. For example, the size of the region may be stepwise adjusted to set the number of grid partition regions by s in order to set whether or not a region of interest is within the image for classification of a driving event. And, it can have an area scale of a total g according to the size of the divided area.
전역 모션 분류부(530)는 상기 설정된 영역에 대하여 전역 분류를 위한 관심영역을 선별하고 상기 전역 분류를 수행하는 모션 특징 기반의 전역 모션 분류부이다. 주행정보의 부류에 따라 특정 부류가 나타내는 모션의 영역 정보에 대한 중요도가 다르게 분포할 수 있다. 이러한 특징을 활용하기 위해 히스토그램 기반의 관심 영역 선별을 수행할 수 있다. 그리고, 관심영역 선별 후 각 영역 내에서 추출된 모션 벡터들의 통계적 파라미터를 추출하여 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축할 수 있다. 그리고, 전역 분류와 지역 분류 단계를 모두 거친 후 자동화된 주행사건 분류 결과를 생성할 수 있다.The global motion classifier 530 is a global motion classifier based on a motion feature that selects a region of interest for global classification and performs the global classification on the set region. Depending on the type of travel information, the importance of the region information of the motion indicated by the specific class may be distributed differently. To take advantage of these features, we can perform histogram-based region-of-interest screening. Then, the global motion classification unit based on the motion feature for global classification can be constructed by extracting the statistical parameters of the extracted motion vectors in each region after selecting the region of interest. It is also possible to generate automated driving event classification results after passing both the global classification and the regional classification step.
필터링부(540) 지역 분류를 위한 전역 모션 필터링을 수행할 수 있다. 다시 말해, 강건한 지역 주행사건 분류를 위해 전역 모션 필터링 수행할 수 있다. 그리고, 이를 위해 각 전역 주행사건에 대한 통계적 모션 모델을 구축할 수 있다.The filtering unit 540 may perform global motion filtering for local classification. In other words, global motion filtering can be performed for robust local driving event classification. To do this, a statistical motion model for each global driving event can be constructed.
지역 모션 분류부(550)는 상기 지역 분류를 위한 관심영역을 선별하고 상기 지역 분류를 수행하는 모션 특징 기반의 지역 모션 분류부이다. 다시 말해, 지역 모션 분류부(550)는 지역 분류를 위한 관심영역을 선별하고, 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축할 수 있다. 이때, 미리 설정된 수의 지역 사건에 대한 추출된 특징 벡터를 이용하여 상기 각 영역에 대한 분류를 수행할 수 있다. 그리고, 전역 분류와 지역 분류 단계를 모두 거친 후 자동화된 주행사건 분류 결과를 생성할 수 있다.
The local motion classifying unit 550 is a local motion classifying unit based on a motion feature that selects a region of interest for the region classifying and performs the region classifying. In other words, the local motion classifier 550 can select a region of interest for local classification and construct a local motion classifier based on motion characteristics for local classification. At this time, classification for each region can be performed using the extracted feature vectors for a predetermined number of local events. It is also possible to generate automated driving event classification results after passing both the global classification and the regional classification step.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (6)
입력된 차량 영상에 대한 모션 정보 추출 및 상기 영상의 그리드 분할 기반의 영역을 설정하는 단계;
상기 설정된 영역에 대하여 전역 분류를 위한 관심영역 선별 및 상기 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축하는 단계;
지역 분류를 위한 전역 모션 필터링 및 상기 지역 분류를 위한 관심영역을 선별하는 단계;
상기 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축하는 단계; 및
상기 전역 분류 및 지역 분류 레이어를 갖는 자동화된 주행사건 분류 결과를 생성하는 단계
를 포함하는 주행사건 분류 방법.In a driving event classification method,
Extracting motion information of the input vehicle image and setting an area based on the grid division of the image;
Constructing a global motion classification unit based on a motion feature for global classification and a region of interest for global classification for the set region;
Global motion filtering for local classification and selection of a region of interest for the regional classification;
Constructing a local motion classifier based on a motion feature for the regional classification; And
Generating an automated driving event classification result having the global classification and the regional classification layer
Wherein the driving event classification method comprises the steps of:
상기 입력된 차량 영상에 대한 모션 정보 추출 및 상기 영상의 그리드 분할 기반의 영역을 설정하는 단계는,
상기 영상 내에 관심영역을 설정하기 위해 영역의 크기를 단계적으로 조절하여 그리드 분할 영역을 설정하는
주행사건 분류 방법. The method according to claim 1,
Wherein the step of extracting motion information of the input vehicle image and setting an area of the image based on the grid division,
The size of the region is stepwise adjusted to set the region of interest in the image to set the grid partition region
Driving event classification method.
상기 설정된 영역에 대하여 전역 분류를 위한 관심영역 선별 및 상기 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축하는 단계는,
영역 별 모션 정보에 대한 중요도가 다르게 분포하므로 상기 영역 별 모션 정보의 특징을 활용하기 위해 히스토그램 기반의 관심영역을 선별하는
주행사건 분류 방법. The method according to claim 1,
Wherein the step of constructing a global motion classification unit based on a motion feature for global classification and a region-of-interest selection for global classification for the set region comprises:
Since the importance of the motion information per area is differently distributed, the histogram-based interest region is selected to utilize the feature of the motion information per region
Driving event classification method.
상기 관심영역 선별 후 각 영역 내에서 추출된 모션 벡터들의 통계적 파라미터를 추출하여 전역 분류를 위한 모션 특징 기반의 전역 모션 분류부를 구축하는
주행사건 분류 방법.The method of claim 3,
After the region of interest is selected, statistical parameters of the motion vectors extracted in each region are extracted to construct a global motion classification unit based on motion characteristics for global classification
Driving event classification method.
상기 지역 분류를 위한 모션 특징 기반의 지역 모션 분류부를 구축하는 단계는,
미리 설정된 수의 지역 사건에 대한 추출된 특징 벡터를 이용하여 상기 각 영역에 대한 분류를 수행하는
주행사건 분류 방법.The method according to claim 1,
Wherein the step of constructing the local motion classifier based on the motion feature for local classification includes:
And performs classification on each of the regions using the extracted feature vectors for a predetermined number of local events
Driving event classification method.
입력된 차량 영상에 대한 모션 정보를 추출하는 모션 정보 추출부;
상기 영상의 그리드 분할 기반의 영역을 설정하는 영역 설정부;
상기 설정된 영역에 대하여 전역 분류를 위한 관심영역을 선별하고 상기 전역 분류를 수행하는 모션 특징 기반의 전역 모션 분류부;
지역 분류를 위한 전역 모션 필터링을 수행하는 필터링부; 및
상기 지역 분류를 위한 관심영역을 선별하고 상기 지역 분류를 수행하는 모션 특징 기반의 지역 모션 분류부
를 포함하는 주행사건 분류 장치.A driving event classification apparatus comprising:
A motion information extraction unit for extracting motion information on the input vehicle image;
An area setting unit for setting a grid division based area of the image;
A global motion classification unit based on a motion feature for selecting a region of interest for the global classification and performing the global classification for the set region;
A filtering unit for performing global motion filtering for local classification; And
A motion-feature-based local motion classifier for classifying the region of interest for the regional classification and performing the regional classification;
Wherein the traveling classifier comprises:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140034507A KR101393851B1 (en) | 2014-03-25 | 2014-03-25 | Method and apparatus for sturdy classification of drive incident based on two step layer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140034507A KR101393851B1 (en) | 2014-03-25 | 2014-03-25 | Method and apparatus for sturdy classification of drive incident based on two step layer |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101393851B1 true KR101393851B1 (en) | 2014-05-28 |
Family
ID=50893794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140034507A KR101393851B1 (en) | 2014-03-25 | 2014-03-25 | Method and apparatus for sturdy classification of drive incident based on two step layer |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101393851B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012084056A (en) * | 2010-10-14 | 2012-04-26 | Foundation For The Promotion Of Industrial Science | Object detection device |
KR20120053108A (en) * | 2010-11-17 | 2012-05-25 | (주)소프트코리아 | Object detection method for the wild pig surveillance system |
KR20120116699A (en) * | 2011-04-13 | 2012-10-23 | 서강대학교산학협력단 | Moving object detecting apparatus and method using clustering |
KR20130075802A (en) * | 2011-12-28 | 2013-07-08 | 대전대학교 산학협력단 | Detecting and tracing system of human using gradient histogram and method of the same |
-
2014
- 2014-03-25 KR KR1020140034507A patent/KR101393851B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012084056A (en) * | 2010-10-14 | 2012-04-26 | Foundation For The Promotion Of Industrial Science | Object detection device |
KR20120053108A (en) * | 2010-11-17 | 2012-05-25 | (주)소프트코리아 | Object detection method for the wild pig surveillance system |
KR20120116699A (en) * | 2011-04-13 | 2012-10-23 | 서강대학교산학협력단 | Moving object detecting apparatus and method using clustering |
KR20130075802A (en) * | 2011-12-28 | 2013-07-08 | 대전대학교 산학협력단 | Detecting and tracing system of human using gradient histogram and method of the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Akyon et al. | Slicing aided hyper inference and fine-tuning for small object detection | |
US11928866B2 (en) | Neural networks for object detection and characterization | |
JP7239703B2 (en) | Object classification using extraterritorial context | |
EP3602489B1 (en) | Machine-vision method to classify input data based on object components | |
EP3096292A1 (en) | Multi-object tracking with generic object proposals | |
JP5124592B2 (en) | System and method for detecting and tracking a vehicle | |
US20170344855A1 (en) | Method of predicting traffic collisions and system thereof | |
US9607228B2 (en) | Parts based object tracking method and apparatus | |
US9477892B2 (en) | Efficient method of offline training a special-type parked vehicle detector for video-based on-street parking occupancy detection systems | |
KR102073162B1 (en) | Small object detection based on deep learning | |
WO2017059576A1 (en) | Apparatus and method for pedestrian detection | |
US9836851B2 (en) | Apparatus and method for detecting multiple objects using adaptive block partitioning | |
CN111263954A (en) | System and method for detecting moving obstacles based on sensory prediction from self-movement | |
EP2860661A1 (en) | Mean shift tracking method | |
US20220171975A1 (en) | Method for Determining a Semantic Free Space | |
EP4036792A1 (en) | Method and device for classifying pixels of an image | |
BOURJA et al. | Real time vehicle detection, tracking, and inter-vehicle distance estimation based on stereovision and deep learning using YOLOv3 | |
JP7165353B2 (en) | Image feature output device, image recognition device, image feature output program, and image recognition program | |
KR101393851B1 (en) | Method and apparatus for sturdy classification of drive incident based on two step layer | |
JP2021197184A (en) | Device and method for training and testing classifier | |
Shirazi et al. | Traffic phase inference using traffic cameras | |
Zaman et al. | Deep Learning Approaches for Vehicle and Pedestrian Detection in Adverse Weather | |
KR102236792B1 (en) | Method and system for learning lane changeable time based on camera and method and system for predicting time lane changeable time | |
Yu et al. | Discovering and visualizing underlying traffic regions from vehicle trajectories with multi-features | |
Ismail et al. | Vehicle Detection, Counting, and Classification System based on Video using Deep learning Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170223 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180406 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190408 Year of fee payment: 6 |