KR101468861B1 - Active attentional sampling method for accelerating foreground detection from video, and computer-readable recording medium for the same - Google Patents
Active attentional sampling method for accelerating foreground detection from video, and computer-readable recording medium for the same Download PDFInfo
- Publication number
- KR101468861B1 KR101468861B1 KR1020130039436A KR20130039436A KR101468861B1 KR 101468861 B1 KR101468861 B1 KR 101468861B1 KR 1020130039436 A KR1020130039436 A KR 1020130039436A KR 20130039436 A KR20130039436 A KR 20130039436A KR 101468861 B1 KR101468861 B1 KR 101468861B1
- Authority
- KR
- South Korea
- Prior art keywords
- sampling
- foreground
- pixel
- detection
- mask
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 입력 영상으로부터 배경을 제거하고 전경을 탐지하기 위해 픽셀 단위로 연산을 수행하는 전경탐지 알고리즘에 대해서 입력 영상의 시간적 특성, 공간적 특성, 주파수 특성에 따라 전경 확률지도와 샘플링 마스크를 적용함으로써 전경탐지 속도를 향상시킬 수 있는 능동적 집중 샘플링 기술에 관한 것이다. 본 발명에 따르면 입력 영상에 대해 능동적인 집중 샘플링 마스크를 생성함으로써 해당 프레임에 대해 샘플링 마스크에 해당하는 부분만 프로세싱하면 전경탐지가 달성되므로 전경탐지 속도가 크게 향상된다. 즉, 픽셀 단위로 수행되는 기존의 전경탐지 방법과 비교할 때 별다른 탐지성능을 저하시키지 않고서도 약 6.6배 처리속도를 향상시킬 수 있고, 그에 따라 풀HD 영상에 대해서도 실시간으로 전경 탐지가 가능한 장점이 있다.The present invention applies a foreground probability map and a sampling mask according to temporal characteristics, spatial characteristics, and frequency characteristics of an input image to a foreground detection algorithm that performs operations on a pixel-by-pixel basis to remove a background from an input image, To an active focused sampling technique capable of improving detection speed. According to the present invention, when an active focused sampling mask is generated for an input image, only the portion corresponding to the sampling mask is processed for the corresponding frame, so that foreground detection is achieved, and the foreground detection speed is greatly improved. In other words, compared with the conventional foreground detection method performed on a pixel-by-pixel basis, the processing speed can be improved to about 6.6 times without deteriorating the detection performance, and the full-HD image can be detected in real time .
Description
본 발명은 입력 영상으로부터 전경탐지 속도를 향상시키기 위한 능동적 집중 샘플링 방법에 관한 것이다. 더욱 상세하게는 본 발명은 입력 영상으로부터 배경을 제거하고 전경을 탐지하기 위해 픽셀 단위로 연산을 수행하는 전경탐지 알고리즘에 대해서 입력 영상의 시간적 특성, 공간적 특성, 주파수 특성에 따라 전경 확률지도와 샘플링 마스크를 적용함으로써 전경탐지 속도를 향상시킬 수 있는 능동적 집중 샘플링 기술에 관한 것이다.
The present invention relates to an active focused sampling method for improving the foreground detection rate from an input image. More particularly, the present invention relates to a foreground detection algorithm for performing foreground detection on a pixel-by-pixel basis in order to remove a background from an input image and to detect a foreground, and a foreground probability map and a sampling mask To an active focused sampling technique that can improve the foreground detection rate.
전경탐지 알고리즘은 입력 영상에서 배경 부분이 아닌 실제 움직이는 부분을 분리해내는 프로세스이다. 컴퓨터 비전 기술이 발달함에 따라 전경탐지 알고리즘은 높은 단계의 복잡한 알고리즘을 위한 전처리 과정으로 인식되어 매우 빠르게 처리되길 요구되고 있다. 또한, 영상 크기가 점점 커지는 추세로 인해 연산 속도를 높이는 문제는 점점 중요해지고 있다.The foreground detection algorithm is the process of separating the actual moving parts from the input image, not the background parts. As computer vision technology develops, foreground detection algorithms are recognized as preprocessing steps for high - level complex algorithms and are required to be processed very quickly. In addition, the problem of increasing the operation speed due to the tendency of the image size to become larger is becoming increasingly important.
최근의 픽셀 단위의 확률 모델 기반의 전경탐지 기술이 양호한 성능을 보임에 따라 많은 관심을 받고 있다. 이러한 기술은 다양한 영상 상황에서 훌륭한 탐지 성능을 보이고 있지만, 연산량이 많기 때문에 계산 시간이 너무 오래 걸리기에 실시간 적용이 곤란하다는 문제점이 있다.Recently, the foreground detection technique based on the probability model based on the pixel has been attracting much attention because of its good performance. Although these techniques show good detection performance in various image situations, there is a problem that it is difficult to apply in real time because calculation time is too long because of a large amount of computation.
그에 따라 전경탐지 알고리즘의 연산 속도를 높이기 위한 다양한 연구가 아래와 같이 종래로부터 있어왔다.Accordingly, various researches for increasing the computation speed of the foreground detection algorithm have been made as follows.
첫번째 접근 방법은 알고리즘을 최적화하는 것이다. 혼합 가우시안 모델(GMM)은 다양한 영상 환경에서 전경을 잘 탐지하지만 학습률이 느리고 매 프레임마다 많은 연산을 필요로 한다. 이에, D.-S. Lee. "Effective Gaussian mixture learning for video background subtraction," TPAMI, 2005는 두가지 학습 방법 사이를 점진적으로 바꿔가는 학습 스케쥴 방법을 이용하여 학습 모델의 수렴을 빠르게 하였다. Z. Zivkovic and F. van der Heijden. "Efficient adaptive density estimation per image pixel for the task of background subtraction," Patten Recognition Letters, 2006은 영상에 맞춰 각 픽셀이 요구하는 가우시안 모드의 개수를 베이시안 방식으로 결정함으로써 속도를 크게 향상시켰다. P. Gorur and B. Amrutur. "Speeded up gaussian mixture model algorithm for background subtraction," AVSS 2011는 실수 연산을 최소화함으로써 Zivkovic의 방법을 더 개선하였다.The first approach is to optimize the algorithm. The mixed Gaussian model (GMM) detects the foreground in various video environments, but it is slow to learn and requires many operations per frame. Thus, D.-S. Lee. "Effective Gaussian mixture learning for video background subtraction," TPAMI, 2005 accelerated the convergence of learning models using a learning schedule method that gradually changes between the two learning methods. Z. Zivkovic and F. van der Heijden. "Patient Recognition Letters, 2006, by Bayesian method, determines the number of Gaussian modes required by each pixel for the image, which greatly improves the speed. P. Gorur and B. Amrutur. "Speeded up gaussian mixture model algorithm for background subtraction," AVSS 2011 further improved Zivkovic's method by minimizing real number operations.
두번째 접근 방법은 병렬 처리를 이용하는 것으로 OpenMP나 GPU 등의 멀티코어 프로세서를 이용하여 연산 속도를 높이는 방식이 제안되었다. V. Pham et al. "GPU implementation of extended Gaussian mixture model for background subtraction," IEEE RIVF, 2010은 GPU를 이용하여 풀HD 영상에서 실시간으로 전경 탐지가 가능함을 보였다. 두번째 접근 방법은 탐지 속도 향상을 위해 병렬처리 하드웨어를 필요로 한다는 단점이 있다.The second approach uses parallel processing, and a method of increasing the operation speed by using a multicore processor such as OpenMP or GPU has been proposed. V. Pham et al. "IEEE RIVF, 2010 shows that full-HD video can be detected in real time using full-HD video using the GPU. The second approach has the disadvantage of requiring parallel processing hardware to improve detection speed.
세번째 접근 방법은 선택적 샘플링이다. J. Park et al. "Hierarchical data structure for real-time background subtraction," IEEE ICIP, 2006은 입력 영상을 쿼드트리(quad-tree) 구조를 이용하여 계층적으로 분해하는 방법을 제안하였는데, 연산 시간은 줄어드는 반면 작은 물체를 놓치는 단점이 존재하였다. H.-K. Kim et al. "Fast object detection method for visual surveillance," IEEE ITC-CSCC 2008은 기존의 픽셀 단위 전경탐지 방법과 결합 가능한 샘플링 마스크 생성법을 제안하였고, D.-Y. Lee et al. "Fast background subtraction algorithm using two-level sampling and silhouette detection," IEEE ICIP, 2009 역시 2단계 픽셀 샘플링을 제안하였다. 이들 알고리즘은 작은 물체도 비교적 정확하게 탐지하는 결과를 보이지만, 빽빽하게 디자인된 구조화된 샘플링 패턴을 이용하므로 불필요한 연산을 수행하는 비효율성이 있다.
The third approach is selective sampling. J. Park et al. IEEE ICIP, 2006, proposed a hierarchical decomposition method of input image using a quad-tree structure. The computation time is reduced, while a small object is missed. Disadvantages existed. H.-K. Kim et al. IEEE ITC-CSCC 2008 proposed a sampling mask generation method that can be combined with the conventional pixel-based foreground detection method, and D.-Y. Lee et al. "Fast background subtraction algorithm using two-level sampling and silhouette detection," IEEE ICIP, 2009 also proposed two-stage pixel sampling. These algorithms result in relatively accurate detection of small objects, but they are inefficiently performing unnecessary operations because they use tightly designed structured sampling patterns.
본 발명의 목적은 입력 영상으로부터 전경탐지 속도를 향상시키기 위한 능동적 집중 샘플링 방법을 제공하는 것이다.It is an object of the present invention to provide an active focused sampling method for improving the foreground detection rate from an input image.
더욱 상세하게는 본 발명의 목적은 입력 영상으로부터 배경을 제거하고 전경을 탐지하기 위해 픽셀 단위로 연산을 수행하는 전경탐지 알고리즘에 대해서 입력 영상의 시간적 특성, 공간적 특성, 주파수 특성에 따라 전경 확률지도와 샘플링 마스크를 적용함으로써 전경탐지 속도를 향상시킬 수 있는 능동적 집중 샘플링 기술을 제공하는 것이다.
More particularly, the present invention relates to a foreground detection algorithm that performs operations on a pixel-by-pixel basis in order to remove a background from an input image and detect a foreground, and provides a foreground probability map and a foreground probability map according to temporal characteristics, spatial characteristics, And to provide an active focused sampling technique that can improve the foreground detection rate by applying a sampling mask.
이러한 과제를 달성하기 위한 본 발명에 따른 능동적 집중 샘플링 방법은, 전경탐지 속도 향상을 위한 능동적 샘플링 마스크를 얻기 위해 전경의 세가지 특성인 시간적 특성, 공간적 특성, 주파수 특성을 획득하는 제 1 단계; 시간적 특성, 공간적 특성, 주파수 특성을 기초로 해서 전경 확률지도()를 생성하는 제 2 단계; 전경 확률지도()와 전경탐지 결과인 탐지 마스크(D)를 기초로 샘플링 마스크()를 프레임별로 생성한 뒤, 샘플링 마스크()에 대해서 선택적인 픽셀단위 전경탐지를 수행하는 제 3 단계;를 포함하여 구성된다.According to an aspect of the present invention, there is provided a method for acquiring an active sampling mask for improving foreground detection speed, the method comprising: a first step of acquiring temporal characteristics, spatial characteristics, and frequency characteristics of three foreground objects; Based on temporal, spatial, and frequency characteristics, ); Foreground probability map ( ) And a detection mask D as a result of foreground detection ) Is generated for each frame, and a sampling mask ( And a third step of performing selective pixel-based foreground detection on the pixel-by-pixel basis.
본 발명에서 제 3 단계의 탐지 마스크(D) 생성을 위한 전경탐지는 비디오 프레임의 시퀀스 와 샘플링 마스크 를 이용하여 탐지 마스크의 시퀀스 를 찾는 것이 바람직하다.In the present invention, the foreground detection for generating the detection mask (D) in the third step is a sequence of video frames And a sampling mask A sequence of detection masks .
또한, 본 발명에서 제 3 단계는 전경 확률지도()를 생성한 후 랜덤산발형 샘플링(C3), 중요도 공간확장형 샘플링(C4), 깜짝픽셀 샘플링(C5)을 적용하여 구성되는 것이 바람직하다.Also, in the present invention, the third step is a foreground probability map , Random scattering type sampling (C3), importance space expansion sampling (C4), and surprise pixel sampling (C5) are preferably applied.
또한, 본 발명에서 전경 확률지도() 생성을 위해 전경 특성의 추정치를 연산하며, 시간특성 척도()를 탐지 결과의 이력에서 추측하며, 공간특성 척도()를 각 픽셀 주변의 전경 픽셀 수로 추정하며, 주파수특성 척도()를 탐지 결과가 일정 시간 동안 바뀌는 비율을 통해 추정하는 것이 바람직하다.Further, in the present invention, ), And calculates a time property measure (" ) Is estimated from the history of the detection result, and the spatial characteristic measure ) Is estimated as the number of foreground pixels around each pixel, and the frequency characteristic measure ( ) Is estimated based on the rate at which the detection result changes over a certain period of time.
한편, 본 발명에 따른 컴퓨터로 판독가능한 기록매체는 이상과 같은 영상으로부터 전경탐지 속도 향상을 위한 능동적 집중 샘플링 방법을 수행하는 프로그램을 기록한 것이다.
Meanwhile, a computer-readable recording medium according to the present invention records a program for performing an active focused sampling method for improving the foreground detection speed from the above image.
본 발명에 따르면 입력 영상에 대해 능동적인 집중 샘플링 마스크를 생성함으로써 해당 프레임에 대해 샘플링 마스크에 해당하는 부분만 프로세싱하면 전경탐지가 달성되므로 전경탐지 속도가 크게 향상된다. 즉, 픽셀 단위로 수행되는 기존의 전경탐지 방법과 비교할 때 별다른 탐지성능을 저하시키지 않고서도 약 6.6배 처리속도를 향상시킬 수 있고, 그에 따라 풀HD 영상에 대해서도 실시간으로 전경 탐지가 가능한 장점이 있다.
According to the present invention, when an active focused sampling mask is generated for an input image, only the portion corresponding to the sampling mask is processed for the corresponding frame, so that foreground detection is achieved, and the foreground detection speed is greatly improved. In other words, compared with the conventional foreground detection method performed on a pixel-by-pixel basis, the processing speed can be improved to about 6.6 times without deteriorating the detection performance, and the full-HD image can be detected in real time .
[도 1]은 본 발명에 따른 능동적 집중 샘플링 방법의 전체적인 알고리즘을 나타내는 도면.
[도 2]는 본 발명에 따른 능동적 집중 샘플링 마스크를 활용하여 수행한 전경탐지 결과를 나타내는 도면.
[도 3]은 본 발명에서 공간확장형 샘플링의 개념을 설명하기 위한 도면.
[도 4]는 본 발명에서 중요도 공간확장형 샘플링에서의 파라미터 ωs와 변수 k의 영향을 나타내는 도면.
[도 5]는 본 발명의 효과를 설명하기 위한 여러 전경탐지 방법에 대한 전체 시퀀스 동안 각 프레임의 F1 - measure의 평균을 나타내는 도면.
[도 6]은 본 발명의 효과를 설명하기 위한 계산 시간 속도 상승 결과를 나타내는 도면.
[도 7]은 본 발명의 효과를 설명하기 위한 한 영상의 전체 프레임 동안의 계산 시간 변화를 나타내는 도면.
[도 8]은 본 발명의 효과를 설명하기 위한 평균 연산량 감소 정도를 나타내는 도면.1 shows an overall algorithm of an active focused sampling method according to the present invention.
FIG. 2 is a diagram showing a result of foreground detection performed using an active focused sampling mask according to the present invention. FIG.
FIG. 3 is a diagram for explaining the concept of spatial scalable sampling in the present invention; FIG.
FIG. 4 is a graph showing the influence of a parameter ω s and a variable k in critical space expansion sampling in the present invention. FIG.
FIG. 5 is a diagram illustrating the average of F 1 - measures of each frame during the entire sequence for various foreground detection methods for explaining the effect of the present invention. FIG.
FIG. 6 is a view showing a calculation time velocity increase result for explaining the effect of the present invention; FIG.
FIG. 7 is a view showing a calculation time change during an entire frame of an image for explaining the effect of the present invention; FIG.
FIG. 8 is a diagram showing the degree of decrease in average calculation amount for explaining the effect of the present invention. FIG.
이하에서는 도면을 참조하여 본 발명을 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.
본 발명의 능동적 집중 샘플링 방법은 이전의 경험이 현재의 주의집중 영역에 영향을 주는 인간의 선택적 주의집중 메커니즘에 기초하여 설계된다. 예를 들어 경비가 CCTV 카메라를 감시할 때 그는 이미지 전체에 집중하지 않는다. 대신, 그는 경험적으로 영상의 영역을 ① 배경 부분(움직이지 않는 부분), ② 움직이지만 중요하지 않은 부분, ③ 관심을 가질 필요가 있는 움직이는 물체가 나타나는 부분으로 분류하고 필요한 부분에만 집중한다. 본 발명은 이러한 선택적 주의집중 체계를 모델링한 것이다.The active focused sampling method of the present invention is designed based on a human selective attention mechanism in which previous experience has an effect on the current attention area. For example, when a guard watches a CCTV camera, he does not focus on the entire image. Instead, he empirically classifies the area of the image into ① the background part (the non-moving part), ② the moving part, but not the important part, and ③ the moving part that needs attention. The present invention models this selective attention system.
예를 들어 감시 비디오에서 얻어지는 영상에서 대부분의 픽셀은 배경 부분이고, 전경 부분은 시간적으로도 공간적으로도 매우 작은 부분을 차지한다. 종래 문헌에서 일반적으로 사용되는 데이터 집합에서 전경 부분의 비율을 백분율로 측정하면 하기의 [표 1]과 같다.
For example, in an image obtained from surveillance video, most of the pixels are background portions, and the foreground portions occupy a very small portion both temporally and spatially. The ratio of the foreground part in the data set generally used in the conventional literature is measured as a percentage as shown in the following [Table 1].
[표 1]의 데이터 집합은 Wallflower, VSSN2006, PETS2006, AVSS2007 i-LIDS challenge, PETS2009, SABS이며, 일반적인 입력 영상에서 전경 부분의 픽셀 비율은 대략 2.42%정도에 불과하다는 것을 알 수 있다. 따라서 전경탐지 연산이 전경 영역에만 집중할 수 있다면 연산량이 획기적으로 줄게 된다. 본 발명은 입력 영상에서 이전 프레임에서 탐지한 전경 영역을 고려해서 현재 프레임에서 관심 영역을 찾아 집중하도록 하는데 기술적 요지가 있다.The data set in [Table 1] is Wallflower, VSSN2006, PETS2006, AVSS2007 i-LIDS challenge, PETS2009, SABS, and the pixel ratio of the foreground part is about 2.42% in general input image. Therefore, if the foreground detection operation can concentrate only on the foreground area, the computation amount is drastically reduced. The present invention has a technical point that focuses on a foreground region detected in a previous frame and concentrates on a current frame in the input image.
이하 도면을 참조하여 본 발명의 기술적 사상을 구체적으로 살펴본다.
Hereinafter, the technical idea of the present invention will be described in detail with reference to the drawings.
[도 1]은 본 발명의 능동적 집중 샘플링 방법의 전체적인 알고리즘을 나타내는 도면이다. [도 1]을 참조하면, 본 발명에서는 전경탐지 속도 향상을 위한 능동적 샘플링 마스크를 얻기 위해 배경과 구별되는 전경의 세가지 특성 즉 시간적, 공간적, 주파수 특성을 이용한다(C1).1 is a diagram showing an overall algorithm of the active focused sampling method of the present invention. Referring to FIG. 1, in order to obtain an active sampling mask for improving the foreground detection speed, three characteristics of the foreground distinguishable from the background, that is, temporal, spatial, and frequency characteristics are used (C1).
시간적 특성은 픽셀이 이전에 전경의 픽셀이었다면 현재 프레임에서도 전경 영역의 부분일 거라 예상하는 것이다. 공간적 특성은 주위의 픽셀이 전경이라면 그 픽셀이 전경 픽셀이 될 가능성이 높다는 것인데, 그 가능성은 주위의 전경 픽셀의 개수에 비례한다. 주파수 특성은 전경/배경 라벨이 너무 자주 바뀐다면 그 픽셀은 노이즈이거나 동적 배경 지역일 가능성이 크고 안정적으로 전경 영역일 가능성은 낮다는 것이다.The temporal property is expected to be part of the foreground region in the current frame if the pixel was previously the foreground pixel. The spatial property is that if the surrounding pixels are foreground, then the pixel is likely to be a foreground pixel, which is proportional to the number of surrounding foreground pixels. The frequency characteristic is that if the foreground / background label changes too often, the pixel is likely to be noise or a dynamic background region, and is less likely to be a stable foreground region.
그리고 나서, 이러한 시간적, 공간적, 주파수 특성을 기초로 해서 전경 확률지도()를 생성한다(C2). 즉, 본 발명에서는 바람직하게는 모든 프레임에서 전경 확률지도 에 따라 업데이트를 시행한다.Then, based on these temporal, spatial, and frequency characteristics, (C2). That is, in the present invention, preferably, the foreground probability map The update will be carried out according to.
한편, 전경 확률지도를 생성한 뒤에 샘플링을 수행하는데, 본 발명에서는 랜덤산발형 샘플링(Randomly Scattered Sampling)(C3), 중요도 공간확장형 샘플링(Spatially Expanding Importance Sampling)(C4), 깜짝픽셀 샘플링(Surprise Pixel Sampling)(C5)을 사용한다.In the present invention, random random scattering sampling (C3), spatially expanding importance sampling (C4), surprise pixel sampling (Surprise Pixel Sampling (C5) is used.
이후, 본 발명에서는 바람직하게는 모든 프레임에서 샘플링 마스크를 생성한다(C6). 샘플링 마스크()를 이용하여 n이 픽셀 인덱스라고 할 때 인 픽셀에 대하여 선택적인 픽셀단위 전경탐지가 수행된다. 샘플링 마스크는 이후에 수행되는 픽셀단위 전경탐지 기술에 별다른 제한을 가하지 않으므로 임의의 픽셀단위 전경탐지 기술과 조합될 수 있다.Thereafter, in the present invention, a sampling mask is preferably generated in all the frames (C6). Sampling mask ( ) And n is a pixel index An optional pixel-by-pixel foreground detection is performed. The sampling mask can be combined with any pixel-based foreground detection technique since it does not impose any restrictions on the pixel-by-foreground detection technique to be performed subsequently.
한편, 전경탐지는 비디오 프레임의 시퀀스 와 샘플링 마스크 를 이용하여 탐지 마스크의 시퀀스 를 찾는 것이다. 탐지 마스크 D(n)은 픽셀 n이 배경이면 D(n) = 0이고 전경이면 D(n) = 1의 값을 갖는다. 비디오 이미지(), 샘플링 마스크(), 탐지 마스크()는 각각 N 픽셀에 해당하는 집합인 , , 로 개별적으로 이루어져 있다. 여기서 모든 마스크는 이진 마스크이다. 본 발명에 따른 픽셀단위 전경탐지는 샘플링 마스크인 인 픽셀에서만 선택적으로 수행되는 점에 특징이 있다.
On the other hand, foreground detection is a sequence of video frames And a sampling mask A sequence of detection masks . The detection mask D (n) has a value of D (n) = 1 if pixel n is background and D (n) = 1 if it is foreground. Video image ( ), A sampling mask ( ), A detection mask ( ) Is a set of N pixels , , Respectively. Where all masks are binary masks. The pixel unit foreground detection according to the present invention is a sampling mask In which only a pixel is selected.
이하에서는 [도 1] 내지 [도 8]을 참조하여, 전경의 특성을 활용한 영상으로부터 전경탐지 속도 향상을 위한 능동적 집중 샘플링의 설계에 관해서 각 과정(C1 내지 C6)별로 구체적으로 살펴본다.Hereinafter, with reference to FIG. 1 to FIG. 8, a detailed description will be given of each of the processes (C1 to C6) as to the design of the active focused sampling for improving the foreground detection speed from the image using the characteristics of the foreground.
먼저, 전경 확률지도() 생성을 위해 전경 특성의 추정치를 연산한다. 보다 구체적으로, 본 발명에서는 각 픽셀마다 시간, 공간, 주파수 특성을 측정하기 위해 추정 모델을 제안하며, 세가지 특성 척도는 {, , }로 나타낸다. 시간특성 척도()는 탐지 결과의 최근 이력에서 추측되고, 공간특성 척도()는 각 픽셀 주변의 전경 픽셀 수로 추정되며, 주파수특성 척도()는 탐지 결과가 일정 시간 동안 바뀌는 비율을 통해 추정된다.First, ) To calculate the foreground property estimate. More specifically, in the present invention, an estimation model is proposed to measure time, space and frequency characteristics for each pixel, and three characteristic scales are { , , }. Time characteristic measure ( ) Is estimated from the recent history of the detection result, and the spatial characteristic measure ( ) Is estimated as the number of foreground pixels around each pixel, and the frequency characteristic measure ( ) Is estimated through the rate at which the detection results change over a period of time.
모든 추정 모델은 학습률이 각각 αT, αF, αS인 이동 평균 방법론을 작동시킴으로 업데이트된다. 여기서 모든 학습률은 0과 1사이의 값이다. 각각의 특성 척도에 대한 추정 모델은 아래와 같다.All estimation models are updated by activating the moving average methodology with learning rates of α T , α F , α S , respectively. Here, all learning rates are between 0 and 1. Estimation model for each characteristic scale is as follows.
먼저, 시간특성 척도()는 전경의 시간 특성을 추정하기 위해 각각의 위치 n에서 그 위치의 탐지 마스크 결과의 이력을 하기의 [수학식 1]과 같이 연산하여 평균하여 구한다.First, a time characteristic measure ( ) Is obtained by calculating the history of the detection mask result at the position n at each position n by calculating the following equation (1) so as to estimate the temporal characteristic of the foreground.
여기서 값이 1에 가까워 질수록 그 픽셀에서 전경이 출현할 확률이 상승한다.here The closer the value is to 1, the higher the probability that the foreground appears at that pixel.
다음으로, 공간특성 척도()는 하기의 [수학식 2]와 같이 연산되며, 주변 픽셀의 탐지 결과를 이용하여 각 픽셀 n의 공간적 연관성을 측정한다.Next, the spatial characteristic measure ( ) Is calculated according to the following equation (2), and the spatial correlation of each pixel n is measured using the detection result of the neighboring pixels.
여기서, 은 픽셀 n을 중심으로 주위의 w×w 정사각형 공간으로 이루어지는 공간적 이웃을 나타내며, 가 1에 가깝다는 것은 전경의 일부가 될 확률이 상승하는 것을 나타낸다.here, Represents a spatial neighbor composed of a w x w square space around the pixel n, Is close to 1 means that the probability of becoming part of the foreground is increased.
다음으로, 주파수특성 척도()는 하기의 [수학식 3]과 같이 연산되며, 탐지 결과가 예컨대 이전 세 프레임 동안 두 번이상 바뀌었다면 본 발명에서는 그것을 동적 배경의 증거로 간주한다.Next, the frequency characteristic measure ( ) Is computed as in Equation (3) below, and if the detection result is changed more than once for the previous three frames, for example, the present invention regards it as proof of the dynamic background.
여기서, 은 n에서의 주파수 변화 특성을 나타낸다. 시간특성 척도() 및 공간특성 척도()와는 다르게 픽셀 n 은 의 값이 0에 가까울수록 안정적인 전경이 될 가능성이 증가한다.
here, Represents the frequency change characteristic at n. Time characteristic measure ( ) And spatial characteristics ( ), Pixel n is The closer the value of " 0 " is, the more likely it is to become a stable foreground.
다음으로 전경 확률지도()를 생성하는 과정(C2)에 대해 살펴본다. 앞서의 과정을 통해 배경과 구별되는 전경 특성 척도(, , )에 대한 추정 값으로서 , , 를 획득하였다. 이들 추정 값은 0 내지 1사이의 값을 가지고 있는데, 해당 픽셀이 전경이 가능성을 표시한다. 이를 이용하여 픽셀 n, 프레임 t에서의 전경확률을 다음과 같이 [수학식 4]로 정의한다.Next, (C2) will be described. Through the above process, the foreground feature scale , , ) ≪ / RTI > , , . These estimated values have a value between 0 and 1, and the pixel indicates the possibility of the foreground. Using this, the foreground probability at pixel n, frame t is defined as: " (4) "
다음으로, 능동적 샘플링 마스크을 생성하는 과정(C6)에 대해서 살펴본다.Next, a process (C6) of generating an active sampling mask will be described.
본 발명에서 샘플링 마스크()는 픽셀 단위 OR 연산()으로 하기의 [수학식 5]에 의해 3가지 마스크들의 조합으로 얻어진다.In the present invention, ) Is a pixel-by-pixel OR operation ) Is obtained by a combination of three masks according to the following equation (5).
, , 는 각각 랜덤산발형 샘플링(C3), 중요도 공간확장형 샘플링(C4), 깜짝픽셀 샘플링(C5)에 대한 샘플링 마스크이다. 각 샘플링 단계에서 샘플링 마스크는 전경 확률지도()와 전경탐지 결과인 탐지 마스크(D)를 기초로 생성된다. 본 발명에서 능동적 집중 샘플링을 위한 샘플링 마스크는 다음과 같은 [수학식 6]으로 표현가능하다. , , Are sampling masks for random scatter sampling (C3), significance spatial scalable sampling (C4), and surprise pixel sampling (C5), respectively. At each sampling step, the sampling mask includes a foreground probability map ( And a detection mask D as a result of foreground detection. In the present invention, the sampling mask for active focused sampling can be expressed by the following Equation (6).
한편, [도 2]는 본 발명에 따른 능동적 집중 샘플링 마스크를 활용하여 수행한 전경탐지 결과를 나타내는 도면이다.FIG. 2 is a diagram showing a result of foreground detection performed using an active focused sampling mask according to the present invention.
먼저, [도 2(a)]는 입력 영상의 이미지를 나타낸다. [도 2(b)]는 본 발명에서 전경탐지에 사용되는 능동적 집중 샘플링 마스크를 나타내는데, 흰색 픽셀은 랜덤산발형 샘플링 마스크 이고, 파란색 픽셀은 중요도 공간확장형 샘플링 마스크 이며, 빨간색 픽셀은 깜짝픽셀 샘플링 마스크 이다. [도 2(b)]를 참조하면 대부분의 공간이 검은 색으로 표시되어 있는데, 대부분의 공간에서 마스크는 0의 값을 갖는다. 이처럼 리던던시(redundancy)를 제거함으로써 이후의 과정에서 연산량이 최적화된다.First, FIG. 2 (a) shows an image of an input image. 2 (b) shows an active focused sampling mask used for foreground detection in the present invention, wherein the white pixels are a random scattering type sampling mask , And the blue pixels are the significance spatial extended sampling mask , And the red pixel is a surprise pixel sampling mask to be. Referring to FIG. 2 (b), most of the space is displayed in black. In most spaces, the mask has a value of zero. This eliminates redundancy and optimizes the computation in the process.
[도 2(c)]는 전술한 GMM 알고리즘에 본 발명에 따른 능동형 집중 샘플링 마스크를 결합시켜 적용한 전경탐지 결과이고, [도 2(d)]는 본 발명에 따른 능동형 집중 샘플링 마스크를 결합시키지 않고 입력 영상의 전체 픽셀에 대해서 GMM 알고리즘을 수행한 결과이다. 한편, [도 2(e)] 내지 [도 2(g)]는 [도 2(a)]의 입력 영상으로부터 얻어지는 시간적 특성(), 공간적 특성(), 주파수 특성()을 각각 나타내며, [도 2(h)]는 이러한 시간적, 공간적, 주파수 특성으로부터 얻어지는 전경 확률지도()를 나타낸다. [도 2(a)]와 [도 2(h)]를 비교하면 전경 확률지도()가 입력 영상에 포함된 전경 대상(차량, 사람)을 잘 반영하고 있음을 확인할 수 있다.(FIG. 2 (c)) is a result of foreground detection in which the active focused sampling mask according to the present invention is combined with the above-described GMM algorithm, and FIG. 2 (d) This is the result of GMM algorithm for all the pixels of the input image. On the other hand, FIG. 2 (e) to FIG. 2 (g) show the temporal characteristics obtained from the input image of FIG. 2 (a) ), Spatial characteristics ), Frequency characteristics (Fig. 2 (h)) shows a foreground probability map obtained from such temporal, spatial and frequency characteristics ). [Fig. 2 (a)] and Fig. 2 (h) ) Is well reflected in the foreground object (vehicle, person) included in the input image.
이어서, 랜덤산발형 샘플링(C3), 중요도 공간확장형 샘플링(C4), 깜짝픽셀 샘플링(C5)에 대해서 구체적으로 살펴본다.Next, the random scattering type sampling (C3), the significance spatial expansion type sampling (C4), and the surprise pixel sampling (C5) will be described in detail.
먼저, 랜덤산발형 샘플링(C3)에 대해 살펴본다. 전체 픽셀의 % 픽셀은 랜덤산발형 샘플링에 의해 선택된다. 이때, ρ의 값은 0.05에서 1 사이의 값으로 설정하는 것이 바람직하다. 균일한 랜덤 샘플링은 모든 픽셀이 평균적으로 프레임 마다 확인되는 것과 유사하다. 무작위 표본의 수(NS)는 ρN이고, 이 숫자는 모든 프레임에서 일정하다.First, a random scattering type sampling (C3) will be described. Of all pixels % Pixels are selected by random scatter sampling. At this time, the value of p is preferably set to a value between 0.05 and 1. The uniform random sampling ensures that all the pixels Is similar to what is confirmed every time. The number of random samples (N S ) is ρN, and this number is constant in all frames.
한편, 이전 프레임에서 생성된 픽셀들 중에서 일부를 재사용하는 것이 바람직하다. 재사용 대상 픽셀의 결정은 전경 확률()로 측정된 정보의 양에 기초하는데, 인 픽셀 n은 현재 프레임에서 다시 샘플링된다(). 이렇게 재사용되는 픽셀의 숫자 는 적응적으로 변경되는데, 재사용을 제외한 나머지 개수 의 표본들이 전체이미지에서 무작위로 다시 샘플링 된다.
On the other hand, it is preferable to reuse a part of the pixels generated in the previous frame. The determination of the pixel to be reused is based on the foreground probability ( ), ≪ / RTI > Pixel n is resampled in the current frame ( ). The number of pixels to be reused in this way Is adaptively changed, and the remainder Are randomly resampled from the entire image.
다음으로, 중요도 공간확장형 샘플링(C4)에 대해서 살펴본다. 랜덤 샘플링 마스크()는 빈 공간이 없는 온전한 전경 영역을 만들기엔 너무 듬성듬성하고 작은 물체를 놓칠 수 있다. 그러므로 전경으로 탐지된 성긴 픽셀들 사이를 채우는 것이 필요하다. 이를 위해 본 발명에서는 오직 필요한 지역에만 세밀하게 초점을 맞추어 샘플링하는 중요도 샘플링 방식을 사용한다.Next, we consider importance spatial expansion sampling (C4). Random sampling mask ( ) May be too sparse to miss a small object to create a perfect foreground area without empty space. Therefore, it is necessary to fill in between the coarse pixels detected in the foreground. To this end, in the present invention, a significance sampling method is used in which only a required region is closely focused and sampled.
종래의 중요도 샘플링은 중요도 가중치(importance weight)가 높은 지역에서 표본의 밀도를 높게 뽑는다. 본 발명에서 샘플링 마스크는 모든 전경 픽셀을 포함시켜야 하고, 동일한 픽셀을 여러 번 샘플링하는 것은 빈 공간을 메워주지 못하므로 전경 부분에서의 고밀도 샘플링만으로는 충분하지 않다.Conventional significance sampling high specimen density in regions where importance weight is high. In the present invention, the sampling mask must include all the foreground pixels, and sampling the same pixel multiple times does not fill the empty space, so high density sampling in the foreground portion is not sufficient.
이러한 샘플링 문제를 해결하기 위해 본 발명에서는 샘플링 범위를 [도 3]에서 보여지는 것처럼 인 모든 점에서의 중요도 비중에 비례하여 확장하는 중요도 공간확장형 샘플링 방법론을 제안한다.To solve this sampling problem, in the present invention, the sampling range is set as shown in FIG. 3 We propose a spatial expansive sampling methodology that expands in proportion to the importance of all points.
[도 3]은 본 발명에서 공간확장형 샘플링의 개념을 설명하기 위한 도면으로서 전경 확률지도()를 이용하여 중요도 공간확장형 샘플링 마스크()를 생성하는 과정을 나타낸다. [도 3(a)]와 [도 3(b)]는 각각 전경 확률지도()와 랜덤 샘플링 마스크()의 각 포인트에 대해 공간확장 영역의 너비()가 계산된 모습을 나타낸다. [도 3(c)]는 모든 사각형의 안쪽 포인트를 1로 설정하여 공간확장형 샘플링 마스크()를 생성하는 것을 나타낸다.3 is a diagram for explaining the concept of spatial scalable sampling in the present invention, ) Is used to extract the importance spatial expansion sampling mask ( ). ≪ / RTI > [Fig. 3 (a)] and [Fig. 3 (b)] show a foreground probability map ) And a random sampling mask ( The width of the space extension area ( ) Is calculated. FIG. 3 (c) shows a spatial expansion sampling mask ( ).
중요도 비중에 비례하여 확장된 지역의 모양은 i번째의 랜덤산발형 샘플의 중요도 가중치에 의존하는 의 너비를 가진 정사각형이다. 도면을 참조하면 비록 정사각형 지역이 겹치지만 이것들은 [도 3]에 도시된 것처럼 인 한 지역을 구현한다.The shape of the expanded region proportional to the importance proportion depends on the importance weight of the ith random scattering sample Of the width of the square. Referring to the drawings, although the square areas overlap, these are the same as those shown in Fig. 3 To implement the region.
중요도 분포가 균일하다고 가정하면 각 랜덤산발형 샘플 i(인 것)의 중요도 가중치가 가 된다. 즉 에 비례하여 픽셀 i를 중심으로 하는 크기의 샘플링 영역 N(i)를 확장시키며 하기의 [수학식 7]와 같이 표현가능하다.Assuming that the importance distribution is uniform, each random scatter type sample i ( Of the importance weight of . In other words Lt; RTI ID = 0.0 > i < / RTI > (I), and can be expressed as shown in the following Equation (7).
공간 확장폭인 는 다음의 [수학식 8]과 같이 결정된다.Space expansion width Is determined according to the following equation (8).
즉, ωs는 k를 변수로 하는 확장 상수이며 일반적으로 k는 √3 또는 √5의 값을 갖는다.
That is, ω s is an extension constant with k as a variable, and k in general has a value of √3 or √5.
[도 4]는 본 발명에서 중요도 공간확장형 샘플링에서의 파라미터 ωs와 변수 k의 영향을 나타내는 도면이다. 즉, [도 4]를 참조하면 ωs가 어떻게 디자인 되고 변수 k의 효과가 어떠한지 살펴볼 수 있다.FIG. 4 is a graph showing the influence of a parameter ω s and a variable k in importance spatial expansion sampling in the present invention. That is, referring to FIG. 4, it can be seen how ω s is designed and the effect of the variable k.
[도 4(a)]를 참조하면 k = 1이고 = 1일 때 이미지가 Ns 사각형으로 똑같이 분해되었다는 추정하에서 설정된 사각형의 너비를 나타낸다. 그러나 실제 상황에서는 Ns 샘플이 일정하게 분포되어 있지 않고 대부분의 는 1보다 작으며, 그에 따라 [도 4(b)]에서 보여지는 것처럼 가 추측된 전경 영역을 빈틈없이 다루지 못한다. [도 4(c)]를 참조하면 1 보다 큰 매개변수 k(예: √3)에 의해 마스크가 전경 영역을 빈틈없이 다룰 수 있도록 확장시킨다. 그리고, [도 2(b)]에서 볼 수 있는 것처럼 높은 전경 확률 지역은 넓게 샘플링 되고 낮은 확률 지역에서 대부분의 는 0이다.
Referring to FIG. 4 (a), k = 1 = 1 indicates the width of the rectangle set under the assumption that the image is equally decomposed into N s squares. However, in the actual situation, N s samples are not uniformly distributed, Is less than 1, and as shown in Fig. 4 (b) Can not handle the estimated foreground area. Referring to Fig. 4 (c), the mask extends the foreground area to be seamlessly covered by a parameter k (e.g., √3) larger than 1. And, as can be seen in [Fig. 2 (b)], the high foreground probability area is widely sampled and most of the Is zero.
다음으로, 깜짝픽셀 샘플링 마스크(C5)에 대해서 살펴본다. 전경확률을 정확하게 모델링하더라도, 전경탐지는 본질적으로 통계적으로 예측할 수 없는 특성을 가지고 있다. 비정상적인 전경은 예측할 수 없는 갑작스러움에 기인하는데, 예컨대 사람이나 차가 갑자기 새로운 방향에서 나타나거나 도둑이 제한된 구역으로 들어가는 경우를 생각할 수 있다. 이렇게 예상 외로 갑자기 나타나는 물체들을 성공적으로 탐지할 수 있어야 하는데, 전술한 랜덤산발형 샘플은 이런 예측할 수 없는 경우를 잡을 때 중요해진다.Next, a surprise pixel sampling mask (C5) will be described. Even when accurately modeling the foreground probability, foreground detection has inherently statistically unpredictable characteristics. Abnormal scenes are caused by unpredictable suddenness, for example, when a person or car suddenly appears in a new direction or a thief enters a restricted area. It should be possible to successfully detect objects that suddenly appear unexpectedly, and the random scattered samples described above become important when catching these unpredictable cases.
특정 픽셀이 이전 프레임에서는 전경 확률이 작았음에도 불구하고 전경으로 탐지되었을 경우에 그 픽셀을 깜짝 픽셀로 정의한다. 전경 물체가 그 픽셀 위치에 존재하리라고 기대되지 않았기 때문에 그 전경 픽셀의 관측은 매우 놀라운 것이다. 그래서 현재 프레임에서 픽셀 주변의 샘플링 면적을 넓히는 것으로 새로운 전경 픽셀을 찾을 수 있다. 픽셀 i(인 곳)에 대해 깜짝픽셀 인덱스 는 다음의 [수학식 9]와 같이 주어진다.A pixel is defined as a surprise pixel when a certain pixel is detected as a foreground even though the foreground probability is small in the previous frame. Observation of the foreground pixel is very surprising because the foreground object is not expected to be at that pixel location. So you can find new foreground pixels by widening the sampling area around the pixels in the current frame. Pixel i ( Surprise pixel index Is given by the following equation (9).
깜짝픽셀 샘플링 마스크는 N(i) 지역(라면 i를 중심으로 하는 지역)에 대해 으로 생성된다.
The surprise pixel sampling mask is N (i) region ( Centered on ramen i Area) .
전술하였던 다수의 영상에 대해 본 발명의 성능을 살펴본다. 본 발명에 따른 능동적 집중 샘플링 방법의 실제 적용 가능성을 증명하기 위해 다양한 환경과 다른 해상도의 여러 비디오 장면에서 본 발명의 알고리즘을 여러 탐지 알고리즘과 결합하여 탐지 성능과 연산량을 비교하였다.The performance of the present invention will be described with respect to a plurality of images described above. In order to demonstrate the practical applicability of the active focused sampling method according to the present invention, the inventive algorithm is combined with various detection algorithms in various video scenes with different resolutions and resolutions to compare detection performance and computation amount.
본 발명의 능동적 집중 샘플링 방법에 따른 알고리즘은 인텔 코어i7 2.67GHz 프로세서와 2.97GB RAM의 PC에서 C++로 구현되었다. 전체 실험을 통틀어 GPUs, OpenMP, pthread, SIMD(single instruction multiple data) 등의 어떠한 병렬 처리 방법도 사용하지 않았으며, 단일코어에서 순차적인 방법으로 계산하였다. 파라미터는 일정하게 설정하였는데, 구체적으로는 αT = 0.1,αF = 0.01, αS = 0.05,ρ= 0.05, k=√3이다.The algorithm according to the active concentrated sampling method of the present invention was implemented in C ++ on a PC with Intel Core i7 2.67GHz processor and 2.97GB RAM. No parallel processing methods such as GPUs, OpenMP, pthread, and SIMD (single instruction multiple data) were used throughout the entire experiment, and they were calculated in a sequential manner on a single core. The parameters are set to be constant, specifically α T = 0.1, α F = 0.01, α S = 0.05, ρ = 0.05, and k = √3.
[도 5]는 본 발명의 효과를 설명하기 위한 여러 전경탐지 방법에 대한 전체 시퀀스 동안 각 프레임의 F1 - measure의 평균을 나타내는 도면이다. 본 발명에 따른 방법은 성공적으로 여러 전경탐지 방법, 그리고 후 처리 방식과 성능 악화 없이 조합될 수 있음을 확인할 수 있다.FIG. 5 is a diagram illustrating the average of F 1 - measures of each frame during the entire sequence of various foreground detection methods for explaining the effect of the present invention. FIG. It can be seen that the method according to the present invention can be successfully combined with several foreground detection methods and post-processing methods without deteriorating performance.
[도 5]를 참조하면 본 발명의 능동적 집중 샘플링 방법을 적용하더라도 전경탐지 성능은 동일하게 유지됨을 알 수 있다. 능동적 집중 샘플링을 적용하였을 때 전경탐지 성능의 저하 여부를 검증하기 위해 SABS 영상을 이용하였다. SABS 영상은 픽셀 단위로 전경탐지 결과를 평가하기 위해 인공적으로 여러 상황을 시뮬레이션하여 제작한 영상으로 빛 반사, 그림자, 신호등, 흔들리는 나무 같은 여러 시나리오가 포함되어 있다. 여러 알고리즘에 있어서 F1 - measure의 최고값이 0.8이라는 점을 감안하면 SABS 영상은 전경탐지가 매우 힘든 영상인데, 본 발명에 따른 샘플링을 적용하더라도 모든 픽셀을 검토하는 것에 비해 전경탐지 성능은 결코 저하되지 않음을 확인할 수 있다.Referring to FIG. 5, even when the active focused sampling method of the present invention is applied, the foreground detection performance remains the same. SABS images were used to verify the degradation of foreground detection performance when active focused sampling was applied. SABS images are images produced by simulating various situations artificially to evaluate foreground detection results in pixels, and include various scenarios such as light reflection, shadows, traffic lights, and shaking trees. Considering that the maximum value of F 1 - measure is 0.8 in various algorithms, SABS image is very difficult to detect in the foreground. Even if sampling according to the present invention is applied, foreground detection performance is never degraded .
[도 6]은 본 발명의 효과를 설명하기 위한 계산 시간 속도 상승 결과를 나타내는 도면으로, [도 6]을 참조하면 본 발명의 능동적 집중 샘플링 방법을 적용함에 따라 연산량이 크게 감소함을 알 수 있다. 이처럼 연산량이 감소함에 따라 탐지 시간도 단축시킬 수 있는데, 평균적으로 연산시간이 6.6 배 단축된다. 한편, 탐지속도가 빠른 전경탐지 알고리즘에 대해서는 상대적으로 작은 속도상승 효과를 나타내는데, 이는 마스크 생성 시간이 상대적으로 크게 작용하기 때문이다. [도 6]에 따른 계산 시간 단축의 비교 결과를 얻기 위해 테스트는 풀HD 영상으로 수행되었으며 GMM, shadow GMM, KDE와 같은 계산량이 많은 전경탐지 알고리즘에서는 연산량 단축 비율은 대략 8.5배이고 Zivkovic, Gorur와 같은 빠른 전경탐지 알고리즘에서는 연산량 단축 비율은 대략 3배로 나타난다.FIG. 6 is a diagram illustrating a calculation time-rate increase result for explaining the effect of the present invention. Referring to FIG. 6, it can be seen that the operation amount is greatly reduced by applying the active concentrated sampling method of the present invention . As the amount of computation decreases, the detection time can be shortened. On the average, the computation time is shortened by 6.6 times. On the other hand, for a fast foreground detection algorithm, a relatively small speed increase is shown because the mask generation time is relatively large. In order to obtain the comparison result of the computation time shortening according to [FIG. 6], the test was performed with a full HD image. In the foreground detection algorithm having a large amount of computation such as GMM, shadow GMM and KDE, the computation shortening ratio is approximately 8.5 times, and Zivkovic, Gorur In the fast foreground detection algorithm, the rate of reduction is about three times.
[도 7]은 본 발명의 효과를 설명하기 위한 한 영상의 전체 프레임 동안의 계산 시간 변화를 나타내는 도면으로, SABS 영상에 GMM 방법을 적용하여 테스트를 수행하였다. 본 발명을 적용하였을 때의 계산 시간은 전경 영역의 비율이 커짐에 따라 상승하는데, 원래의 GMM 방법 또한 전경 영역이 상승할 때 더 많은 시간이 들기 때문에 결과적으로는 속도 상승의 비율이 일정하게 유지된다. 즉 [도 7]과 같이 입력 영상에서 전경 영역은 0%에서 10%까지 변화하였는데, 본 발명을 적용함에 따른 연산속도 상승 효과는 일정하게 나타났다.FIG. 7 is a diagram illustrating a calculation time change during an entire frame of an image for explaining the effect of the present invention. The GMM method is applied to the SABS image to test it. The computation time when applying the present invention rises as the ratio of the foreground area increases, and the original GMM method also takes more time when the foreground area rises, resulting in a constant rate of rate increase . That is, as shown in FIG. 7, the foreground region of the input image changes from 0% to 10%.
[도 8]은 본 발명의 효과를 설명하기 위한 평균 연산량 감소 정도를 나타내는 도면으로, 연산량 감소 정도를 종래기술의 샘플링 방법들과 비교하였다. 비교 값들은 최적화된 값을 기준으로 하였는데, [도 8]을 참조하면 본 발명에 따르면 종래기술에 비해 연산량 감소 효과가 매우 큰 것을 확인할 수 있다. 종래기술에 따른 방법들은 영상의 상황에 관계없이 미리 정해진 정규화된 샘플링 패턴을 적용함에 따라 불필요한 샘플링과 불필요한 계산이 추가된다. 본 발명은 영상에 따라 불필요한 계산을 제거할 수 있어 더 효율적이다.FIG. 8 is a graph showing the degree of reduction in the average calculation amount for explaining the effect of the present invention, and the degree of reduction in the amount of calculation is compared with the sampling methods of the related art. The comparison values are based on the optimized values. Referring to FIG. 8, it can be seen that the effect of reducing the calculation amount is remarkably greater than that of the prior art. The prior art methods add unnecessary sampling and unnecessary computation by applying a predetermined normalized sampling pattern regardless of the situation of an image. The present invention is more efficient because it eliminates unnecessary calculations depending on the image.
그에 따라 본 발명의 능동적 집중 샘플링 방법을 적용하면 풀HD 영상에서 실시간 탐지가 가능하다. 종래기술에서는 GPU를 쓰는 것이 풀HD 영상에서의 실시간 전경탐지의 유일한 방법이었다. 그러나 [표 2]를 참조하면 본 발명에 따르면 고해상도 영상에 종래의 픽셀단위 전경탐지 방식을 실시간 응용에 적용하는 것이 가능해진다. GPU 버전에는 GeForce GTS250 (128 CUDA 코어)와 그 이외의 실험에는 단일코어 프로세서로 수행되었다. 모든 탐지 방법은 풀HD 비디오(1920×1080)에 최적 변수로 적용되었고 탐지시간은 본 발명에 따른 방법을 적용한 것과 적용하지 않은 것으로 분리해서 측정되었다.
Accordingly, real-time detection can be performed on a full HD image by applying the active concentrated sampling method of the present invention. In the prior art, using the GPU was the only method of real-time foreground detection in full HD video. However, referring to Table 2, according to the present invention, it becomes possible to apply the conventional pixel unit foreground detection method to high-resolution images in real-time applications. The GPU version included GeForce GTS250 (128 CUDA cores) and other experiments with a single core processor. All detection methods were applied to full HD video (1920 × 1080) as optimal parameters and the detection time was measured separately with and without applying the method according to the present invention.
(FPS)The method of the present invention
(FPS)
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드의 형태로 구현하는 것이 가능하다. 이때, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be embodied in the form of computer readable code on a computer readable recording medium. At this time, the computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 캐리어웨이브(예: 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산된 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인 프로그램, 코드, 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage, and the like, and may be implemented in the form of a carrier wave . The computer-readable recording medium can also be stored and executed by a computer-readable code in a distributed manner on a networked computer system. And functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present invention belongs.
이상과 같이, 본 명세서와 도면에는 본 발명의 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예가 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명하다.As described above, the embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms have been used, they have been used only in a general sense to easily describe the technical contents of the present invention and to facilitate understanding of the invention. And is not intended to limit the scope of the invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.
Claims (12)
상기 시간적 특성, 상기 공간적 특성, 상기 주파수 특성을 기초로 해서 전경 확률지도()를 생성하는 제 2 단계;
상기 전경 확률지도()와 전경탐지 결과인 탐지 마스크(D)를 기초로 샘플링 마스크()를 프레임별로 생성한 뒤, 상기 샘플링 마스크()에 대해서 선택적인 픽셀단위 전경탐지를 수행하는 제 3 단계;
를 포함하여 구성되는 영상으로부터 전경탐지 속도 향상을 위한 능동적 집중 샘플링 방법.
In order to obtain an active sampling mask for improving the foreground detection speed, the first step is to acquire three characteristics of the foreground: temporal, spatial, and frequency characteristics;
Based on the temporal characteristic, the spatial characteristic, and the frequency characteristic, );
The foreground probability map ( ) And a detection mask D as a result of foreground detection ) Is generated for each frame, and the sampling mask ( A third step of performing selective pixel-based foreground detection on the pixel-by-pixel basis;
And an active focused sampling method for enhancing the foreground detection rate.
상기 제 3 단계의 탐지 마스크(D) 생성을 위한 전경탐지는 비디오 프레임의 시퀀스 와 샘플링 마스크 를 이용하여 탐지 마스크의 시퀀스 를 찾는 것을 특징으로 하는 영상으로부터 전경탐지 속도 향상을 위한 능동적 집중 샘플링 방법.
The method according to claim 1,
The foreground detection for the generation of the detection mask (D) in the third step is a sequence of video frames And a sampling mask A sequence of detection masks The method comprising the steps of: (a) extracting a plurality of images;
상기 제 3 단계는 상기 전경 확률지도()를 생성한 후 랜덤산발형 샘플링(C3), 중요도 공간확장형 샘플링(C4), 깜짝픽셀 샘플링(C5)을 적용하여 구성되는 것을 특징으로 하는 영상으로부터 전경탐지 속도 향상을 위한 능동적 집중 샘플링 방법.
The method of claim 2,
The third step includes the steps of: ), Random scattering sampling (C3), significance spatial expansion sampling (C4), and surprise pixel sampling (C5) are applied to the active sampling method.
상기 제 1 단계는,
상기 전경 확률지도() 생성을 위해 전경 특성의 추정치를 연산하며,
시간특성 척도()를 탐지 결과의 이력에서 추측하며,
공간특성 척도()를 각 픽셀 주변의 전경 픽셀 수로 추정하며,
주파수특성 척도()를 탐지 결과가 일정 시간 동안 바뀌는 비율을 통해 추정하는 것을 특징으로 하는 영상으로부터 전경탐지 속도 향상을 위한 능동적 집중 샘플링 방법.
The method of claim 3,
In the first step,
The foreground probability map ( ) To calculate the foreground property estimate,
Time characteristic measure ( ) From the history of the detection result,
Spatial Characteristics Scale ( ) Is estimated as the number of foreground pixels around each pixel,
Frequency Characteristics Scale ( ) Is estimated based on a ratio of the detection result changing for a predetermined time. The method of active focused sampling for improving the foreground detection speed from the image.
상기 제 1 단계는 상기 시간적 특성, 상기 공간적 특성, 상기 주파수 특성에 대한 학습률이 각각 αT, αF, αS인 이동 평균을 작동시킴으로써 업데이트하는 것을 특징으로 하는 영상으로부터 전경탐지 속도 향상을 위한 능동적 집중 샘플링 방법.
The method of claim 4,
Wherein the first step updates the temporal characteristic, the spatial characteristic, and the frequency characteristic by operating a moving average whose learning rate is α T , α F , and α S , respectively. Intensive sampling method.
상기 제 1 단계는,
상기 시간특성 척도()에 대해서는 특성을 추정하기 위해 각각의 위치 n에서 그 위치의 탐지 마스크 결과의 이력을
에 의해 연산하며, 상기 값이 1에 가까워 질수록 그 픽셀에서 전경이 출현할 확률이 상승하는 것을 특징으로 하는 영상으로부터 전경탐지 속도 향상을 위한 능동적 집중 샘플링 방법.
The method of claim 5,
In the first step,
The time characteristic measure ( ), The history of the detection mask result at that position in each position n
Lt; RTI ID = 0.0 > And the probability that the foreground appears at the pixel increases as the value approaches 1. The active focused sampling method for improving the foreground detection speed from the image.
상기 제 1 단계는,
에 의해 상기 공간특성 척도()를 연산하며, 중심이 n인 w×w 정사각형 공간 상에서 은 픽셀 n 주위의 공간적 이웃을 나타내며, 가 1에 가깝다는 것은 전경의 일부가 될 확률이 상승하는 것을 나타내는 것을 특징으로 하는 영상으로부터 전경탐지 속도 향상을 위한 능동적 집중 샘플링 방법.
The method of claim 6,
In the first step,
The spatial characteristic measure ( ), And calculates the sum of squares in a w x w square space with center n Represents a spatial neighbor around pixel n, Is closer to 1 indicates that the probability of becoming a part of the foreground is increased. The active focused sampling method for improving the foreground detection speed from the image.
상기 제 1 단계는,
에 의해 상기 주파수특성 척도()를 연산하며, 은 n에서의 주파수 변화 특성을 나내며, 픽셀 n 은 의 값이 0에 가까울수록 전경이 될 확률이 상승하는 것을 나타내는 것을 특징으로 하는 영상으로부터 전경탐지 속도 향상을 위한 능동적 집중 샘플링 방법.
The method of claim 7,
In the first step,
The frequency characteristic measure ( ), Represents the frequency change characteristic at n, and the pixel n And the probability that the foreground becomes larger increases as the value of " 0 " is closer to 0. The active focused sampling method for improving the foreground detection speed from the image.
상기 제 3 단계는 능동적 샘플링 마스크인 상기 샘플링 마스크()를
에 의해 생성하며, 상기 , , 는 각각 상기 랜덤산발형 샘플링(C3), 상기 중요도 공간확장형 샘플링(C4), 상기 깜짝픽셀 샘플링(C5)의 샘플링 마스크를 나타내는 것을 특징으로 하는 영상으로부터 전경탐지 속도 향상을 위한 능동적 집중 샘플링 방법.
The method of claim 8,
In the third step, the sampling mask (which is an active sampling mask) )
, And , , Characterized in that each of the random sampling sampling (C3), the significance spatial expansion sampling (C4) and the sampling of the surprise pixel sampling (C5) represents the sampling mask of the random scatter sampling (C5).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130039436A KR101468861B1 (en) | 2013-04-10 | 2013-04-10 | Active attentional sampling method for accelerating foreground detection from video, and computer-readable recording medium for the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130039436A KR101468861B1 (en) | 2013-04-10 | 2013-04-10 | Active attentional sampling method for accelerating foreground detection from video, and computer-readable recording medium for the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140122573A KR20140122573A (en) | 2014-10-20 |
KR101468861B1 true KR101468861B1 (en) | 2014-12-04 |
Family
ID=51993626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130039436A KR101468861B1 (en) | 2013-04-10 | 2013-04-10 | Active attentional sampling method for accelerating foreground detection from video, and computer-readable recording medium for the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101468861B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101908455B1 (en) * | 2017-01-06 | 2018-10-17 | 비아이에스웍스 주식회사 | Low power Frequency Modulated Continuous Waveform system and controlling method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020021805A (en) * | 2000-05-18 | 2002-03-22 | 요트.게.아. 롤페즈 | Foreground/background detector |
KR20090015456A (en) * | 2007-08-08 | 2009-02-12 | 삼성전자주식회사 | Method and apparatus for estimating a background change, and method and apparatus for detecting a motion |
KR20100086839A (en) * | 2009-01-23 | 2010-08-02 | 삼성테크윈 주식회사 | Method for detecting moving object and surveillance system thereof |
KR20110119056A (en) * | 2010-04-26 | 2011-11-02 | 삼성테크윈 주식회사 | Apparatus for detecting moving object and method thereof |
-
2013
- 2013-04-10 KR KR1020130039436A patent/KR101468861B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020021805A (en) * | 2000-05-18 | 2002-03-22 | 요트.게.아. 롤페즈 | Foreground/background detector |
KR20090015456A (en) * | 2007-08-08 | 2009-02-12 | 삼성전자주식회사 | Method and apparatus for estimating a background change, and method and apparatus for detecting a motion |
KR20100086839A (en) * | 2009-01-23 | 2010-08-02 | 삼성테크윈 주식회사 | Method for detecting moving object and surveillance system thereof |
KR20110119056A (en) * | 2010-04-26 | 2011-11-02 | 삼성테크윈 주식회사 | Apparatus for detecting moving object and method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20140122573A (en) | 2014-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Nighttime dehazing with a synthetic benchmark | |
KR101922683B1 (en) | Method and apparatus for updating a background model used for background subtraction of an image | |
KR101643672B1 (en) | Optical flow tracking method and apparatus | |
Sengar et al. | Moving object area detection using normalized self adaptive optical flow | |
EP1703466B1 (en) | Moving object detection apparatus, method and program | |
JP5975598B2 (en) | Image processing apparatus, image processing method, and program | |
Jeeva et al. | Survey on background modeling and foreground detection for real time video surveillance | |
CN112541867B (en) | Image processing method, device, electronic equipment and computer readable storage medium | |
KR20130121202A (en) | Method and apparatus for tracking object in image data, and storage medium storing the same | |
CN101853497A (en) | Image enhancement method and device | |
Li et al. | Photo-realistic simulation of road scene for data-driven methods in bad weather | |
CN110189265B (en) | Distance energy correlation three-dimensional imaging super pixel repairing method | |
CN109191498A (en) | Object detection method and system based on dynamic memory and motion perception | |
Mahmoudi et al. | Multi-gpu based event detection and localization using high definition videos | |
JP6079076B2 (en) | Object tracking device and object tracking method | |
Chang et al. | Active attentional sampling for speed-up of background subtraction | |
KR101841966B1 (en) | Method and apparatus for removing shadow of moving object in an image | |
CN105160630B (en) | A kind of optical ultra-discrimination rate image rebuilding method | |
CN108876807B (en) | Real-time satellite-borne satellite image moving object detection tracking method | |
JP3953350B2 (en) | Video scene prediction method, apparatus, program, and recording medium | |
KR101468861B1 (en) | Active attentional sampling method for accelerating foreground detection from video, and computer-readable recording medium for the same | |
US9256958B2 (en) | Active attentional sampling method for accelerating background subtraction | |
KR101845174B1 (en) | Apparatus and method for generating superpixel | |
JP2011013978A (en) | Method and apparatus for detecting object based on estimation of background image | |
JP2010097507A (en) | Device, method, and program for extracting movement object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20171023 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20181101 Year of fee payment: 5 |