KR20130013462A - Foreground extraction apparatus and method using ccb and mt lbp - Google Patents

Foreground extraction apparatus and method using ccb and mt lbp Download PDF

Info

Publication number
KR20130013462A
KR20130013462A KR1020110075124A KR20110075124A KR20130013462A KR 20130013462 A KR20130013462 A KR 20130013462A KR 1020110075124 A KR1020110075124 A KR 1020110075124A KR 20110075124 A KR20110075124 A KR 20110075124A KR 20130013462 A KR20130013462 A KR 20130013462A
Authority
KR
South Korea
Prior art keywords
texture
pixel
value
background
reliability
Prior art date
Application number
KR1020110075124A
Other languages
Korean (ko)
Other versions
KR101268596B1 (en
Inventor
노승종
전문구
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020110075124A priority Critical patent/KR101268596B1/en
Publication of KR20130013462A publication Critical patent/KR20130013462A/en
Application granted granted Critical
Publication of KR101268596B1 publication Critical patent/KR101268596B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Abstract

PURPOSE: A foreground detection device and a method using a text property with a square codebook and a multiple boundary value are provided to apply a predetermined boundary value to a combination reliability map, thereby rapidly detecting a foreground from a background. CONSTITUTION: A background modeling unit(110) generates a color background model and a texture background model by modeling of a background. A reliability value calculation unit(120) calculates a color reliability value and a texture reliability value for an inputted image. A reliability map combination unit(130) combines a color reliability map with a texture reliability map corresponding to the inputted image. A detection unit(140) detects a foreground from the background by applying a predetermined boundary value to the generated reliability map. [Reference numerals] (110) Background modeling unit; (120) Reliability value calculation unit; (130) Reliability map combination unit; (140) Detection unit

Description

정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치 및 방법 {Foreground extraction apparatus and method using CCB and MT LBP} Foreground extraction apparatus and method using CCB and MT LBP using square codebook and texture features with multiple boundary values

본 발명은 영상 검출에 관한 것으로, 보다 상세하게는, CCTV와 같이 고정된 영상장치를 통해 촬영되는 화면의 배경(영상)에서 움직이는 물체인 전경(영상)을 검출하는 방안에 관한 것이다.The present invention relates to image detection, and more particularly, to a method for detecting a foreground (image) which is a moving object in the background (image) of a screen photographed through a fixed image device such as CCTV.

배경(background)에서 전경(foreground)을 검출하기 위해서는 배경에 대한 모델링(background modeling)을 미리 해 두어야 한다. 만약, 추후에 프레임이 추가로 입력되었고 입력된 프레임의 내용이 미리 마련된 배경의 내용과 큰 차이가 있다면, 입력된 프레임의 내용 중 '전경'에 대한 정보가 있다고 판단할 수 있는 것이다.In order to detect the foreground in the background, background modeling must be performed in advance. If the frame is additionally input in the future and the content of the input frame is significantly different from the content of the background, it may be determined that there is information on the 'foreground' among the contents of the input frame.

이러한 전경 검출을 위한 배경 모델링 기법은 크게 다음의 3가지 즉 확률 모델 기반, 텍스쳐(texture) 기반, 코드북(codebook) 기반의 기법들로 나뉜다.The background modeling technique for detecting the foreground is largely divided into the following three methods: probability model based, texture based, and codebook based.

먼저, 확률 모델 기반 기법은 화면의 한 화소가 갖는 화소값 패턴 정보를 확률 밀도 함수를 이용하여 모델링한다. 자주 사용되는 확률 밀도 함수로는 Gaussian Mixture Model (GMM)과 커널 함수들이 있다. 하지만, 이러한 기법의 경우 복잡한 확률 모델을 예측 및 계산하는 과정을 거치게 되므로, 연산 속도가 매우 느리며 배경 모델을 생성하기 위한 학습 시간 역시 상대적으로 길다는 단점이 있다.First, the probability model based method models pixel value pattern information of one pixel of a screen using a probability density function. Commonly used probability density functions include Gaussian Mixture Model (GMM) and kernel functions. However, such a technique has a disadvantage in that a computational process is very slow and a learning time for generating a background model is relatively long because the process of predicting and calculating a complex probabilistic model is performed.

다음으로, 텍스쳐 기반 기법은 화소값 자체가 아닌, 한 화소와 이웃하고 있는 화소들간의 관계를 배경 정보로서 모델링하는 방식이다. 가장 널리 이용되는 예로는 M. Heikkila and M. Pietikainen, "A Texture-Based Method for Modeling the Background and Detecting Moving Objects", Pattern Analysis and Machine Intelligence, vol. 28, no.4, 2006에 개시된 바에서 제안된 Local Binary Pattern (LBP), X. Tan and B. Triggs, "Enhanced Local Texture Feature Sets for Face Recognition Under Difficult Lighting Conditions", IEEE transactions on Image Processing, vol. 19, pp. 1635 - 1650, 2010에 개시된 바에서 제안된 Local Ternary Pattern (LTP), 및 S, Liao, G. Zhao, V. Kellokumpu, M. Pietikainen, and S.Z. Li, "Modeling Pixel Process with Scale Invariant Local Patterns for Background Subtraction in Complex Scenes", Computer Vision and Pattern Recognition, pp. 1301-1306, 2010에 개시된 바에서 제안된 Scale Invariant Local Ternary Pattern (SILTP) 기법 등이 있다. 하지만 LBP 기법의 경우 노이즈에 매우 민감하다는 단점이, LTP 기법의 경우 조명의 변화에 민감하다는 단점이 각각 존재한다. SILPT의 경우 조명 및 노이즈 모두에 강건하게 동작하기는 하지만, 중심 화소와 이웃하는 화소들 간의 차이값이 가우시안 분포를 보이지 않는 경우에는 노이즈를 발생시킨다는 문제점이 있다.Next, the texture-based technique is a method of modeling a relationship between one pixel and neighboring pixels as background information, not the pixel value itself. The most widely used examples include M. Heikkila and M. Pietikainen, "A Texture-Based Method for Modeling the Background and Detecting Moving Objects", Pattern Analysis and Machine Intelligence, vol. Proposed Local Binary Pattern (LBP), X. Tan and B. Triggs, "Enhanced Local Texture Feature Sets for Face Recognition Under Difficult Lighting Conditions", IEEE transactions on Image Processing, vol. . 19, pp. Local Ternary Pattern (LTP) as proposed in 1635-1650, 2010, and in S, Liao, G. Zhao, V. Kellokumpu, M. Pietikainen, and S.Z. Li, "Modeling Pixel Process with Scale Invariant Local Patterns for Background Subtraction in Complex Scenes", Computer Vision and Pattern Recognition, pp. Scale Invariant Local Ternary Pattern (SILTP) technique as proposed in 1301-1306, 2010, and the like. However, there are disadvantages in that LBP technique is very sensitive to noise, and LTP technique is sensitive to lighting change. SILPT is robust against both illumination and noise, but has a problem of generating noise when the difference between the center pixel and neighboring pixels does not show a Gaussian distribution.

마지막으로, 코드북 기반 기법은 K. Kyungnam and T.H. Chalidabhongse, "Background modeling and subtraction by codebook construction", International Conference on Image Processing, vol. 5, pp. 3061-3064, 2004에서 처음 제안되었으며, 최근에도 F. Porikli and O. Tuzel, "Baysian Background Modeling for Foreground Detection", VSSN, 2005에 개시된 바, Doshi. H, Trivedi. M, "Hybrid Cone-Cylinder Codebook Model for Foreground Detection with Shadow and Hilight Supression", Advanced Video and Signal-based Surveillance", pp19-19, 2006에 개시된 바에서처럼, 매우 활발하게 연구되고 있다. 이 계열의 기법들에서 배경 모델은 초기에 입력되는 화소값 정보를 모델링한 특수한 형태의 코드북이 된다. 만약 테스트 시 입력된 화소값이 학습되어 있는 코드북 구조의 내부에 위치하면 해당 입력을 배경으로, 그렇지 않으면 전경으로 분류하게 된다. 이 방식의 경우 어떠한 형태의 확률 분포 정보도 사용하지 않아 연산량이 적다는 장점이 있다. 또한 날씨나 임의의 광원에 의한 조명 변화 및 흔들리는 나뭇가지와 같은 배경의 동적인 요소 역시 효율적으로 모델링할 수 있다. 하지만 배경의 밝기 값(intensity)이 작은 영역에서는 지나친 코드요소 겹침 현상이 발생되어 많은 false negative alarm (FNA) 즉, 전경에 해당하는 화소가 배경으로 오분류된 경우를 발생시킨다는 단점이 있다.Finally, codebook based techniques are described in K. Kyungnam and T.H. Chalidabhongse, "Background modeling and subtraction by codebook construction", International Conference on Image Processing, vol. 5, pp. 3061-3064, first proposed in 2004 and recently published in F. Porikli and O. Tuzel, "Baysian Background Modeling for Foreground Detection", VSSN, 2005, Doshi. H, Trivedi. A very active study, as disclosed in M, "Hybrid Cone-Cylinder Codebook Model for Foreground Detection with Shadow and Hilight Supression", Advanced Video and Signal-based Surveillance, pp19-19, 2006. The background model is a special type of codebook modeling the pixel value information that is initially input, and if the pixel value entered during the test is located inside the learned codebook structure, the background is classified as the background and the foreground otherwise. This method does not use any form of probability distribution information, which reduces the amount of computation, and efficiently models the dynamic elements of the background, such as changes in lighting caused by the weather or arbitrary light sources, and shaking tree branches. However, in the area where the brightness of the background is small, excessive code element overlap occurs, causing a large number of fals. se negative alarm (FNA) In other words, a pixel corresponding to the foreground generates a misclassification in the background.

본 발명이 이루고자 하는 기술적 과제는, 배경에서 전경을 신속하면서도 정확하게 자동 검출하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치 및 방법을 제공하는 데 있다.An object of the present invention is to provide an apparatus and method for detecting foreground using a square codebook for automatically and automatically detecting the foreground in a background and a texture feature to which multiple boundary values are applied.

상기 과제를 이루기 위해, 본 발명의 적어도 일 실시예에 의한 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치는, 특정 영역의 일정 시간동안 촬영된 영상 중 고정된 영상인 배경을 상기 배경의 컬러 정보와 텍스쳐 정보를 각 이용하여 모델링함으로써, 컬러 배경 모델과 텍스쳐 배경 모델을 각 생성하는 배경 모델링부; 입력 영상을 구성하는 화소들인 입력 화소들 각각마다, 상기 입력 화소가 상기 촬영된 영상 내에서 움직이는 영상인 전경에 포함될 가능성을 나타내는 값을 상기 컬러 배경 모델을 고려하여 컬러 신뢰도 값으로서 계산하고, 상기 가능성을 나타내는 값을 상기 텍스쳐 배경 모델을 고려하여 텍스쳐 신뢰도 값으로서 계산하는 신뢰도 값 계산부; 상기 입력 영상에 대한 상기 컬러 신뢰도 값들의 배열인 컬러 신뢰도 맵 및 상기 텍스쳐 신뢰도 값들의 배열인 텍스쳐 신뢰도 맵을, 상기 입력 영상에 따라 적응적으로 결합하여 결합 신뢰도 맵을 생성하는 신뢰도 맵 결합부; 및 상기 결합 신뢰도 맵에 기 설정된 경계 값을 적용함으로써 상기 배경에서 상기 전경을 검출하는 검출부를 포함한다.In order to achieve the above object, the foreground detection apparatus using a texture feature applied with a square codebook and multiple boundary values according to at least one embodiment of the present invention, the background is a fixed image of the image photographed for a certain time period of the specific area; A background modeling unit for generating a color background model and a texture background model by modeling the color information and the texture information of each; For each of the input pixels, which are pixels constituting the input image, a value representing the likelihood that the input pixel is included in the foreground which is a moving image in the photographed image is calculated as a color reliability value in consideration of the color background model, and the probability A reliability value calculator which calculates a value representing P as a texture reliability value in consideration of the texture background model; A reliability map combiner which generates a combined reliability map by adaptively combining a color reliability map, which is an array of color reliability values, and a texture reliability map, which is an array of texture reliability values, according to the input image; And a detector configured to detect the foreground from the background by applying a predetermined boundary value to the combined reliability map.

여기서, 상기 배경 모델링부는 상기 배경의 상기 일정 시간동안의 화소값들의 패턴을 최소한으로 감싸며 각각의 크기가 일정한 하나 이상의 정육면체들인 하나 이상의 코드 요소들의 집합으로써 모델링함으로써, 상기 컬러 배경 모델을 생성한다. 이 때, 상기 컬러 배경 모델을 생성함에 있어 상기 배경은 YCbCr 영상이고, 상기 패턴은 Y축, Cb축, Cr축 상의 3차원 패턴이다.Here, the background modeling unit generates the color background model by modeling as a set of one or more code elements, each of which is one or more cubes of which the size of the pixel values of the background is minimized and each size is constant. In this case, in generating the color background model, the background is a YCbCr image, and the pattern is a three-dimensional pattern on the Y axis, the Cb axis, and the Cr axis.

여기서, 상기 배경 모델링부는 상기 배경의 각 화소를 중심 화소로 하여 상기 배경에서 상기 중심 화소로부터 일정 픽셀만큼 이격된 일정 개수의 화소들인 주변 화소들 각각과 상기 중심 화소 간의 상기 일정 시간 동안의 화소값 차이를 고려하여, 상기 중심 화소마다 상기 주변 화소들 각각에 대한 상기 화소값 차이를 결정함으로써, 상기 텍스쳐 배경 모델을 생성한다. 이 때, 상기 텍스쳐 배경 모델을 생성함에 있어 상기 배경은 Y 성분만 갖는 영상이다. 이 때, 상기 일정 픽셀은 2개의 픽셀이고, 상기 일정 개수의 화소들은 6개의 화소이다.Here, the background modeling unit uses the pixels of the background as the center pixels, and the pixel value difference during the predetermined time period between the center pixel and each of the peripheral pixels which is a predetermined number of pixels spaced apart from the center pixel in the background by the predetermined pixel. In consideration of this, the texture background model is generated by determining the pixel value difference for each of the peripheral pixels for each of the center pixels. At this time, in generating the texture background model, the background is an image having only a Y component. In this case, the predetermined pixel is two pixels, and the predetermined number of pixels is six pixels.

여기서, 상기 신뢰도 값 계산부는 상기 입력 화소마다, 상기 입력 화소가 상기 패턴의 내부에 위치하는지 여부 및 그림자의 영향을 받았는지 여부를 고려하여, 상기 컬러 신뢰도 값을 계산한다.Here, the reliability value calculator calculates the color reliability value for each of the input pixels by considering whether the input pixel is located inside the pattern and whether the shadow is affected by the shadow.

여기서, 상기 신뢰도 값 계산부는 상기 입력 화소마다, 상기 입력 화소를 상기 중심 화소로 할 경우의 상기 주변 화소와의 화소값 차이가 해당 상기 결정된 화소값 차이 이하인지 여부를, 상기 입력 화소에 대한 상기 주변 화소들 각각마다 계산하고, 계산된 개수를 정규화하고 정규화된 결과를 상기 텍스쳐 신뢰도 값으로서 결정한다.Here, the reliability value calculator is configured to determine whether the pixel value difference from the peripheral pixel when the input pixel is the center pixel is equal to or less than the determined pixel value difference for each of the input pixels. Computation is performed for each pixel, the calculated number is normalized and the normalized result is determined as the texture reliability value.

여기서, 상기 신뢰도 맵 결합부는 상기 입력 화소마다, 상기 컬러 신뢰도 값과 상기 텍스쳐 신뢰도 값의 차이가 임계치보다 큰지 여부를 고려하여 상기 결합 신뢰도 맵을 생성한다. 이 때, 상기 신뢰도 맵 결합부는 상기 컬러 신뢰도 값이 상기 텍스쳐 신뢰도 값보다 큰지 여부, 및 상기 입력 화소가 갖는 텍스쳐의 양과 상기 배경의 해당 화소가 갖는 텍스쳐의 양 각각이 기준치 이하인지 여부를 더 고려하여, 상기 결합 신뢰도 맵을 생성한다.The reliability map combiner generates the combined reliability map for each of the input pixels by considering whether a difference between the color reliability value and the texture reliability value is greater than a threshold. In this case, the reliability map combiner further considers whether the color reliability value is greater than the texture reliability value, and whether each of the amount of texture of the input pixel and the amount of texture of the corresponding pixel of the background is equal to or less than a reference value. And generate the combined reliability map.

상기 과제를 이루기 위해, 본 발명의 적어도 일 실시예에 의한 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법은 (a) 특정 영역의 일정 시간동안 촬영된 영상 중 고정된 영상인 배경을 상기 배경의 컬러 정보와 텍스쳐 정보를 각 이용하여 모델링함으로써, 컬러 배경 모델과 텍스쳐 배경 모델을 각 생성하는 단계; (b) 입력 영상을 구성하는 화소들인 입력 화소들 각각마다, 상기 입력 화소가 상기 촬영된 영상 내에서 움직이는 영상인 전경에 포함될 가능성을 나타내는 값을 상기 컬러 배경 모델을 고려하여 컬러 신뢰도 값으로서 계산하고, 상기 가능성을 나타내는 값을 상기 텍스쳐 배경 모델을 고려하여 텍스쳐 신뢰도 값으로서 계산하는 단계; (c) 상기 입력 영상에 대한 상기 컬러 신뢰도 값들의 배열인 컬러 신뢰도 맵 및 상기 텍스쳐 신뢰도 값들의 배열인 텍스쳐 신뢰도 맵을, 상기 입력 영상에 따라 적응적으로 결합하여 결합 신뢰도 맵을 생성하는 단계; 및 (d) 상기 결합 신뢰도 맵에 기 설정된 경계 값을 적용함으로써 상기 배경에서 상기 전경을 검출하는 단계를 포함한다.In order to achieve the above object, the foreground detection method using a texture feature applied with a square codebook and multiple boundary values according to at least one embodiment of the present invention (a) a background of a fixed image of the image photographed for a certain time in a specific area; Generating a color background model and a texture background model by modeling the color information and the texture information of the background, respectively; (b) For each of the input pixels which are pixels constituting the input image, a value representing the possibility of the input pixel being included in the foreground which is a moving image in the photographed image is calculated as a color reliability value in consideration of the color background model. Calculating a value representing the likelihood as a texture reliability value in consideration of the texture background model; (c) adaptively combining a color reliability map, which is an array of color reliability values, and a texture reliability map, which is an array of texture reliability values, according to the input image to generate a combined reliability map; And (d) detecting the foreground in the background by applying a predetermined boundary value to the combined reliability map.

여기서, 상기 (a) 단계는 상기 배경의 상기 일정 시간동안의 화소값들의 패턴을 최소한으로 감싸며 각각의 크기가 일정한 하나 이상의 정육면체들인 하나 이상의 코드 요소들의 집합으로써 모델링함으로써, 상기 컬러 배경 모델을 생성한다. 이 때, 상기 컬러 배경 모델을 생성함에 있어 상기 배경은 YCbCr 영상이고, 상기 패턴은 Y축, Cb축, Cr축 상의 3차원 패턴이다.Here, the step (a) generates the color background model by modeling as a set of one or more code elements each of which is one or more cubes each having a constant size and at least wrapping the pattern of pixel values of the background. . In this case, in generating the color background model, the background is a YCbCr image, and the pattern is a three-dimensional pattern on the Y axis, the Cb axis, and the Cr axis.

여기서, 상기 (a) 단계는 상기 배경의 각 화소를 중심 화소로 하여 상기 배경에서 상기 중심 화소로부터 일정 픽셀만큼 이격된 일정 개수의 화소들인 주변 화소들 각각과 상기 중심 화소 간의 상기 일정 시간 동안의 화소값 차이를 고려하여, 상기 중심 화소마다 상기 주변 화소들 각각에 대한 상기 화소값 차이를 결정함으로써, 상기 텍스쳐 배경 모델을 생성한다. 이 때, 상기 텍스쳐 배경 모델을 생성함에 있어 상기 배경은 Y 성분만 갖는 영상이고, 상기 일정 픽셀은 2개의 픽셀이고, 상기 일정 개수의 화소들은 6개의 화소이다.Here, the step (a) is a pixel during the predetermined time period between the center pixel and each of the peripheral pixels which are a predetermined number of pixels spaced apart from the center pixel in the background by using each pixel of the background as a center pixel. In consideration of the value difference, the texture background model is generated by determining the pixel value difference for each of the peripheral pixels for each of the center pixels. In this case, in generating the texture background model, the background is an image having only Y components, the predetermined pixel is two pixels, and the predetermined number of pixels is six pixels.

여기서, 상기 (b) 단계는 상기 입력 화소마다, 상기 입력 화소가 상기 패턴의 내부에 위치하는지 여부 및 그림자의 영향을 받았는지 여부를 고려하여, 상기 컬러 신뢰도 값을 계산한다.Here, the step (b) calculates the color reliability value for each of the input pixels by considering whether the input pixel is located inside the pattern and whether the shadow is affected by the shadow.

여기서, 상기 (b) 단계는 상기 입력 화소마다, 상기 입력 화소를 상기 중심 화소로 할 경우의 상기 주변 화소와의 화소값 차이가 해당 상기 결정된 화소값 차이 이하인지 여부를, 상기 입력 화소에 대한 상기 주변 화소들 각각마다 계산하고, 계산된 개수를 정규화하고 정규화된 결과를 상기 텍스쳐 신뢰도 값으로서 결정한다.In the step (b), it is determined whether the pixel value difference with the peripheral pixel when the input pixel is the center pixel is equal to or less than the determined pixel value difference for each of the input pixels. Computation is performed for each of the neighboring pixels, the calculated number is normalized, and the normalized result is determined as the texture reliability value.

여기서, 상기 (c) 단계는 상기 입력 화소마다, 상기 컬러 신뢰도 값과 상기 텍스쳐 신뢰도 값의 차이가 임계치보다 큰지 여부를 고려하여 상기 결합 신뢰도 맵을 생성한다. 이 때, 상기 (c) 단계는 상기 컬러 신뢰도 값이 상기 텍스쳐 신뢰도 값보다 큰지 여부, 및 상기 입력 화소가 갖는 텍스쳐의 양과 상기 배경의 해당 화소가 갖는 텍스쳐의 양 각각이 기준치 이하인지 여부를 더 고려하여, 상기 결합 신뢰도 맵을 생성한다.Here, in step (c), the combined reliability map is generated by considering whether the difference between the color reliability value and the texture reliability value is greater than a threshold value for each of the input pixels. In this case, the step (c) further considers whether the color reliability value is greater than the texture reliability value, and whether each of the amount of the texture of the input pixel and the amount of the texture of the corresponding pixel of the background is equal to or less than a reference value. To generate the combined reliability map.

본 발명의 적어도 일 실시예에 따른 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치 및 방법에 의하면, 배경에서 전경을 신속하면서도 정확하게 자동 검출할 수 있다.According to at least one embodiment of the present invention, the foreground detection apparatus and method using the texture feature to which the square codebook and the multiple boundary values are applied can quickly and accurately detect the foreground in the background.

도 1은 본 발명의 적어도 일 실시예에 따른 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치를 나타내는 블록도이다.
도 2는 본 발명의 적어도 일 실시예에 따른 컬러 배경 모델을 설명하기 위한 참고도이다.
도 3은 도 1에 도시된 신뢰도 값 계산부(120)의 동작을 설명하기 위한 플로우챠트이다.
도 4는 기존 코드북과 본 발명에서 제안하는 코드북을 비교하기 위한 참고도이다.
도 5는 본 발명의 적어도 일 실시예에 따른 텍스쳐 배경 모델을 설명하기 위한 참고도이다.
도 6a 및 도 6b는 도 1에 도시된 신뢰도 맵 결합부(130)의 동작을 설명하기 위한 플로우챠트들이다.
도 7은 본 발명의 적어도 일 실시예에 따른 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법을 나타내는 플로우챠트이다.
1 is a block diagram illustrating a foreground detection apparatus using a texture feature to which a square codebook and multiple boundary values are applied according to at least one embodiment of the present invention.
2 is a reference diagram for describing a color background model according to at least one embodiment of the present invention.
FIG. 3 is a flowchart for describing an operation of the reliability value calculator 120 shown in FIG. 1.
4 is a reference diagram for comparing an existing codebook with a codebook proposed by the present invention.
5 is a reference diagram for describing a texture background model according to at least one embodiment of the present invention.
6A and 6B are flowcharts for describing an operation of the reliability map combiner 130 shown in FIG. 1.
7 is a flowchart illustrating a foreground detection method using a texture feature to which a square codebook and multiple boundary values are applied according to at least one embodiment of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 그 첨부 도면을 설명하는 내용을 참조하여야만 한다.In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings that illustrate preferred embodiments of the present invention and the accompanying drawings.

이하, 본 발명의 적어도 일 실시예에 의한 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치 및 방법을 첨부한 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, an apparatus and method for detecting a foreground using a square codebook and a texture feature to which multiple boundary values are applied according to at least one embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 적어도 일 실시예에 따른 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치를 나타내는 블록도이고, 도 2는 본 발명의 적어도 일 실시예에 따른 컬러 배경 모델을 설명하기 위한 참고도이고, 도 3은 도 1에 도시된 신뢰도 값 계산부(120)의 동작을 설명하기 위한 플로우챠트이고, 도 4는 기존 코드북과 본 발명에서 제안하는 코드북을 비교하기 위한 참고도이고, 도 5는 본 발명의 적어도 일 실시예에 따른 텍스쳐 배경 모델을 설명하기 위한 참고도이다.1 is a block diagram illustrating a foreground detection apparatus using a texture feature applied with a square codebook and multiple boundary values according to at least one embodiment of the present invention, and FIG. 2 illustrates a color background model according to at least one embodiment of the present invention. 3 is a flowchart for explaining an operation of the reliability value calculator 120 shown in FIG. 1, and FIG. 4 is a reference diagram for comparing an existing codebook with a codebook proposed by the present invention. 5 is a reference diagram for explaining a texture background model according to at least one embodiment of the present invention.

도 1에 도시된 바에 따르면 본 발명의 적어도 일 실시예에 따른 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치는, 배경 모델링부(110), 신뢰도 값 계산부(120), 신뢰도 맵 결합부(130), 및 검출부(140)로 구성된다.As shown in FIG. 1, the foreground detection apparatus using a texture feature to which a square codebook and multiple boundary values are applied according to at least one embodiment of the present invention includes a background modeling unit 110, a reliability value calculator 120, and a reliability map. Combination unit 130 and the detection unit 140 is composed of.

배경 모델링부(110)는 특정 영역의 '일정 시간동안 촬영된(즉, 학습된)' 영상 중 고정된 영상인 '배경'을 그 배경의 컬러 정보와 텍스쳐 정보를 각 이용하여 모델링함으로써, 컬러 배경 모델과 텍스쳐 배경 모델을 각 생성한다. 여기서, '각' 생성한다 함은, 컬러 정보를 이용하여 컬러 배경 모델을 생성함을 의미하고 텍스쳐 정보를 이용하여 텍스쳐 배경 모델을 생성함을 의미한다.The background modeling unit 110 models a 'background', which is a fixed image among 'images taken for a predetermined time (that is, learned)' of a specific region, by using the color information and the texture information of the background, respectively. Create each model and texture background model. Here, generating each means that a color background model is generated using color information, and a texture background model is generated using texture information.

신뢰도 값 계산부(120)는 입력 영상을 구성하는 화소들인 입력 화소들 각각마다, 입력 화소가 '전경'에 포함될 가능성을 나타내는 값인 '신뢰도 값'을 계산한다. 구체적으로, 신뢰도 값 계산부(120)는 컬러 배경 모델을 고려하여 '컬러 신뢰도 값'을 계산하고, 텍스쳐 배경 모델을 고려하여 '텍스쳐 신뢰도 값'을 계산한다. 즉, 컬러 신뢰도 값이란 컬러 배경 모델을 고려하여 계산된 신뢰도 값을 의미하고, 텍스쳐 신뢰도 값이란 텍스쳐 배경 모델을 고려하여 계산된 신뢰도 값을 의미한다. 컬러 신뢰도 값과 텍스쳐 신뢰도 값 모두, 0이상 1이하의 값을 갖는 확률값이다.The reliability value calculator 120 calculates a 'reliability value' that is a value indicating a possibility that the input pixel is included in the 'foreground' for each of the input pixels that are pixels constituting the input image. In detail, the reliability value calculator 120 calculates a 'color reliability value' in consideration of the color background model and calculates a 'texture reliability value' in consideration of the texture background model. That is, the color reliability value means a reliability value calculated in consideration of the color background model, and the texture reliability value means a reliability value calculated in consideration of the texture background model. Both the color reliability value and the texture reliability value are probability values having a value of 0 or more and 1 or less.

배경 모델링부(110)와 신뢰도 값 계산부(120)의 동작을 보다 구체적으로 설명한다.The operation of the background modeling unit 110 and the reliability value calculator 120 will be described in more detail.

먼저, '배경 모델링부(110)가 컬러 배경 모델을 생성하고, 신뢰도 값 계산부(120)가 컬러 신뢰도 값을 계산하는 동작'을 구체적으로 설명한다.First, an operation in which the background modeling unit 110 generates a color background model and the reliability value calculator 120 calculates a color reliability value will be described in detail.

배경 모델링부(110)는 배경의 '상기 일정 시간동안의 화소값들의 패턴'(도 2의 (a)에서 식별번호 210, 216 모두 그와 같은 '패턴'의 일 례들임)을 최소한으로 감싸는 '하나 이상의 정육면체들'을 이용하여 모델링함으로써, 컬러 배경 모델을 생성한다. 여기서, '하나 이상의 정육면체들' 각각의 크기는 서로 같다(도 2의 (b) 참조). 이처럼, 컬러 배경 모델을 생성함에 있어, 배경은 YCbCr 영상이고 상기 패턴은 Y축, Cb축, Cr축 상의 3차원 패턴이다. 본 명세서에서 '코드 요소(code-element)'는 상기 '정육면체'를 의미한다(도 2의 (b) 참조). 이미 언급했듯이, 코드 요소 각각의 크기는 항상 고정되어 있는데 이는 컬러 범위를 표현하기 위해 정육면체의 크기를 변화시켜 나갔던 기존의 기법 예컨대, K. Kyungnam and T.H. Chalidabhongse, "Background modeling and subtraction by codebook construction", International Conference on Image Processing, vol. 5, pp. 3061-3064, 2004에 개시된 바나, Doshi. H, Trivedi. M, "Hybrid Cone-Cylinder Codebook Model for Foreground Detection with Shadow and Hilight Supression", Advanced Video and Signal-based Surveillance", pp19-19, 2006에 개시된 바와는 차별화된다.The background modeling unit 110 wraps the background of the 'pattern of pixel values for the predetermined time' (the identification numbers 210 and 216 are examples of such a 'pattern' in FIG. 2A) to the minimum. By modeling using one or more cubes, a color background model is created. Here, the sizes of each of the 'one or more cubes' are the same (see FIG. 2B). As such, in generating the color background model, the background is a YCbCr image and the pattern is a three-dimensional pattern on the Y-axis, the Cb-axis, and the Cr-axis. In the present specification, the 'code-element' refers to the 'cube' (see FIG. 2B). As already mentioned, the size of each of the code elements is always fixed, which is the traditional technique for changing the size of the cube to represent the color range, such as K. Kyungnam and T.H. Chalidabhongse, "Background modeling and subtraction by codebook construction", International Conference on Image Processing, vol. 5, pp. 3061-3064, 2004, Barna, Doshi. H, Trivedi. M, "Hybrid Cone-Cylinder Codebook Model for Foreground Detection with Shadow and Hilight Supression", Advanced Video and Signal-based Surveillance ", pp19-19, 2006.

신뢰도 값 계산부(120)는 입력 화소마다, 입력 화소가 '상기 패턴의 내부에 위치하는지 여부' 및 '그림자의 영향을 받았는지 여부'를 고려하여, 컬러 신뢰도 값을 계산한다. 구체적으로, 신뢰도 값 계산부(120)에 입력 영상이 입력되면(제310 단계), 신뢰도 값 계산부(120)는 입력 화소마다 그 입력 화소가 코드북에 매칭되어 있는지 여부, 즉, 그 입력 화소가 코드 요소들의 내부에 위치하는지 여부를 판단하고(제312 단계)(도 2의 경우를 예로 들어 설명하면 식별번호 214의 화소는 코드 요소들의 외부에 위치하고 있으므로 '전경'에 포함된 화소로 평가되는 데 반해, 식별번호 212의 화소는 코드 요소(들)의 내부에 위치하므로 '배경'에 포함된 화소로 평가됨), 제312단계에서 그 입력 화소가 코드 요소들의 내부에 위치한다고 판단되면 그 입력 화소에 대한 '컬러 신뢰도 값'을 0으로 결정하고 즉 그 입력 화소는 '배경'할 가능성이 100%라고 판단하고(제314 단계), 반면 제312 단계에서 그 입력 화소가 코드 요소들의 내부에 위치하지 않는다고 판단되면, 그 입력 화소의 그림자 조건을 체크하고(제316 단계) '코드북 매칭시 매칭된 최대 채널의 수(cnt_CB)'와 '그림자 조건값(cnt_SC)'을 고려하여 그 입력 화소의 컬러 신뢰도 값을 계산한다(제318 단계). 여기서, '코드북 매칭시 매칭된 최대 채널의 수'란 입력 화소의 Y값(Y채널), Cb값(Cb채널), Cr값(Cr채널) 중 코드북의 내부에 위치한 채널의 수를 의미한다. 그림자 조건값의 의미에 대해서는 Doshi. H, Trivedi. M, "Hybrid Cone-Cylinder Codebook Model for Foreground Detection with Shadow and Hilight Supression", Advanced Video and Signal-based Surveillance", pp19-19, 2006에도 개시되어 있다. The reliability value calculator 120 calculates the color reliability value for each input pixel in consideration of whether the input pixel is located inside the pattern and whether the shadow is influenced by the shadow. In detail, when an input image is input to the reliability value calculator 120 (step 310), the reliability value calculator 120 determines whether the input pixel matches the codebook for each input pixel, that is, the input pixel is It is determined whether the code elements are located inside the code elements (step 312). (In the case of FIG. 2, the identification number 214 is located outside the code elements. On the contrary, since the pixel of identification number 212 is located inside the code element (s), it is evaluated as a pixel included in the background). If it is determined in step 312 that the input pixel is located inside the code elements, Determine that the 'color confidence value' is zero, i.e., determine that the input pixel is 100% likely to be 'background' (step 314), whereas in step 312 the input pixel is not located inside the code elements. If it is determined, the shadow condition of the input pixel is checked (step 316), and the color reliability value of the input pixel is considered in consideration of 'maximum number of channels matched during codebook matching (cnt_CB)' and 'shadow condition value (cnt_SC)'. Calculate (step 318). Herein, 'the maximum number of channels matched during codebook matching' refers to the number of channels located inside the codebook among the Y value (Y channel), Cb value (Cb channel), and Cr value (Cr channel) of the input pixel. For the meaning of shadow condition values, see Doshi. H, Trivedi. M, "Hybrid Cone-Cylinder Codebook Model for Foreground Detection with Shadow and Hilight Supression", Advanced Video and Signal-based Surveillance ", pp19-19, 2006.

이미 언급하였듯이 본 발명에 따르면 모든 코드 요소들의 크기가 동일한데, 그 이유는 False Positive Alarm 즉, '배경에 해당하는 화소가 전경으로 오분류된 경우'의 수를 최소화하기 위한 것으로 도 4가 이를 잘 표현해 주고 있다. 도 4 (a)의 좌측 도면은 학습 기간 동안(=위에서 언급한 '일정 시간'동안) 입력된 학습 샘플의 분포를 나타낸다. 여기서, 학습 샘플이란 학습 기간 동안 입력된 영상들(프레임들)의 화소값들을 의미하며 도 4에 표현된 점들은 모두 YCbCr 공간상에 표현되어 있는 것이다. 위에서 언급한 K. Kyungnam and T.H. Chalidabhongse, "Background modeling and subtraction by codebook construction", International Conference on Image Processing, vol. 5, pp. 3061-3064, 2004에서는 이러한 샘플 분포를 커버하기 위해 도 4의 (a)의 우측 도면과 같은 코드 요소들(400, 402, ...)을 생성시키게 된다. 하지만 이러한 형태의 코드북의 경우 식별번호 410에 표시된 것과 같은 false negative alarm 영역을 생성시킬 수 있게 된다. 가령 입력 화소(420)가 실제로는 '전경'에 포함된 화소라 하더라도, 도 4의 (a)에 따르면 이를 '배경'에 포함된 화소로 오분류할 수 있는 것이다. 반면, 본 발명에 따라 코드북이 정사각 코드북이라면(도 4의 (b) 참조) 그러한 에러 영역이 발생하지 않고, 따라서 보다 정교한 전경 검출이 가능해 진다. 코드 요소의 코드북 크기를 고정시킨 것을 제외하고, '코드북 생성', '업데이트', '제거' 방법에 대해 본 발명의 적어도 일 실시예는 K. Kyungnam and T.H. Chalidabhongse, "Background modeling and subtraction by codebook construction", International Conference on Image Processing, vol. 5, pp. 3061-3064, 2004에 개시된 바를 활용하였다.As mentioned above, according to the present invention, all the code elements have the same size, and the reason for this is to minimize the number of false positive alarms, ie, the case where a pixel corresponding to the background is misclassified into the foreground. I express it. The left figure of FIG. 4 (a) shows the distribution of the learning samples input during the learning period (= during the above-described 'time'). Here, the learning sample refers to pixel values of images (frames) input during the learning period, and all of the points shown in FIG. 4 are represented in the YCbCr space. K. Kyungnam and T.H. Chalidabhongse, "Background modeling and subtraction by codebook construction", International Conference on Image Processing, vol. 5, pp. 3061-3064, 2004 generate code elements 400, 402, ... as shown on the right side of FIG. 4 (a) to cover this sample distribution. However, this type of codebook can generate a false negative alarm region as indicated by the identification number 410. For example, even if the input pixel 420 is actually a pixel included in the foreground, according to FIG. 4A, the input pixel 420 may be misclassified as a pixel included in the background. On the other hand, if the codebook is a square codebook according to the present invention (see Fig. 4 (b)), such an error area does not occur, and thus more accurate foreground detection is possible. Except for fixing the codebook size of code elements, at least one embodiment of the present invention for the 'codebook generation', 'update' and 'removal' methods is described in K. Kyungnam and T.H. Chalidabhongse, "Background modeling and subtraction by codebook construction", International Conference on Image Processing, vol. 5, pp. 3061-3064, 2004, was used.

한편, 코드북 매칭의 의미에 대해 부연 설명하면, 코드북에 매칭되었는지 여부를 확인하기 위해서는, 즉, 입력 화소가 코드 요소들의 내부에 위치하는지 여부를 확인하기 위해서는 코드북 내에 '배경'이 가질 수 있는 컬러 범위 정보가 저장되어 있어야 한다. 예를 들어, 학습시 관찰된 컬러값의 범위가 0<Y<100, 75<Cr<100, 125<Cb<200이라고 가정하면, 만약, 'Y=120, Cr=80, Cb=0'인 입력 화소가 들어오면 이 화소는 관찰된 Y범위를 만족하지 않으므로 '전경'으로 분류되어야 한다.Meanwhile, the meaning of codebook matching is further explained. In order to check whether the codebook is matched, that is, to determine whether the input pixel is located inside the code elements, the color range that the 'background' may have in the codebook The information must be stored. For example, assuming that the range of color values observed during learning is 0 <Y <100, 75 <Cr <100, 125 <Cb <200, if 'Y = 120, Cr = 80, Cb = 0' When an input pixel comes in, it must be classified as 'foreground' because it does not satisfy the observed Y range.

지금까지 '배경 모델링부(110)가 컬러 배경 모델을 생성하고, 신뢰도 값 계산부(120)가 컬러 신뢰도 값을 계산하는 동작'을 구체적으로 설명하였는데, 이하에서는, '배경 모델링부(110)가 텍스쳐 배경 모델을 생성하고, 신뢰도 값 계산부(120)가 텍스쳐 신뢰도 값을 계산하는 동작'을 구체적으로 설명한다.Up to now, the background modeling unit 110 generates a color background model, and the reliability value calculator 120 calculates the color reliability value in detail. Hereinafter, the background modeling unit 110 An operation of generating a texture background model and calculating the texture reliability value by the reliability value calculator 120 will be described in detail.

배경 모델링부(110)는 배경의 각 화소를 중심 화소로 하여 배경에서 중심 화소로부터 일정 픽셀(예컨대 2개의 픽셀(도 5 참조))만큼 이격된 일정 개수의 화소들(예컨대 6개의 화소들(도 5 참조))인 주변 화소들 각각과 중심 화소간의 '일정 시간' 동안의 화소값 차이를 고려하여, 중심 화소마다 주변 화소들 각각에 대한 화소값 차이를 결정함으로써, 텍스쳐 배경 모델을 생성한다. 여기서 '결정된 화소값 차이'란 도 5에 기재된 'back_range'를 의미한다. 도 5의 경우를 예로 들어 설명하면, 배경 모델링부(110)는 중심 화소(C)의 주변 화소들(도 5에서 0, 1, 2, 3, 4, 5 로 표시된 6개의 화소들) 각각마다 중심 화소(C)와의 화소값 차이를 각각 'back_range_i(i는 0≤i≤5인 정수)'로서 결정한다. 이처럼, 텍스쳐 배경 모델을 생성함에 있어, 배경은 Y 성분만 갖는 영상이다. 텍스쳐 배경 모델을 생성하는 것은 이진 코드 생성을 위한 경계값 정보를 생성함을 의미하며, 컬러 배경 모델이 하나의 코드북으로 이루어졌던 것과 달리, 텍스쳐 배경 모델은 6개의 코드북 CB_i 들로 구성될 수 있다. CB_i를 생성하기 위한 입력은 중심 화소 C와 i번째 주변 화소 간의 Y 성분 차이 값이 되는데, 구체적인 코드북 생성 방법은 컬러 모델의 그것과 거의 일치한다. 차이점은 컬러 배경 모델이 코드북 생성을 위한 입력으로 해당 화소의 (Y, Cr, Cb) 벡터를 사용하였던 것과 달리, CB_i의 경우에는 중심 화소 및 i번째 주변 화소 간의 Y 성분 차이 값을 사용한다는 점이다.The background modeling unit 110 uses a predetermined number of pixels spaced apart from the center pixel in the background by a predetermined pixel (for example, two pixels (see FIG. 5)) with each pixel of the background as the center pixel. A texture background model is generated by determining the pixel value difference for each of the neighboring pixels for each center pixel in consideration of the pixel value difference during the predetermined time between each of the neighboring pixels and the center pixel. Herein, the 'determined pixel value difference' means 'back_range' described in FIG. 5. Referring to the case of FIG. 5 as an example, the background modeling unit 110 is provided for each of the peripheral pixels of the central pixel C (six pixels represented by 0, 1, 2, 3, 4, and 5 in FIG. 5). The pixel value difference from the center pixel C is determined as 'back_range_i' (i is an integer of 0 ≦ i ≦ 5). As such, in generating the texture background model, the background is an image having only Y components. Generating the texture background model means generating boundary value information for generating binary codes. Unlike the color background model consisting of one codebook, the texture background model may be composed of six codebooks CB_i. The input for generating CB_i is a Y component difference value between the center pixel C and the i-th peripheral pixel. The specific codebook generation method is almost identical to that of the color model. The difference is that the color background model uses the (Y, Cr, Cb) vector of the pixel as an input for codebook generation. In the case of CB_i, the Y component difference value between the center pixel and the i-th peripheral pixel is used. .

신뢰도 값 계산부(120)는 입력 화소마다, 입력 화소를 중심 화소로 할 경우의 주변 화소와의 화소값 차이가 해당 '결정된 화소값 차이' 이하인지 여부를, 입력 화소에 대한 주변 화소들 각각마다 계산하고, 계산된 개수를 정규화하고 정규화된 결과를 텍스쳐 신뢰도 값으로서 결정한다.The reliability value calculator 120 determines, for each of the input pixels, whether the pixel value difference from the peripheral pixel when the input pixel is the center pixel is equal to or smaller than the corresponding 'determined pixel difference'. Calculate, normalize the calculated number and determine the normalized result as texture confidence value.

이러한 신뢰도 값 계산부(120)의 동작을 도 5를 통해 설명한다. 일단 CB_i가 생성되면, 배경이 가질 수 있는 중심 화소(C)와 주변 화소(도 5의 (a)에서 0, 1, 2, 3, 4, 5로 표기된 화소들)간의 Y성분 차이 값 패턴을 도 5의 (c)와 같이 표현할 수 있다. 도 5의 (c)에서, 식별번호 510 내지 518 각각은 코드 요소를 의미하며, 점선들간의 간격(back_range)은 가능한 Y성분 차이 값의 범위를 나타낸다. 만약 입력 화소가 들어왔고, 그 입력 화소와 i번째 주변 화소간의 Y성분 차이 값이 '결정된 화소값 차이(back_range_i)' 이하라면, 그 입력 화소는 1로, 그렇지 않으면 0으로 표기되는 것이다(도 5의 (c) 참조). 이러한 방식이 6개의 CB_i에 대해 수행되면, 입력 화소에 대한 응답 값으로서 6차원의 0-1 벡터를 얻을 수 있게 된다. 이 벡터는 후술할 텍스쳐 신뢰도 맵을 예측하는데 유용하게 사용된다. 신뢰도 값 계산부(120)는 다음의 수학식 1에 따라 텍스쳐 신뢰도 값을 계산한다.The operation of the reliability value calculator 120 will be described with reference to FIG. 5. Once CB_i is generated, the Y component difference value pattern between the center pixel C and the surrounding pixels (pixels denoted by 0, 1, 2, 3, 4, and 5 in FIG. It can be expressed as shown in FIG. In FIG. 5C, each of the identification numbers 510 to 518 represents a code element, and a back_range between dotted lines indicates a range of possible Y component difference values. If the input pixel has entered and the Y component difference value between the input pixel and the i-th peripheral pixel is equal to or smaller than the 'determined pixel value difference (back_range_i)', the input pixel is denoted as 1, otherwise 0 is indicated (FIG. 5). (C) of). If this method is performed for six CB_i, a six-dimensional 0-1 vector can be obtained as a response value for the input pixel. This vector is useful for predicting a texture reliability map to be described later. The reliability value calculator 120 calculates a texture reliability value according to Equation 1 below.

[ 수학식 1 ][Equation 1]

conf_t_(p) = (이진코드 '0'의 개수)/6conf_t_ (p) = (number of binary codes '0') / 6

여기서 conf_t_(p)는 입력 화소 p에 대한 텍스쳐 신뢰도 값을 의미하고, 이진코드 0의 개수란 위 6차원의 0-1벡터 중 0의 개수를 의미하고, 6으로 나누는 것은 정규화하는 것을 의미한다.Here, conf_t_ (p) denotes a texture reliability value for the input pixel p, and the number of binary codes 0 refers to the number of 0s in the 0-1 vectors of the above 6-dimensional, and dividing by 6 means normalization.

신뢰도 맵 결합부(130)는 입력 영상에 대한 '컬러 신뢰도 값들의 배열'인 '컬러 신뢰도 맵' 및 '텍스쳐 신뢰도 값들의 배열'인 '텍스쳐 신뢰도 맵'을 그 입력 영상에 따라 적응적으로 결합하여 결합 신뢰도 맵을 생성한다.The reliability map combiner 130 adaptively combines a 'color reliability map', which is an array of color reliability values, and a texture reliability map, which is an array of texture reliability values, according to the input image. Generate a joint reliability map.

신뢰도 맵 결합부(130)는 한 입력 화소에 대한 결합 신뢰도 값을 컬러 신뢰도 값과 텍스쳐 신뢰도 값을 이용하여 다음의 수학식 2에 따라 계산할 수 있다. 결합 신뢰도 맵이란 이와 같이 계산된 결합 신뢰도 값들의 배열인 것이다.The reliability map combiner 130 may calculate the combined reliability value of one input pixel using the color reliability value and the texture reliability value according to Equation 2 below. The joint reliability map is an array of joint reliability values calculated as described above.

[ 수학식 2 ][Equation 2]

conf_com= α * conf_t + (1-α) * conf_cconf_com = α * conf_t + (1-α) * conf_c

여기서, conf_com이란 결합 신뢰도 값을 의미하고, α(단, α는 0≤α≤1의 실수)는 가중치를 의미하며, conf_t란 텍스쳐 신뢰도 값을 의미하고 conf_c란 컬러 신뢰도 값을 의미한다.Here, conf_com means a coupling reliability value, α (where α is a real number of 0≤α≤1) means a weight, conf_t denotes a texture reliability value, and conf_c denotes a color reliability value.

α는 컬러 신뢰도 값과 텍스쳐 신뢰도 값간의 차이(ConDiff), 배경 화소가 갖는 텍스쳐의 양(amt_back), 입력 화소가 갖는 텍스쳐의 양(amt_ins), 두 텍스쳐 양들의 차이(amtDiff) 및 해당 화소의 색상(Lab값)에 의해 결정된다. 구체적으로는 아래의 수학식 3의 관계를 따른다.α is the difference between the color confidence value and the texture confidence value (ConDiff), the amount of texture the background pixel has (amt_back), the amount of texture the input pixel has (amt_ins), the difference between the two texture quantities (amtDiff) and the color of the pixel. It is determined by (Lab value). Specifically, the relationship of Equation 3 below is followed.

[ 수학식 3 ][Equation 3]

Figure pat00001
Figure pat00001

여기서, i는 모든 주변 화소들 각각의 index를 의미하고, j는 모든 코드 요소들 각각의 index를 의미하고, elem_mean_ij는 i번째 주변 화소, j번째 코드 요소의 중심 좌표를 의미하며, k는 해당 화소의 텍스쳐 배경 모델이 갖는 총 코드 요소들의 수를 의미한다.Here, i denotes an index of each of all peripheral pixels, j denotes an index of each of all code elements, elem_mean_ij denotes an i-th peripheral pixel and a center coordinate of the j-th code element, and k is a corresponding pixel. The total number of code elements the texture background model of.

검출부(140)는 결합 신뢰도 맵에 기 설정된 경계 값을 적용함으로써, '배경'에서 '전경'을 검출한다.The detection unit 140 detects the 'foreground' in the 'background' by applying a predetermined boundary value to the combined reliability map.

도 6a 및 도 6b는 도 1에 도시된 신뢰도 맵 결합부(130)의 동작을 설명하기 위한 플로우챠트들이다.6A and 6B are flowcharts for describing an operation of the reliability map combiner 130 shown in FIG. 1.

신뢰도 맵 결합부(130)는 입력 화소마다, '컬러 신뢰도 값과 텍스쳐 신뢰도 값의 차이가 임계치보다 큰지 여부'를 고려하여 결합 신뢰도 맵을 생성한다(제610단계).The reliability map combiner 130 generates a combined reliability map for each input pixel in consideration of whether the difference between the color reliability value and the texture reliability value is greater than the threshold (operation 610).

나아가, 신뢰도 맵 결합부(130)는 '컬러 신뢰도 값이 텍스쳐 신뢰도 값보다 큰지 여부', 및 '입력 화소가 갖는 텍스쳐의 양과 배경의 해당 화소가 갖는 텍스쳐의 양 각각이 기준치 이하인지 여부'를 더 고려하여, 결합 신뢰도 맵을 생성한다(제612 내지 제622 단계).Further, the reliability map combiner 130 further adds whether the color reliability value is greater than the texture reliability value and whether the amount of the texture of the input pixel and the amount of the texture of the corresponding pixel of the background is less than or equal to the reference value. In consideration, a combined reliability map is generated (steps 612 to 622).

구체적으로, 제610 단계 내지 제622 단계는 아래와 같이 수행된다.Specifically, steps 610 to 622 are performed as follows.

우선, 신뢰도 맵 결합부(130)는 ConDiff를 계산하고(제600 단계), ConDiff가 임계치(예컨대, 0.3)보다 큰지 여부를 판단하여, 컬러 신뢰도 값과 텍스쳐 신뢰도 값이 모두 신뢰할 만한 것인지 여부를 판단한다(제610 단계).First, the reliability map combiner 130 calculates ConDiff (step 600), determines whether the ConDiff is greater than a threshold (eg, 0.3), and determines whether both the color reliability value and the texture reliability value are reliable. Step 610.

제610 단계에서 ConDiff가 임계치보다 크지 않다고 판단되면, 신뢰도 맵 결합부(130)는 컬러 신뢰도 값과 텍스쳐 신뢰도 값이 모두 신뢰할 수 있는 것으로 판단하여 가중치 값(α)을 0.5로 결정한다.If it is determined in step 610 that the ConDiff is not greater than the threshold, the reliability map combiner 130 determines that the color reliability value and the texture reliability value are both reliable and determines the weight value α as 0.5.

반면, 제610 단계에서 ConDiff가 임계치보다 크다고 판단되면, 신뢰도 맵 결합부(130)는 컬러 신뢰도 값과 텍스쳐 신뢰도 값 중 하나는 틀린 것으로 판단하여, 어느 신뢰도 값이 틀렸는지 찾기 위한 프로세스들(제612 내지 제622 단계)을 추가로 수행한다.On the other hand, if it is determined in step 610 that the ConDiff is greater than the threshold value, the reliability map combiner 130 determines that one of the color reliability value and the texture reliability value is wrong, thereby finding which reliability value is wrong (step 612). To step 622).

신뢰도 맵 결합부(130)는 컬러 신뢰도 값이 텍스쳐 신뢰도 값보다 큰지 여부를 판단하고(제612 단계), 컬러 신뢰도 값이 텍스쳐 신뢰도 값보다 크다고 판단되면 배경의 텍스쳐 양과 입력 화소의 텍스쳐 양을 점검한다(제614 단계). 이는 amt_ins 및 amt_back이 둘 다 예컨대 15보다 크며 amtDiff는 예컨대 10보다 작은지 여부를 점검하는 것을 의미한다. 만약 제614 단계에서 점검하는 이러한 조건들이 만족되면, 이는 입력 및 배경에 텍스쳐가 거의 없었음을 의미하므로, 신뢰도 맵 결합부(130)는 텍스쳐 신뢰도 값을 신뢰할 수 없다고 판단하고 가중치(α)를 0으로 결정하고, 그 외의 경우라면 가중치(α)를 0.5로 결정한다.The reliability map combiner 130 determines whether the color reliability value is greater than the texture reliability value (step 612), and if it is determined that the color reliability value is greater than the texture reliability value, the reliability map combiner 130 checks the texture amount of the background and the texture amount of the input pixel. (Step 614). This means checking whether amt_ins and amt_back are both greater than eg 15 and amtDiff is less than 10 for example. If the conditions checked in step 614 are satisfied, this means that there is almost no texture in the input and the background, so the reliability map combiner 130 determines that the texture reliability value is unreliable and the weight α is 0. In other cases, the weight α is determined to be 0.5.

반면, 제612 단계에서 컬러 신뢰도 값이 텍스쳐 신뢰도 값 이하라고 판단되면, 신뢰도 맵 결합부(130)는 texture pattern analysis 모듈을 수행해 줌(제616 단계)으로써 해당 텍스쳐가 그림자에 의해 생긴 것인지의 여부를 판단한다. 만약 해당 텍스쳐가 그림자에 의해 생긴 것이 아니라고 판단되면, 신뢰도 맵 결합부(130)는 가중치 α를 1로 설정함으로써 컬러 신뢰도 값을 무시하고, 그렇지 않은 경우에는 가중치 α를 0으로 설정함으로써 텍스쳐 신뢰도 값을 무시하게 된다. 단, 배경의 텍스쳐 양이 많았던 상황에서 입력 영상 내에 텍스쳐 변화가 발생한 경우에는 가중치 α를 0.5로 설정해 주어, 텍스쳐 신뢰도 값과 배경 신뢰도 값을 둘 다 고려한다.On the other hand, if it is determined in step 612 that the color reliability value is less than or equal to the texture reliability value, the reliability map combiner 130 performs a texture pattern analysis module (step 616) to determine whether the corresponding texture is caused by a shadow. To judge. If it is determined that the texture is not caused by the shadow, the reliability map combining unit 130 ignores the color reliability value by setting the weight α to 1, and otherwise sets the texture reliability value by setting the weight α to 0. Ignore it. However, if a texture change occurs in the input image when the amount of background texture is large, the weight α is set to 0.5 to consider both the texture reliability value and the background reliability value.

도 6b는 제616 단계를 상세하게 설명하는 플로우챠트이다.6B is a flowchart for describing operation 616 in detail.

texture pattern analysis 모듈은 해당 입력에서 발생한 텍스쳐 변화가 전경에 의한 것인지 아니면 그림자에 의한 것인지 여부를 판단하기 위한 모듈이다. 이를 위해, 신뢰도 맵 결합부(130)는 우선, 입력 화소의 텍스쳐 양(amt_ins)과 배경 화소의 텍스쳐 양(amt_back)을 체크한다(제618 단계).The texture pattern analysis module is used to determine whether the texture change in the input is caused by foreground or shadow. To this end, the reliability map combiner 130 first checks the texture amount (amt_ins) of the input pixel and the texture amount (amt_back) of the background pixel (step 618).

제618 단계에서 amt_ins 및 amt_back의 크기가 둘 다 작다고 판단되면, 이는 배경 및 입력에서 검출된 텍스쳐의 양이 적었음을 의미한다. 이 경우, 신뢰도 맵 결합부(130)는 텍스쳐 배경 모델에 의한 텍스쳐 신뢰도 값의 신뢰도가 매우 떨어진다고 판단하고 가중치(α) 값을 0으로 설정하여 텍스쳐 배경 모델의 영향이 무시되도록 한다.If it is determined in step 618 that both the size of amt_ins and amt_back are small, this means that the amount of texture detected in the background and input is small. In this case, the reliability map combiner 130 determines that the reliability of the texture reliability value by the texture background model is very low, and sets the weight α to 0 so that the influence of the texture background model is ignored.

한편, 제618 단계에서 amt_back은 작았지만 amt_ins의 크기가 크다고 판단되면, 이는 전경 또는 그림자에 의해 배경의 무늬가 가려진 경우를 뜻한다. 이 경우, 신뢰도 맵 결합부(130)는 입력된 화소의 cnt_SC값 및 컬러 정보를 체크함으로써 해당 화소가 전경인지 아니면 그림자인지 여부를 최종 결정해야 하고, 만약 해당 화소가 그림자이면 가중치(α)를 0으로 설정하며 전경인 경우에는 가중치(α)를 1로 설정해 주게 된다(제620 및 제622 단계).On the other hand, if amt_back is small in step 618 but the size of amt_ins is determined to be large, this means that the background pattern is covered by the foreground or shadow. In this case, the reliability map combiner 130 must finally determine whether the pixel is the foreground or the shadow by checking the cnt_SC value and the color information of the input pixel. If the pixel is a shadow, the weight α is 0. In the case of the foreground, the weight α is set to 1 (steps 620 and 622).

한편, 제618 단계에서 amt_back의 크기가 충분히 크다고 판단되면, 별다른 특징을 예상할 수 없으므로 신뢰도 맵 결합부(130)는 가중치(α)값을 0.5로 설정하여 컬러 배경 모델과 텍스쳐 배경 모델의 기여도가 같아지도록 해 준다.On the other hand, if it is determined in step 618 that the size of amt_back is large enough, since no special feature can be expected, the reliability map combiner 130 sets the weight α to 0.5 to contribute to the color background model and the texture background model. To be the same.

도 7은 본 발명의 적어도 일 실시예에 따른 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법을 나타내는 플로우챠트이다.7 is a flowchart illustrating a foreground detection method using a texture feature to which a square codebook and multiple boundary values are applied according to at least one embodiment of the present invention.

우선, 본 발명의 적어도 일 실시예에 따른 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치는, 특정 영역의 일정 시간동안 촬영된 영상 중 고정된 영상인 '배경'을 그 배경의 컬러 정보와 텍스쳐 정보를 각 이용하여 모델링함으로써, 컬러 배경 모델과 텍스쳐 배경 모델을 각 생성한다(제710 단계).First, the foreground detection apparatus using the texture feature applied with the square codebook and the multi-boundary value according to at least one embodiment of the present invention includes a color of the background of 'background' which is a fixed image of the image photographed for a certain time. In operation 710, the color background model and the texture background model are generated by modeling the information and the texture information.

제710 단계 후에, 본 발명의 적어도 일 실시예에 따른 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치는 입력 화소마다, 입력 화소가 '전경'에 포함될 가능성을 나타내는 값을, 컬러 배경 모델을 고려하여 컬러 신뢰도 값으로서 계산하고, 텍스쳐 배경 모델을 고려하여 텍스쳐 신뢰도 값으로서 계산한다(제720 단계).After operation 710, the foreground detection apparatus using the texture feature to which the square codebook and the multi-boundary value are applied according to at least one embodiment of the present invention may display a value indicating the possibility that the input pixel is included in the 'foreground' for each input pixel. In consideration of the model, it is calculated as the color reliability value, and in consideration of the texture background model, it is calculated as the texture reliability value (step 720).

제720 단계 후에, 본 발명의 적어도 일 실시예에 따른 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치는, 입력 영상에 대한 '컬러 신뢰도 값들의 배열'인 '컬러 신뢰도 맵' 및 '텍스쳐 신뢰도 값들의 배열'인 '텍스쳐 신뢰도 맵'을 그 입력 영상에 따라 적응적으로 결합하여 결합 신뢰도 맵을 생성한다(제730 단계).After operation 720, the foreground detection apparatus using the texture feature to which the square codebook and the multiple boundary values are applied according to at least one embodiment of the present invention may include a color reliability map and an array of color reliability values for the input image. In operation 730, a combined reliability map is generated by adaptively combining the 'texture reliability map', which is an array of texture reliability values, according to the input image.

제730 단계 후에, 본 발명의 적어도 일 실시예에 따른 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치는 결합 신뢰도 맵에 기 설정된 경계 값을 적용함으로써 '배경'에서 '전경'을 검출한다(제740 단계).After operation 730, the foreground detection apparatus using the texture feature to which the square codebook and the multiple boundary values are applied according to at least one embodiment of the present invention detects the 'foreground' in the 'background' by applying a preset boundary value to the combined reliability map. (Step 740).

이상에서 언급된 본 발명에 의한 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법을 컴퓨터에서 실행시키기 위한 프로그램은 컴퓨터로 읽을 수 있는 기록매체에 저장될 수 있다.A program for executing a foreground detection method using a square codebook and a texture feature applied with multiple boundary values according to the present invention as described above on a computer may be stored in a computer-readable recording medium.

여기서, 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬(ROM), 플로피 디스크, 하드 디스크 등), 및 광학적 판독 매체(예를 들면, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc))와 같은 저장매체를 포함한다.Here, the computer-readable recording medium may be a magnetic storage medium (for example, a ROM, a floppy disk, a hard disk, etc.), and an optical reading medium (for example, a CD-ROM, a DVD). : Digital Versatile Disc).

이제까지 본 발명을 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로, 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점들은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described above with reference to preferred embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

110: 배경 모델링부 120: 신뢰도 값 계산부
130: 신뢰도 맵 결합부 140: 검출부
110: background modeling unit 120: reliability value calculation unit
130: reliability map coupling unit 140: detection unit

Claims (20)

특정 영역의 일정 시간동안 촬영된 영상 중 고정된 영상인 배경을 상기 배경의 컬러 정보와 텍스쳐 정보를 각 이용하여 모델링함으로써, 컬러 배경 모델과 텍스쳐 배경 모델을 각 생성하는 배경 모델링부;
입력 영상을 구성하는 화소들인 입력 화소들 각각마다, 상기 입력 화소가 상기 촬영된 영상 내에서 움직이는 영상인 전경에 포함될 가능성을 나타내는 값을 상기 컬러 배경 모델을 고려하여 컬러 신뢰도 값으로서 계산하고, 상기 가능성을 나타내는 값을 상기 텍스쳐 배경 모델을 고려하여 텍스쳐 신뢰도 값으로서 계산하는 신뢰도 값 계산부;
상기 입력 영상에 대한 상기 컬러 신뢰도 값들의 배열인 컬러 신뢰도 맵 및 상기 텍스쳐 신뢰도 값들의 배열인 텍스쳐 신뢰도 맵을, 상기 입력 영상에 따라 적응적으로 결합하여 결합 신뢰도 맵을 생성하는 신뢰도 맵 결합부; 및
상기 결합 신뢰도 맵에 기 설정된 경계 값을 적용함으로써 상기 배경에서 상기 전경을 검출하는 검출부를 포함하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치.
A background modeling unit for generating a color background model and a texture background model by modeling a background, which is a fixed image, among the images photographed for a predetermined time in a specific region by using the color information and the texture information of the background, respectively;
For each of the input pixels, which are pixels constituting the input image, a value representing the likelihood that the input pixel is included in the foreground which is a moving image in the photographed image is calculated as a color reliability value in consideration of the color background model, and the probability A reliability value calculator which calculates a value representing P as a texture reliability value in consideration of the texture background model;
A reliability map combiner which generates a combined reliability map by adaptively combining a color reliability map, which is an array of color reliability values, and a texture reliability map, which is an array of texture reliability values, according to the input image; And
And a detection unit for detecting the foreground in the background by applying a predetermined boundary value to the combined reliability map.
제1 항에 있어서, 상기 배경 모델링부는
상기 배경의 상기 일정 시간동안의 화소값들의 패턴을 최소한으로 감싸며 각각의 크기가 일정한 하나 이상의 정육면체들인 하나 이상의 코드 요소들의 집합으로써 모델링함으로써, 상기 컬러 배경 모델을 생성하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치.
The method of claim 1, wherein the background modeling unit
Square codebooks and multiples are generated by modeling as a set of one or more code elements that are at least one cubes of each size having a constant wrap pattern of pixel values of the background at least. A foreground detection device using a texture feature to which a boundary value is applied.
제2 항에 있어서, 상기 컬러 배경 모델을 생성함에 있어 상기 배경은 YCbCr 영상이고, 상기 패턴은 Y축, Cb축, Cr축 상의 3차원 패턴인 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치.3. The texture of claim 2, wherein the background is a YCbCr image and the pattern is a three-dimensional pattern on a Y-axis, a Cb-axis, and a Cr-axis. Foreground detection device using the feature. 제1 항에 있어서, 상기 배경 모델링부는
상기 배경의 각 화소를 중심 화소로 하여 상기 배경에서 상기 중심 화소로부터 일정 픽셀만큼 이격된 일정 개수의 화소들인 주변 화소들 각각과 상기 중심 화소 간의 상기 일정 시간 동안의 화소값 차이를 고려하여, 상기 중심 화소마다 상기 주변 화소들 각각에 대한 상기 화소값 차이를 결정함으로써, 상기 텍스쳐 배경 모델을 생성하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치.
The method of claim 1, wherein the background modeling unit
Considering the pixel value difference during the predetermined time between each of the peripheral pixels, which are a predetermined number of pixels spaced apart from the center pixel by a predetermined pixel in the background, with each pixel of the background as the center pixel, And the texture background model is generated by determining the difference in pixel values for each of the neighboring pixels for each pixel, and the foreground detection apparatus using the texture feature to which the multiple boundary values are applied.
제4 항에 있어서, 상기 텍스쳐 배경 모델을 생성함에 있어 상기 배경은 Y 성분만 갖는 영상인 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치.5. The foreground detection apparatus of claim 4, wherein the background is an image having only a Y component in generating the texture background model. 6. 제4 항에 있어서, 상기 일정 픽셀은 2개의 픽셀이고, 상기 일정 개수의 화소들은 6개의 화소인 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치.5. The foreground detection apparatus of claim 4, wherein the predetermined pixel is two pixels and the predetermined number of pixels is six pixels. 6. 제2 항에 있어서, 상기 신뢰도 값 계산부는
상기 입력 화소마다, 상기 입력 화소가 상기 패턴의 내부에 위치하는지 여부 및 그림자의 영향을 받았는지 여부를 고려하여, 상기 컬러 신뢰도 값을 계산하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치.
The method of claim 2, wherein the reliability value calculator
For each of the input pixels, the color reliability value is calculated based on whether the input pixel is located inside the pattern and whether the shadow is affected by the shadow. Foreground detection apparatus using a.
제4 항에 있어서, 상기 신뢰도 값 계산부는
상기 입력 화소마다,
상기 입력 화소를 상기 중심 화소로 할 경우의 상기 주변 화소와의 화소값 차이가 해당 상기 결정된 화소값 차이 이하인지 여부를, 상기 입력 화소에 대한 상기 주변 화소들 각각마다 계산하고, 계산된 개수를 정규화하고 정규화된 결과를 상기 텍스쳐 신뢰도 값으로서 결정하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치.
The method of claim 4, wherein the reliability value calculator
For each of the input pixels,
When the input pixel is the center pixel, whether the pixel value difference with the peripheral pixel is equal to or smaller than the determined pixel value difference is calculated for each of the peripheral pixels with respect to the input pixel, and the calculated number is normalized. And a normalized result is determined as the texture reliability value, and the foreground detection apparatus using the texture feature to which the multi-boundary value is applied to the square codebook.
제1 항에 있어서, 상기 신뢰도 맵 결합부는
상기 입력 화소마다, 상기 컬러 신뢰도 값과 상기 텍스쳐 신뢰도 값의 차이가 임계치보다 큰지 여부를 고려하여 상기 결합 신뢰도 맵을 생성하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치.
The method of claim 1, wherein the reliability map combiner
Foreground detection apparatus using a texture feature applied to the square codebook and the multiple boundary values, characterized in that for generating the combined reliability map, considering whether the difference between the color reliability value and the texture reliability value is greater than a threshold value for each input pixel .
제9 항에 있어서, 상기 신뢰도 맵 결합부는
상기 컬러 신뢰도 값이 상기 텍스쳐 신뢰도 값보다 큰지 여부, 및 상기 입력 화소가 갖는 텍스쳐의 양과 상기 배경의 해당 화소가 갖는 텍스쳐의 양 각각이 기준치 이하인지 여부를 더 고려하여, 상기 결합 신뢰도 맵을 생성하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치.
10. The method of claim 9, wherein the reliability map combiner
Generating the combined reliability map by further considering whether the color reliability value is greater than the texture reliability value and whether each of the amount of texture of the input pixel and the amount of texture of the corresponding pixel of the background is equal to or less than a reference value. An apparatus for detecting foreground using a square codebook and a texture feature to which multiple boundary values are applied.
(a) 특정 영역의 일정 시간동안 촬영된 영상 중 고정된 영상인 배경을 상기 배경의 컬러 정보와 텍스쳐 정보를 각 이용하여 모델링함으로써, 컬러 배경 모델과 텍스쳐 배경 모델을 각 생성하는 단계;
(b) 입력 영상을 구성하는 화소들인 입력 화소들 각각마다, 상기 입력 화소가 상기 촬영된 영상 내에서 움직이는 영상인 전경에 포함될 가능성을 나타내는 값을 상기 컬러 배경 모델을 고려하여 컬러 신뢰도 값으로서 계산하고, 상기 가능성을 나타내는 값을 상기 텍스쳐 배경 모델을 고려하여 텍스쳐 신뢰도 값으로서 계산하는 단계;
(c) 상기 입력 영상에 대한 상기 컬러 신뢰도 값들의 배열인 컬러 신뢰도 맵 및 상기 텍스쳐 신뢰도 값들의 배열인 텍스쳐 신뢰도 맵을, 상기 입력 영상에 따라 적응적으로 결합하여 결합 신뢰도 맵을 생성하는 단계; 및
(d) 상기 결합 신뢰도 맵에 기 설정된 경계 값을 적용함으로써 상기 배경에서 상기 전경을 검출하는 단계를 포함하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법.
(a) generating a color background model and a texture background model by modeling a background, which is a fixed image of the image photographed for a certain time period, using the color information and the texture information of the background, respectively;
(b) For each of the input pixels which are pixels constituting the input image, a value representing the possibility of the input pixel being included in the foreground which is a moving image in the photographed image is calculated as a color reliability value in consideration of the color background model. Calculating a value representing the likelihood as a texture reliability value in consideration of the texture background model;
(c) adaptively combining a color reliability map, which is an array of color reliability values, and a texture reliability map, which is an array of texture reliability values, according to the input image to generate a combined reliability map; And
and (d) detecting the foreground in the background by applying a predetermined boundary value to the combined reliability map.
제11 항에 있어서, 상기 (a) 단계는
상기 배경의 상기 일정 시간동안의 화소값들의 패턴을 최소한으로 감싸며 각각의 크기가 일정한 하나 이상의 정육면체들인 하나 이상의 코드 요소들의 집합으로써 모델링함으로써, 상기 컬러 배경 모델을 생성하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법.
12. The method of claim 11, wherein step (a)
Square codebooks and multiples are generated by modeling as a set of one or more code elements that are at least one cubes of each size having a constant wrap pattern of pixel values of the background at least. A foreground detection method using texture features with edge values applied.
제12 항에 있어서,
상기 컬러 배경 모델을 생성함에 있어 상기 배경은 YCbCr 영상이고, 상기 패턴은 Y축, Cb축, Cr축 상의 3차원 패턴인 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법.
The method of claim 12,
In generating the color background model, the background is a YCbCr image and the pattern is a three-dimensional pattern on a Y-axis, a Cb-axis, and a Cr-axis. .
제11 항에 있어서, 상기 (a) 단계는
상기 배경의 각 화소를 중심 화소로 하여 상기 배경에서 상기 중심 화소로부터 일정 픽셀만큼 이격된 일정 개수의 화소들인 주변 화소들 각각과 상기 중심 화소 간의 상기 일정 시간 동안의 화소값 차이를 고려하여, 상기 중심 화소마다 상기 주변 화소들 각각에 대한 상기 화소값 차이를 결정함으로써, 상기 텍스쳐 배경 모델을 생성하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법.
12. The method of claim 11, wherein step (a)
Considering the pixel value difference during the predetermined time between each of the peripheral pixels, which are a predetermined number of pixels spaced apart from the center pixel by a predetermined pixel in the background, with each pixel of the background as the center pixel, And the texture background model is generated by determining the pixel value difference for each of the peripheral pixels for each pixel, and the foreground detection method using the texture feature to which the multiple boundary values are applied.
제14 항에 있어서,
상기 텍스쳐 배경 모델을 생성함에 있어 상기 배경은 Y 성분만 갖는 영상인 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법.
15. The method of claim 14,
In generating the texture background model, the background is an image having only a Y component, and the foreground detection method using a texture feature to which a multi-boundary value is applied.
제14 항에 있어서,
상기 일정 픽셀은 2개의 픽셀이고, 상기 일정 개수의 화소들은 6개의 화소인 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법.
15. The method of claim 14,
The predetermined pixel is two pixels, and the predetermined number of pixels is six pixels, the foreground detection method using a texture feature to which a square codebook and multiple boundary values are applied.
제12 항에 있어서, 상기 (b) 단계는
상기 입력 화소마다, 상기 입력 화소가 상기 패턴의 내부에 위치하는지 여부 및 그림자의 영향을 받았는지 여부를 고려하여, 상기 컬러 신뢰도 값을 계산하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법.
The method of claim 12, wherein step (b)
For each of the input pixels, the color reliability value is calculated based on whether the input pixel is located inside the pattern and whether the shadow is affected by the shadow. Foreground detection method using.
제14 항에 있어서, 상기 (b) 단계는
상기 입력 화소마다,
상기 입력 화소를 상기 중심 화소로 할 경우의 상기 주변 화소와의 화소값 차이가 해당 상기 결정된 화소값 차이 이하인지 여부를, 상기 입력 화소에 대한 상기 주변 화소들 각각마다 계산하고, 계산된 개수를 정규화하고 정규화된 결과를 상기 텍스쳐 신뢰도 값으로서 결정하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법.
The method of claim 14, wherein step (b)
For each of the input pixels,
When the input pixel is the center pixel, whether the pixel value difference with the peripheral pixel is equal to or smaller than the determined pixel value difference is calculated for each of the peripheral pixels with respect to the input pixel, and the calculated number is normalized. And a normalized result is determined as the texture reliability value, and the foreground detection method using the texture feature to which the multi-boundary value and the square codebook are applied.
제11 항에 있어서, 상기 (c) 단계는
상기 입력 화소마다, 상기 컬러 신뢰도 값과 상기 텍스쳐 신뢰도 값의 차이가 임계치보다 큰지 여부를 고려하여 상기 결합 신뢰도 맵을 생성하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법.
The method of claim 11, wherein step (c)
For each input pixel, the combined reliability map is generated by considering whether the difference between the color reliability value and the texture reliability value is greater than a threshold value. .
제19 항에 있어서, 상기 (c) 단계는
상기 컬러 신뢰도 값이 상기 텍스쳐 신뢰도 값보다 큰지 여부, 및 상기 입력 화소가 갖는 텍스쳐의 양과 상기 배경의 해당 화소가 갖는 텍스쳐의 양 각각이 기준치 이하인지 여부를 더 고려하여, 상기 결합 신뢰도 맵을 생성하는 것을 특징으로 하는 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 방법.
The method of claim 19, wherein step (c)
Generating the combined reliability map by further considering whether the color reliability value is greater than the texture reliability value and whether each of the amount of texture of the input pixel and the amount of texture of the corresponding pixel of the background is equal to or less than a reference value. A foreground detection method using a texture feature to which a square codebook and multiple boundary values are applied.
KR1020110075124A 2011-07-28 2011-07-28 Foreground extraction apparatus and method using CCB and MT LBP KR101268596B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110075124A KR101268596B1 (en) 2011-07-28 2011-07-28 Foreground extraction apparatus and method using CCB and MT LBP

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110075124A KR101268596B1 (en) 2011-07-28 2011-07-28 Foreground extraction apparatus and method using CCB and MT LBP

Publications (2)

Publication Number Publication Date
KR20130013462A true KR20130013462A (en) 2013-02-06
KR101268596B1 KR101268596B1 (en) 2013-06-04

Family

ID=47893913

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110075124A KR101268596B1 (en) 2011-07-28 2011-07-28 Foreground extraction apparatus and method using CCB and MT LBP

Country Status (1)

Country Link
KR (1) KR101268596B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140123394A (en) * 2013-04-12 2014-10-22 삼성전자주식회사 Imaging apparatus and controlling method thereof
KR20190118078A (en) * 2018-04-09 2019-10-17 한화테크윈 주식회사 Method for distinguishing object from backgrounds

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169997B (en) * 2017-05-31 2020-04-21 上海大学 Background subtraction method for night environment
CN108805922B (en) * 2018-04-27 2022-04-01 河海大学 Image texture feature extraction method for local pixel homogenization

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101249737B1 (en) * 2008-12-03 2013-04-03 한국전자통신연구원 Apparatus for tracking an object using a moving camera and method thereof
KR101064946B1 (en) * 2009-08-19 2011-09-15 한국전자통신연구원 Object abstraction apparatus based multi image analysis and its method
KR101282196B1 (en) * 2009-12-11 2013-07-04 한국전자통신연구원 Apparatus and method for separating foreground and background of based codebook In a multi-view image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140123394A (en) * 2013-04-12 2014-10-22 삼성전자주식회사 Imaging apparatus and controlling method thereof
KR20190118078A (en) * 2018-04-09 2019-10-17 한화테크윈 주식회사 Method for distinguishing object from backgrounds

Also Published As

Publication number Publication date
KR101268596B1 (en) 2013-06-04

Similar Documents

Publication Publication Date Title
US10318848B2 (en) Methods for object localization and image classification
US9008439B2 (en) Image processing method and system
US20160004935A1 (en) Image processing apparatus and image processing method which learn dictionary
Hosseini et al. UFS-Net: A unified flame and smoke detection method for early detection of fire in video surveillance applications using CNNs
US20150125074A1 (en) Apparatus and method for extracting skin area to block harmful content image
Ahmad et al. Overhead view person detection using YOLO
JP2022506905A (en) Systems and methods for assessing perceptual systems
CN109902576B (en) Training method and application of head and shoulder image classifier
Xiang et al. Moving object detection and shadow removing under changing illumination condition
KR101268596B1 (en) Foreground extraction apparatus and method using CCB and MT LBP
Gao et al. Forest fire smoke detection based on visual smoke root and diffusion model
KR101406334B1 (en) System and method for tracking multiple object using reliability and delayed decision
CN111368634B (en) Human head detection method, system and storage medium based on neural network
CN115797736A (en) Method, device, equipment and medium for training target detection model and target detection
Tao A label-relevance multi-direction interaction network with enhanced deformable convolution for forest smoke recognition
KR20190018274A (en) Method and apparatus for recognizing a subject existed in an image based on temporal movement or spatial movement of a feature point of the image
CN111027434B (en) Training method and device of pedestrian recognition model and electronic equipment
CN111881775A (en) Real-time face recognition method and device
CN115937991A (en) Human body tumbling identification method and device, computer equipment and storage medium
CN111402185A (en) Image detection method and device
CN114565918A (en) Face silence living body detection method and system based on multi-feature extraction module
CN114120208A (en) Flame detection method, device, equipment and storage medium
Kim et al. Development of a real-time automatic passenger counting system using head detection based on deep learning
CN115346143A (en) Behavior detection method, electronic device, and computer-readable medium
KR101748412B1 (en) Method and apparatus for detecting pedestrian using joint aggregated channel features

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160610

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 7