KR101014296B1 - Apparatus and method for processing image using Gaussian model - Google Patents

Apparatus and method for processing image using Gaussian model Download PDF

Info

Publication number
KR101014296B1
KR101014296B1 KR1020090025833A KR20090025833A KR101014296B1 KR 101014296 B1 KR101014296 B1 KR 101014296B1 KR 1020090025833 A KR1020090025833 A KR 1020090025833A KR 20090025833 A KR20090025833 A KR 20090025833A KR 101014296 B1 KR101014296 B1 KR 101014296B1
Authority
KR
South Korea
Prior art keywords
sample
pixel
block
unit
unit block
Prior art date
Application number
KR1020090025833A
Other languages
Korean (ko)
Other versions
KR20100107649A (en
Inventor
김창수
이대연
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020090025833A priority Critical patent/KR101014296B1/en
Publication of KR20100107649A publication Critical patent/KR20100107649A/en
Application granted granted Critical
Publication of KR101014296B1 publication Critical patent/KR101014296B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/40Tree coding, e.g. quadtree, octree
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Abstract

가우시안 모델을 이용한 영상 처리 장치 및 방법이 개시된다. 영상 분할부는 입력받은 원본 영상프레임을 일정한 크기의 단위블록으로 분할한다. 블록 샘플링부는 원본 영상프레임 상에서 사전에 설정된 기준개수의 인접한 단위블록으로 이루어진 상위블록으로부터 샘플 단위블록을 선택한다. 화소 샘플링부는 가우시안 모델에 의해 샘플 단위블록을 구성하는 복수의 화소 중 표본화소가 원본 영상프레임에서 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 결정한다. 화소 분류부는 단위블록들 중에서 전경영역에 해당하는 표본화소가 포함된 단위블록인 표본 단위블록을 구성하는 화소들에 대해 사전에 설정된 규칙에 따른 우선순위를 부여한다. 전경영역 결정부는 표본 단위블록을 구성하는 화소들 중에서 최상위 우선순위가 부여된 화소들에 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하고, 가우시안 모델의 적용 결과에 따라 하위 우선순위가 부여된 화소들이 전경영역에 해당하는지 여부를 결정한다. 본 발명에 따르면, 최상위 우선순위가 부여된 화소에 대해서만 가우시안 모델을 적용하고, 하위 우선순위가 부여된 화소에 대하여는 가우시안 모델의 적용 결과에 따라 전경영역에 해당하는지 여부를 판단함으로써 영상프레임으로부터 전경영역을 빠르고 정확하게 추출할 수 있다.Disclosed are an image processing apparatus and method using a Gaussian model. The image divider divides the input original image frame into unit blocks having a predetermined size. The block sampling unit selects a sample unit block from an upper block composed of adjacent unit blocks of a predetermined reference number on the original video frame. The pixel sampling unit determines whether a sample pixel among a plurality of pixels constituting the sample unit block corresponds to a foreground area that is an area where an object exists in the original image frame by the Gaussian model. The pixel classification unit gives priority to pixels constituting the sample unit block which is the unit block including the sample pixel corresponding to the foreground area among the unit blocks, according to a preset rule. The foreground region determiner determines whether the foreground region corresponds to the foreground region by applying a Gaussian model to the pixels to which the highest priority is assigned among the pixels constituting the sample unit block, and gives a lower priority according to the result of applying the Gaussian model. It is determined whether the pixels correspond to the foreground area. According to the present invention, the gaussian model is applied only to the pixel to which the highest priority is given, and the foreground area is determined from the image frame by determining whether it corresponds to the foreground area according to the result of applying the Gaussian model to the pixel to which the highest priority is given. Can be extracted quickly and accurately.

Description

가우시안 모델을 이용한 영상 처리 장치 및 방법{Apparatus and method for processing image using Gaussian model}Apparatus and method for processing image using Gaussian model

본 발명은 가우시안 모델을 이용한 영상 처리 장치 및 방법에 관한 것으로, 보다 상세하게는, 영상프레임을 구성하는 화소에 가우시안 모델을 적용하여 영상프레임으로부터 전경을 추출하는 장치 및 방법에 관한 것이다.The present invention relates to an image processing apparatus and method using a Gaussian model, and more particularly, to an apparatus and method for extracting a foreground from an image frame by applying a Gaussian model to the pixels constituting the image frame.

컴퓨터 비전 응용에 있어서 전경을 배경으로부터 추출하는 것은 필수적인 과정으로 다양한 알고리즘이 제안되어 왔으며, 감시 시스템, 물체 추적 및 교통 감시 등에 사용된다. 전경 추출은 주로 다른 컴퓨터 비전의 전처리 과정으로 사용되어 전경의 특징들을 전달해 주는 기능을 수행하므로 실시간 동작이 중요시된다.Extracting the foreground from the background is an essential process in computer vision applications. Various algorithms have been proposed and used in surveillance systems, object tracking and traffic monitoring. Foreground extraction is mainly used as a pre-processing process for other computer visions, which performs the function of conveying the features of the foreground, so real-time operation is important.

높은 성능의 전경 추출을 위해 다양한 알고리즘이 제안되었는데, 그 중 하나로서 각 픽셀마다 하나의 가우시안 분포를 사용하여 배경을 모델링하는 이동 평균 방법이 있다. 이동 평균 방법에 의하면, 기존의 픽셀값 분포에 새로운 픽셀값이 포함되면 배경으로 분류되며, 해당 픽셀에 대응하는 가우시안 분포가 갱신된다. 그러나 실외에서는 배경이 시간의 흐름에 따라 여러 값으로 변화하는데, 이러한 이동 평균 방법은 동적인 배경 환경에는 적용하기 어렵다는 단점을 가진다. 이를 극복하 기 위한 혼합 가우시안 모델(MOG)은 픽셀마다 3~5개의 가우시안 분포를 사용하여 배경을 모델링하므로 동적인 배경을 다룰 수 있다. 전경 추출을 위한 또 다른 방법인 커널 밀도 추정(kernel density estimation)은 여러 개의 커널을 사용하여 다모드의 확률 밀도 함수를 만들어내고, 픽셀값에 따라 커널을 바꾸는 방식으로 배경 모델을 갱신한다.Various algorithms have been proposed for high-performance foreground extraction, and one of them is a moving average method for modeling a background using one Gaussian distribution for each pixel. According to the moving average method, when a new pixel value is included in an existing pixel value distribution, it is classified as a background, and a Gaussian distribution corresponding to the pixel is updated. However, in the outdoors, the background changes with various values over time, and this moving average method is difficult to apply to a dynamic background environment. To overcome this problem, the mixed Gaussian model (MOG) models the background using three to five Gaussian distributions per pixel, thus dealing with dynamic backgrounds. Kernel density estimation, another method for foreground extraction, uses multiple kernels to generate a multimodal probability density function, and updates the background model by changing the kernel according to pixel values.

이와 같이 기존에 비해 정확성 등의 면에서 개선된 성능을 가지는 전경 추출 방법들이 제안되었으나, 전경 추출의 속도를 높이기 위한 방법에 대한 연구는 많이 이루어지지 않았다. 이 중 하나로서 고해상도 영상에서 기존의 전경 추출 알고리즘을 실시간으로 처리하기 위한 계층적 자료구조 방법이 제안되었다. 계층적 자료구조를 사용할 경우, 1600×1200의 해상도를 가지는 영상에서 기존 알고리즘에 비해 처리속도가 약 5배 향상되는 효과가 있다. 계층적 자료구조는 사분 트리(quad tree)를 기반으로 하며, 전체 영상이 루트 노드(root node)에 해당한다. 초기 배경 모델이 생성되면 입력영상을 이용하여 사분 트리를 생성하며, 트리의 초기 레벨과 최종 레벨은 사용자에 의해 결정된다. As described above, a foreground extraction method having improved performance in terms of accuracy and the like has been proposed, but a lot of researches on a method for increasing the speed of foreground extraction have not been conducted. As one of them, a hierarchical data structure method is proposed to process the existing foreground extraction algorithm in high resolution image in real time. When hierarchical data structures are used, the processing speed is improved about 5 times compared to the existing algorithm in the image with 1600 × 1200 resolution. The hierarchical data structure is based on a quad tree, and the entire image corresponds to a root node. When the initial background model is generated, the quadrant tree is generated using the input image. The initial level and the final level of the tree are determined by the user.

계층적 자료구조 방법에서는 이렇게 생성된 사분 트리의 각 노드에서 화소 중 하나를 무작위로 선택하여 배경 및 전경 여부를 결정하고 배경 모델을 갱신한다. 초기 레벨에서 시작하여 노드가 전경으로 결정된 경우에는 해당 노드를 사분하여 다음 레벨의 노드를 생성하고 앞의 과정을 반복하며, 화소가 배경으로 결정된 경우에는 동일 레벨의 다음 노드로 이동한다. 트리 구조가 완성된 후 최종 레벨의 노드들에서는 모든 화소에 대하여 전경 추출 알고리즘을 적용한다. 이때 전경인 화 소의 개수가 일정 비율을 넘는 경우에는 동일한 부모 노드를 공유하는 주변 노드에 대하여 앞의 과정을 반복한다. 이전 영상으로부터 생성된 사분 트리는 다음 영상의 초기 트리에 사용하며, 이전 영상에서 전경이 추출된 영역에 대하여는 더 많은 화소를 무작위로 표본 추출하도록 한다.The hierarchical data structure method randomly selects one of the pixels at each node of the quadrant tree thus created to determine the background and foreground, and update the background model. If the node is determined to the foreground starting from the initial level, the node is divided into four nodes to create a node of the next level and the previous process is repeated. If the pixel is determined to be the background, the node moves to the next node of the same level. After the tree structure is completed, the final level nodes apply the foreground extraction algorithm to all pixels. If the number of pixels in the foreground exceeds a certain ratio, the above process is repeated for neighboring nodes sharing the same parent node. The quadrant tree generated from the previous image is used for the initial tree of the next image, and randomly samples more pixels in the foreground extracted region.

이와 같이 기존의 계층적 자료구조 방법에서는 화소를 무작위로 표본 추출함에 따라 전경이 부정확하게 추출될 가능성이 존재하므로, 이를 개선하고 전경 추출 알고리즘의 속도를 증가시킬 수 있는 새로운 방법의 필요성이 제기되고 있다.As such, in the existing hierarchical data structure method, the foreground may be extracted incorrectly by randomly sampling pixels. Therefore, there is a need for a new method to improve the speed and increase the speed of the foreground extraction algorithm. .

본 발명이 이루고자 하는 기술적 과제는, 영상프레임으로부터 정확하고 신속하게 전경을 추출할 수 있는 영상 처리 장치 및 방법을 제공하는 데 있다.An object of the present invention is to provide an image processing apparatus and method capable of accurately and quickly extracting a foreground from an image frame.

본 발명이 이루고자 하는 다른 기술적 과제는, 영상프레임으로부터 정확하고 신속하게 전경을 추출할 수 있는 영상 처리 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.Another object of the present invention is to provide a computer-readable recording medium having recorded thereon a program for executing an image processing method that can accurately and quickly extract the foreground from an image frame.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 가우시안 모델을 이용한 영상 처리 장치의 제1실시예는, 입력받은 원본 영상프레임을 일정한 크기의 단위블록으로 분할하는 영상 분할부; 상기 원본 영상프레임 상에서 사전에 설정된 기준개수의 인접한 단위블록으로 이루어진 상위블록으로부터 샘플 단위블록을 선택하는 블록 샘플링부; 가우시안 모델에 의해 상기 샘플 단위블록을 구성하는 복수의 화소 중 표본화소가 상기 원본 영상프레임에서 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 결정하는 화소 샘플링부; 상기 단위블록들 중에서 상기 전경영역에 해당하는 표본화소가 포함된 단위블록인 표본 단위블록을 구성하는 화소들에 대해 사전에 설정된 규칙에 따른 우선순위를 부여하는 화소 분류부; 및 상기 표본 단위블록을 구성하는 화소들 중에서 최상위 우선순위가 부여된 화소들에 상기 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하고, 상기 가우시안 모델의 적용 결과에 따라 하위 우선순위가 부여된 화소들이 전경영역에 해당하는지 여부를 결정하는 전경영역 결정부;를 구비한다.In order to achieve the above technical problem, a first embodiment of an image processing apparatus using a Gaussian model according to the present invention includes: an image divider dividing an input original image frame into unit blocks having a predetermined size; A block sampling unit which selects a sample unit block from an upper block composed of adjacent unit blocks of a predetermined reference number on the original video frame; A pixel sampling unit for determining whether a sample pixel among a plurality of pixels constituting the sample unit block corresponds to a foreground area in which an object exists in the original image frame by a Gaussian model; A pixel classification unit for assigning priorities to pixels constituting a sample unit block which is a unit block including a sample pixel corresponding to the foreground area among the unit blocks; And applying the Gaussian model to the pixels to which the highest priority is assigned among the pixels constituting the sample unit block to determine whether the image corresponds to the foreground area, and assigning a lower priority according to a result of applying the Gaussian model. And a foreground area determiner configured to determine whether the pixels correspond to the foreground area.

상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 가우시안 모델을 이용한 영상 처리 방법의 제1실시예는, 입력받은 원본 영상프레임을 일정한 크기의 단위블록으로 분할하는 영상 분할단계; 상기 원본 영상프레임 상에서 사전에 설정된 기준개수의 인접한 단위블록으로 이루어진 상위블록으로부터 샘플 단위블록을 선택하는 블록 샘플링단계; 가우시안 모델에 의해 상기 샘플 단위블록을 구성하는 복수의 화소 중 표본화소가 상기 원본 영상프레임에서 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 결정하는 화소 샘플링단계; 상기 단위블록들 중에서 상기 전경영역에 해당하는 표본화소가 포함된 단위블록인 표본 단위블록을 구성하는 화소들에 대해 사전에 설정된 규칙에 따른 우선순위를 부여하는 화소 분류단계; 및 상기 표본 단위블록을 구성하는 화소들 중에서 최상위 우선순위가 부여된 화소들에 상기 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하고, 상기 가우시안 모델의 적용 결과에 따라 하위 우선순위가 부여된 화소들이 전경영역에 해당하는지 여부를 결정하는 전경영역 결정단계;를 갖는다.In order to achieve the above technical problem, a first embodiment of an image processing method using a Gaussian model according to the present invention includes: an image segmentation step of dividing an input original image frame into unit blocks having a predetermined size; A block sampling step of selecting a sample unit block from an upper block formed of a predetermined number of adjacent unit blocks on the original video frame; A pixel sampling step of determining whether a sample pixel among a plurality of pixels constituting the sample unit block corresponds to a foreground area in which an object exists in the original image frame by a Gaussian model; A pixel classification step of assigning priorities to pixels constituting a sample unit block which is a unit block including a sample pixel corresponding to the foreground region among the unit blocks according to a preset rule; And applying the Gaussian model to the pixels to which the highest priority is assigned among the pixels constituting the sample unit block to determine whether the image corresponds to the foreground area, and assigning a lower priority according to a result of applying the Gaussian model. And a foreground area determining step of determining whether the pixels correspond to the foreground area.

상기의 또 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 가우시안 모델을 이용한 영상 처리 장치의 제2실시예는, 입력받은 원본 영상프레임을 일정한 크기의 단위블록으로 분할하는 영상 분할부; 상기 원본 영상프레임 상에서 상기 각각의 단위블록의 위치정보를 포함하는 단말노드 및 상기 원본 영상프레임 상에서 서로 인접한 복수의 단위블록으로 이루어진 상위블록의 위치정보를 포함하는 비단말노드를 계층적으로 배치하여 사분 트리 구조의 전경 추출 트리를 생성하는 트리 생성부; 가우시안 모델에 의해 상기 전경 추출 트리의 최상위 레벨에 위치하는 비단말노드로부터 단말노드까지 순차적으로 각 노드에 포함된 블록을 구성하는 복수의 화소 중 표본화소가 상기 원본 영상프레임에서 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 결정하는 샘플링부; 상기 단위블록들 중에서 상기 전경영역에 해당하는 표본화소가 포함된 단위블록인 표본 단위블록을 구성하는 화소들에 대해 사전에 설정된 규칙에 따른 우선순위를 부여하는 화소 분류부; 및 상기 표본 단위블록을 구성하는 화소들 중에서 최상위 우선순위가 부여된 화소들에 상기 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하고, 상기 가우시안 모델의 적용 결과에 따라 하위 우선순위가 부여된 화소들이 전경영역에 해당하는지 여부를 결정하는 전경영역 결정부;를 구비한다.In order to achieve the above technical problem, a second embodiment of the image processing apparatus using the Gaussian model according to the present invention comprises: an image divider dividing an input original image frame into unit blocks having a predetermined size; Quadrant by hierarchically arranging a terminal node including the location information of each unit block on the original video frame and a non-terminal node including the location information of a higher block composed of a plurality of unit blocks adjacent to each other on the original video frame A tree generator for generating a foreground extraction tree of a tree structure; A sample pixel among a plurality of pixels constituting a block included in each node sequentially from a non-terminal node to a terminal node located at the top level of the foreground extraction tree by a Gaussian model is an area where an object exists in the original image frame. A sampling unit to determine whether the image corresponds to the foreground area; A pixel classification unit for assigning priorities to pixels constituting a sample unit block which is a unit block including a sample pixel corresponding to the foreground area among the unit blocks; And applying the Gaussian model to the pixels to which the highest priority is assigned among the pixels constituting the sample unit block to determine whether the image corresponds to the foreground area, and assigning a lower priority according to a result of applying the Gaussian model. And a foreground area determiner configured to determine whether the pixels correspond to the foreground area.

상기의 또 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 가우시안 모델을 이용한 영상 처리 방법의 제2실시예는, 입력받은 원본 영상프레임을 일정한 크기의 단위블록으로 분할하는 영상 분할단계; 상기 원본 영상프레임 상에서 상기 각각의 단위블록의 위치정보를 포함하는 단말노드 및 상기 원본 영상프레임 상에서 서로 인접한 복수의 단위블록으로 이루어진 상위블록의 위치정보를 포함하는 비단말노드를 계층적으로 배치하여 사분 트리 구조의 전경 추출 트리를 생성하는 트리 생성단계; 가우시안 모델에 의해 상기 전경 추출 트리의 최상위 레벨에 위치하는 비단말노드로부터 단말노드까지 순차적으로 각 노드에 포함된 블록을 구성하는 복수의 화소 중 표본화소가 상기 원본 영상프레임에서 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 결정하는 샘플링단계; 상기 단위블록들 중에서 상기 전 경영역에 해당하는 표본화소가 포함된 단위블록인 표본 단위블록을 구성하는 화소들에 대해 사전에 설정된 규칙에 따른 우선순위를 부여하는 화소 분류단계; 및 상기 표본 단위블록을 구성하는 화소들 중에서 최상위 우선순위가 부여된 화소들에 상기 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하고, 상기 가우시안 모델의 적용 결과에 따라 하위 우선순위가 부여된 화소들이 전경영역에 해당하는지 여부를 결정하는 전경영역 결정단계;를 갖는다.In order to achieve the above technical problem, a second embodiment of the image processing method using the Gaussian model according to the present invention comprises: an image segmentation step of dividing an input original image frame into unit blocks having a predetermined size; Quadrant by hierarchically arranging a terminal node including the location information of each unit block on the original video frame and a non-terminal node including the location information of a higher block composed of a plurality of unit blocks adjacent to each other on the original video frame A tree generation step of generating a foreground extraction tree of the tree structure; A sample pixel among a plurality of pixels constituting a block included in each node sequentially from a non-terminal node to a terminal node located at the top level of the foreground extraction tree by a Gaussian model is an area where an object exists in the original image frame. A sampling step of determining whether it corresponds to a foreground area; A pixel classification step of assigning priorities to pixels constituting a sample unit block which is a unit block including sample pixels corresponding to the entire management area among the unit blocks; And applying the Gaussian model to the pixels to which the highest priority is assigned among the pixels constituting the sample unit block to determine whether the image corresponds to the foreground area, and assigning a lower priority according to a result of applying the Gaussian model. And a foreground area determining step of determining whether the pixels correspond to the foreground area.

본 발명에 따른 가우시안 모델을 이용한 영상 처리 장치 및 방법에 의하면, 전경영역에 해당하는 것으로 결정된 화소가 포함된 단위블록을 구성하는 복수의 화소 중에서 최상위 우선순위가 부여된 화소에 대해서만 가우시안 모델을 적용하고, 하위 우선순위가 부여된 화소에 대하여는 가우시안 모델의 적용 결과에 따라 전경영역에 해당하는지 여부를 판단함으로써 영상프레임으로부터 전경영역을 빠르고 정확하게 추출할 수 있다. 또한 이전 영상프레임에서 동일한 위치의 상위블록으로부터 선택된 샘플 단위블록과 인접한 단위블록을 샘플 단위블록으로 선택하고, 이전 영상프레임의 샘플 단위블록으로부터 선택된 표본화소와 동일한 위치에 해당하는 화소를 표본화소로 선택함으로써, 전경 추출의 정확성을 높일 수 있다.According to an image processing apparatus and method using a Gaussian model according to the present invention, a Gaussian model is applied only to a pixel to which a highest priority is given among a plurality of pixels constituting a unit block including a pixel determined to correspond to a foreground area. For the pixels given the lower priority, the foreground region can be extracted quickly and accurately from the image frame by determining whether the pixel corresponds to the foreground region according to the result of applying the Gaussian model. In addition, a sample unit block adjacent to the sample unit block selected from the upper block of the same position in the previous image frame is selected as the sample unit block, and pixels corresponding to the same position as the sample pixel selected from the sample unit block of the previous image frame are selected as the sample pixel. By doing so, the accuracy of foreground extraction can be improved.

이하에서 첨부된 도면들을 참조하여 본 발명에 따른 가우시안 모델을 이용한 영상 처리 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.Hereinafter, exemplary embodiments of an image processing apparatus and method using a Gaussian model according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 가우시안 모델을 이용한 영상 처리 장치에 대한 바람 직한 제1실시예의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of a first preferred embodiment of an image processing apparatus using a Gaussian model according to the present invention.

도 1을 참조하면, 본 발명에 따른 영상 처리 장치는 영상 분할부(110), 블록 샘플링부(120), 화소 샘플링부(130), 화소 분류부(140) 및 전경영역 결정부(150)를 구비한다.Referring to FIG. 1, an image processing apparatus according to the present invention may include an image divider 110, a block sampling unit 120, a pixel sampling unit 130, a pixel classifying unit 140, and a foreground area determination unit 150. Equipped.

영상 분할부(110)는 원본 영상프레임을 일정한 크기의 단위블록으로 분할한다. 단위블록은 원본 영상프레임을 구성하는 각 화소가 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 결정할 때 사용된다. 즉, 단위블록으로부터 선택된 하나의 화소에 대해 전경영역에 해당하는지 여부를 판단하면 원본 영상프레임을 구성하는 모든 화소에 대해 판단하는 경우보다 전경 추출의 속도 및 효율성을 향상시킬 수 있다. 단위블록의 크기는 원본 영상프레임의 해상도를 고려하여 결정할 수 있으며, 예를 들면, 원본 영상프레임이 640×480의 해상도를 가지는 경우에 단위블록은 8×8의 크기를 가지도록 할 수 있다.The image divider 110 divides the original image frame into unit blocks having a predetermined size. The unit block is used to determine whether each pixel constituting the original image frame corresponds to a foreground area, an area in which an object exists. That is, determining whether one pixel selected from the unit block corresponds to the foreground area may improve the speed and efficiency of foreground extraction than when determining all pixels constituting the original image frame. The size of the unit block may be determined in consideration of the resolution of the original video frame. For example, when the original video frame has a resolution of 640 × 480, the unit block may have a size of 8 × 8.

블록 샘플링부(120)는 원본 영상프레임 상에서 사전에 설정된 기준개수의 인접한 단위블록으로 이루어진 상위블록으로부터 샘플 단위블록을 선택한다. 또한 화소 샘플링부(130)는 가우시안 모델에 의해 샘플 단위블록을 구성하는 복수의 화소 중 표본화소가 원본 영상프레임에서 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 결정한다.The block sampling unit 120 selects a sample unit block from an upper block composed of adjacent unit blocks of a predetermined reference number on the original image frame. In addition, the pixel sampling unit 130 determines whether a sample pixel among a plurality of pixels constituting the sample unit block corresponds to a foreground area that is an area where an object exists in the original image frame by the Gaussian model.

도 2는 상위블록으로부터 선택된 샘플 단위블록을 도시한 도면이다. 도 2를 참조하면, 서로 인접한 16개의 단위블록이 각각 상위블록 A 내지 D를 형성하며, 샘플 단위블록 a 내지 d는 상위블록 A 내지 D로부터 각각 선택된다. 또한 표본화소는 샘플 단위블록 a 내지 d로부터 하나의 화소가 각각 선택된다. 샘플 단위블록을 선택하기 위해 상위블록을 이용하는 이유는 영상프레임 내의 모든 단위블록에 대해 표본화소를 선택하여 전경영역 해당 여부를 결정하지 않고, 선택된 개수의 샘플 단위블록에 대하여만 표본화소를 선택함으로써 전경 추출의 속도를 높이기 위해서이다. 이때 상위블록의 형태는 정방형인 것이 바람직하며, 상위블록의 크기는 영상프레임의 해상도 및 복잡도에 따라 달라진다. 이하에서는 16개의 단위블록으로 이루어진 상위블록으로부터 샘플 단위블록을 선택하는 경우를 일 예로 하여 설명한다.2 is a diagram illustrating a sample unit block selected from an upper block. Referring to FIG. 2, 16 unit blocks adjacent to each other form upper blocks A to D, and sample unit blocks a to d are selected from upper blocks A to D, respectively. In the sample pixel, one pixel is selected from the sample unit blocks a to d, respectively. The reason for using the upper block to select the sample unit block is to select the sample pixel for all the unit blocks in the image frame and to determine whether the foreground area is applicable, and to select the sample pixel only for the selected number of sample unit blocks. This is to speed up the extraction. At this time, the shape of the upper block is preferably square, and the size of the upper block depends on the resolution and complexity of the video frame. Hereinafter, a case of selecting a sample unit block from an upper block consisting of 16 unit blocks will be described as an example.

이때 샘플 단위블록 및 표본화소를 무작위로 선택할 수도 있으나, 다른 영상프레임과의 관계를 고려하여 일정한 규칙에 따라 선택하면 전경 추출의 정확성을 높일 수 있다. 즉, 블록 샘플링부(120)는 이전 영상프레임 상에서 원본 영상프레임의 상위블록과 동일한 위치에 해당하는 상위블록으로부터 선택된 샘플 단위블록에 인접한 단위블록을 원본 영상프레임의 샘플 단위블록으로 선택한다. 또한 화소 샘플링부(130)는 이전 영상프레임의 샘플 단위블록으로부터 선택된 표본화소와 동일한 위치에 해당하는 화소를 원본 영상프레임의 표본화소로 선택한다.In this case, the sample unit block and the sample pixel may be randomly selected. However, if the selection is made according to a predetermined rule in consideration of the relationship with other image frames, the accuracy of foreground extraction may be increased. That is, the block sampling unit 120 selects the unit block adjacent to the sample unit block selected from the upper block corresponding to the same position as the upper block of the original video frame on the previous video frame as the sample unit block of the original video frame. In addition, the pixel sampling unit 130 selects a pixel corresponding to the same position as the sample pixel selected from the sample unit block of the previous image frame as the sample pixel of the original image frame.

예를 들면, 원본 영상프레임의 상위블록 A로부터 샘플 단위블록 및 표본화소를 선택할 경우, 이전 영상프레임 상에서 동일한 위치의 상위블록 A로부터 k번째 단위블록을 샘플 단위블록으로 선택하고, 해당 샘플 단위블록 내의 j번째 화소를 표본화소로 선택하였다면, 원본 영상프레임의 상위블록 A로부터는 k+1번째 단위블록을 샘플 단위블록으로 선택하고, 해당 샘플 단위블록 내의 j번째 화소를 표본화소로 선택할 수 있다. 이와 같이 시간적으로 연속하는 복수의 영상프레임에 대해 해당 상위블록 A로부터 순차적으로 모든 단위블록이 선택되어 다시 k번째 단위블록이 선택되면, 이번에는 j+1번째 화소를 표본화소로 선택하게 된다.For example, when the sample unit block and the sample pixel are selected from the upper block A of the original video frame, the k-th unit block is selected as the sample unit block from the upper block A at the same position on the previous video frame, and within the sample unit block. If the j th pixel is selected as the sample pixel, the k + 1 th unit block may be selected as the sample unit block from the upper block A of the original video frame, and the j th pixel in the sample unit block may be selected as the sample pixel. As described above, when all unit blocks are sequentially selected from the upper block A and the k-th unit block is selected for a plurality of image frames that are temporally contiguous, the j + 1 th pixel is selected as the sample pixel.

선택된 표본화소가 전경영역에 해당하는지 여부를 결정하기 위해 가우시안 모델이 사용된다. 이때 앞에서도 설명한 바와 같이 동적인 배경을 다룰 수 있도록 혼합 가우시안 모델을 사용하는 것이 바람직하다. 그러나 본 발명에 의한 전경 추출 알고리즘은 가우시안 모델 뿐만 아니라 화소를 기반으로 하는 기존의 모든 전경 추출 방법에 적용될 수 있다.A Gaussian model is used to determine whether the selected sample pixel corresponds to the foreground area. As described above, it is preferable to use a mixed Gaussian model to deal with the dynamic background. However, the foreground extraction algorithm according to the present invention can be applied to all existing foreground extraction methods based on pixels as well as Gaussian models.

혼합 가우시안 모델은 외부 환경에서 조명 조건의 변화, 나무의 흔들림과 같은 반복적인 움직임 및 급격히 움직이는 객체 등과 같이 고려해야 할 많은 환경 변화 요인들이 존재하는 상황에서 이러한 외부 환경의 변화를 적응적으로 반영하여 배경을 학습할 수 있는 방법이다. 이때 혼합 가우시안 모델은 초기 배경 모델을 필요로 하며, 생성된 초기 배경 모델은 전경 추출 결과에 따라 지속적으로 갱신된다.The mixed Gaussian model adapts the background to adaptively reflects changes in the external environment in the presence of a number of environmental change factors to consider, such as changing lighting conditions, repetitive movements such as tree shaking and rapidly moving objects. It's a way to learn. In this case, the mixed Gaussian model requires an initial background model, and the generated initial background model is continuously updated according to the foreground extraction result.

배경 모델 생성에 사용될 수 있는 방법 중 하나인 EM(expectation maximization) 알고리즘은 미지의 분포 파라미터를 주어진 데이터에 의해 예측하고, 그 예측값에 대해 다시 주어진 데이터를 기반으로 기대치를 최대화시키는 파라미터를 구하는 과정을 반복하면서 최적 파라미터를 얻는 방법이다. 또한 K-means 알고리즘은 주어진 데이터를 k개의 집합으로 분류하고, 각 집합에 대해 산출된 무게중심을 기초로 다시 데이터를 새로운 집합으로 분류하는 과정을 반복하여 전체 데이터를 무게중심이 변하지 않는 상태로 수렴시키는 방법이다.One of the methods that can be used to generate the background model, the EM (expectation maximization) algorithm iterates the process of predicting unknown distribution parameters with given data and then optimizing the expected values based on the given data again. This is how to get optimal parameters. In addition, the K-means algorithm classifies the given data into k sets and repeats the process of classifying the data into a new set based on the center of gravity calculated for each set, converging the entire data without changing the center of gravity. This is how you do it.

EM 알고리즘과 K-means 알고리즘에 의해 배경 모델을 생성하기 위해서는 적 용되는 가우시안의 초기 개수를 설정하여야 하는 단점이 있다. 그러나 평균 이동 알고리즘의 경우에는 가우시안의 초기 개수를 필요로 하지 않기 때문에 미지의 분포로부터 혼합 가우시안 모델을 만드는 가장 바람직한 방법에 해당한다. 평균 이동 알고리즘은 특징의 밀도 분포에서 모드들을 찾는 과정과 찾아진 모드들을 정리하는 과정으로 구성된다. 이하에서는 평균 이동 알고리즘을 이용하여 초기 배경 모델을 생성하는 과정을 설명한다.In order to generate the background model by the EM algorithm and the K-means algorithm, it is necessary to set the initial number of Gaussians to be applied. However, the average shift algorithm does not require an initial number of Gaussians, so it is the most desirable way to create a mixed Gaussian model from an unknown distribution. The mean shift algorithm consists of finding the modes in the density distribution of features and arranging the found modes. Hereinafter, a process of generating an initial background model using an average shift algorithm will be described.

d-차원의 공간 Rd에서 n개의 데이터는 xi(i=1,…,n)와 같이 표현된다. 원본 영상프레임을 구성하는 각 화소의 조도 정보를 이용하는 경우, xi는 밝기 정보이고 d=1이 된다. 한편, 색상 정보를 이용하는 경우에는 d=3이 된다. d=1, 즉 1차원에서 정규 커널을 사용한 평균 이동의 식은 다음의 수학식 1과 같다.n data in the d -dimensional space R d are represented as x i (i = 1, ..., n). When the illuminance information of each pixel constituting the original image frame is used, x i is brightness information and d = 1. On the other hand, when color information is used, d = 3. d = 1, i.e., the average shift using the normal kernel in one dimension is expressed by Equation 1 below.

Figure 112009018242000-pat00001
Figure 112009018242000-pat00001

여기서, m(x)는 데이터의 위치 변화, n은 데이터의 개수, h는 표준편차, 그리고 x는 데이터의 현재 위치이다.Where m (x) is the change in position of the data, n is the number of data, h is the standard deviation, and x is the current position of the data.

수학식 1을 이용하면 현재의 위치 x로부터 m(x)만큼 이동한 새로운 위치 x'을 찾을 수 있고, 이러한 과정을 x'이 정지된 값으로 수렴할 때까지 반복한다. 이를 통하여 알려지지 않은 밀도 분포의 모드들을 찾아낼 수 있게 되며, 최종적으로 찾아진 모드들을 정리하는 과정을 거쳐 배경 모델을 생성한다. 생성된 배경 모델은 화소 샘플링부(130) 및 전경영역 결정부(150)에 의해 전경 추출이 수행될 때 갱신된다.Using Equation 1, it is possible to find a new position x 'shifted from the current position x by m (x), and the process is repeated until x' converges to the stationary value. Through this, the unknown modes of density distribution can be found, and finally, the background model is generated by arranging the found modes. The generated background model is updated when foreground extraction is performed by the pixel sampling unit 130 and the foreground area determination unit 150.

이와 같이 생성된 초기 배경 모델을 기초로 화소 샘플링부(130)는 선택된 표본화소에 혼합 가우시안 모델을 적용한다. 먼저 표본화소 xt에 대한 확률은 다음의 수학식 2와 같이 표현된다.Based on the generated initial background model, the pixel sampling unit 130 applies a mixed Gaussian model to the selected sample pixel. First, the probability for the sample pixel x t is expressed as in Equation 2 below.

Figure 112009018242000-pat00002
Figure 112009018242000-pat00002

여기서, k는 가우시안의 개수, w는 가중치, μ는 가우시안 모델의 평균, σ는 표준 편차, 그리고 xt는 표본화소의 화소값이다.Where k is the number of Gaussians, w is the weight, μ is the mean of the Gaussian model, sigma is the standard deviation, and x t is the pixel value of the sample pixel.

혼합 가우시안 모델을 갱신할 때에는 다음의 수학식 3과 같은 온라인 근사법을 사용한다.When updating the mixed Gaussian model, an online approximation method such as Equation 3 below is used.

Figure 112009018242000-pat00003
Figure 112009018242000-pat00003

여기서, w는 가중치, μ는 가우시안 모델의 평균, σ는 표준 편차, xt는 표본화소의 화소값, 그리고 Mi,t는 표본화소의 화소값이 가우시안 모델에 정합되면 1, 그렇지 않으면 0의 값을 가진다.Where w is the weight, μ is the mean of the Gaussian model, σ is the standard deviation, x t is the pixel value of the sample pixel, and M i, t is 1 if the pixel value of the sample pixel matches the Gaussian model, otherwise 0 Has a value.

화소 분류부(140)는 단위블록들 중에서 전경영역에 해당하는 표본화소가 포함된 단위블록인 표본 단위블록을 구성하는 화소들에 대해 사전에 설정된 규칙에 따른 우선순위를 부여한다.The pixel classification unit 140 gives priority to pixels constituting the sample unit block that is the unit block including the sample pixel corresponding to the foreground area among the unit blocks, according to a preset rule.

화소 샘플링부(130)에 의해 원본 영상프레임 상에서 전경영역에 해당하는 것으로 결정된 표본화소의 위치정보가 얻어지면, 각각의 표본화소들이 속한 단위블록인 표본 단위블록을 구성하는 화소들 전체를 대상으로 가우시안 모델을 적용하여 정확한 전경영역을 추출하는 과정이 수행된다. 이때 표본 단위블록을 구성하는 모든 화소에 대해 가우시안 모델을 적용하면 시스템의 속도가 저하될 수 있다. 따라서 본 발명에서는 표본 단위블록을 구성하는 화소들에 대해 우선순위를 부여하여 선택적으로 가우시안 모델을 적용하도록 하였다.When the pixel sampling unit 130 obtains the location information of the sample pixel determined to correspond to the foreground area on the original image frame, the gaussian is applied to all pixels constituting the sample unit block, which is the unit block to which each sample pixel belongs. The process of extracting the correct foreground area is performed by applying the model. In this case, applying the Gaussian model to all the pixels constituting the sample unit block may reduce the speed of the system. Therefore, in the present invention, the Gaussian model is selectively applied by giving priority to pixels constituting the sample unit block.

표본 단위블록을 구성하는 화소들에 대해 우선순위를 부여하는 과정을 생략 알고리즘으로 정의한다. 생략 알고리즘에서 화소들에 대해 부여되는 우선순위는 일정한 규칙 또는 패턴을 가진다. 도 3a는 나선형 구조의 생략 알고리즘을 도시한 도면이고, 도 3b는 일정 패턴을 가지는 생략 알고리즘을 도시한 도면이다. 도 3a와 도 3b에 나타난 숫자는 각 화소에 부여되는 우선순위를 나타낸다. 이렇게 우선순위가 부여되는 규칙 또는 패턴은 도 3a 및 도 3b에 나타난 경우에 한정되지 않으며, 사용자가 임의로 설정할 수 있다.The process of giving priority to the pixels constituting the sample unit block is defined as an omission algorithm. The priority given to pixels in the omission algorithm has a certain rule or pattern. 3A is a diagram illustrating an omission algorithm of a helical structure, and FIG. 3B is a diagram illustrating an omission algorithm having a predetermined pattern. The numbers shown in Figs. 3A and 3B indicate the priority given to each pixel. Such prioritized rules or patterns are not limited to the cases shown in FIGS. 3A and 3B, and may be arbitrarily set by the user.

전경영역 결정부(150)는 표본 단위블록을 구성하는 화소들 중에서 최상위 우선순위가 부여된 화소들에 가우시안 모델을 적용하여 전경영역에 해당하는지 여부 를 결정하고, 가우시안 모델의 적용 결과에 따라 하위 우선순위가 부여된 화소들이 전경영역에 해당하는지 여부를 결정한다.The foreground region determiner 150 determines whether the foreground region corresponds to the foreground region by applying a Gaussian model to the pixels to which the highest priority is assigned among the pixels constituting the sample unit block, and lower priority according to the result of applying the Gaussian model. It is determined whether the ranked pixels correspond to the foreground area.

도 3a에 도시된 나선형 구조의 생략 알고리즘을 사용하는 경우, 전경영역 결정부(150)는 먼저 최상위 우선순위인 우선순위 1이 부여된 화소들에 대해 가우시안 모델을 적용한다. 그 결과 사전에 설정된 비율, 예를 들면 25% 이상의 화소들이 전경영역에 해당하는 것으로 결정되면 내부에 위치한 우선순위 2 및 3이 부여된 화소들에 대하여는 가우시안 모델의 적용을 생략하고 전경영역에 해당하는 것으로 판단한다. 그러나 25% 미만의 화소들이 전경영역에 해당하는 것으로 결정되면 다음 순위로 우선순위 2가 부여된 화소들에 대해 가우시안 모델을 적용한다. 그 결과 우선순위 1 및 2가 부여된 화소들 중에서 일정 비율, 예를 들면 25% 이상의 화소들이 전경영역에 해당하는 것으로 결정되면 내부에 위치한 우선순위 3이 부여된 화소들이 전경영역에 해당하는 것으로 판단한다.In the case of using the helical elimination algorithm illustrated in FIG. 3A, the foreground region determiner 150 first applies a Gaussian model to pixels to which the highest priority is assigned. As a result, if it is determined that a predetermined ratio, for example, 25% or more pixels correspond to the foreground area, the gaussian model is omitted for the pixels to which the priorities 2 and 3 are located, and the corresponding gamut is applied to the foreground area. I think that. However, if less than 25% of the pixels are determined to correspond to the foreground area, the Gaussian model is applied to the pixels to which priority 2 is assigned to the next rank. As a result, if it is determined that a predetermined ratio, for example, 25% or more pixels among the pixels to which the priorities 1 and 2 are assigned corresponds to the foreground area, the pixels to which the priority 3 located inside correspond to the foreground area are determined. do.

표본 단위블록을 구성하는 화소들에 도 3b에 도시된 패턴을 기초로 우선순위가 부여되면, 전경영역 결정부(150)는 먼저 최상위 우선순위인 우선순위 1이 부여된 화소들에 대해 가우시안 모델을 적용한다. 이는 화소 샘플링부(130)가 표본화소에 가우시안 모델을 적용하는 과정과 동일하며, 혼합 가우시안 모델을 사용하는 것이 바람직하다.When the pixels constituting the sample unit block are given priority based on the pattern shown in FIG. 3B, the foreground area determiner 150 first applies a Gaussian model to the pixels to which the highest priority 1 is assigned. Apply. This is the same process as the pixel sampling unit 130 applies a Gaussian model to the sample pixels, and it is preferable to use a mixed Gaussian model.

우선순위 1이 부여된 화소들에 대해 모두 가우시안 모델이 적용되면 각 화소가 전경영역에 해당하는지 배경영역에 해당하는지 여부를 알 수 있다. 다음으로 전경영역 결정부(150)는 우선순위 2가 부여된 화소들에 대해 전경추출을 수행하는데, 이 경우에는 가우시안 모델을 적용하지 않고 우선순위 1이 부여된 화소들에 가우시안 모델을 적용한 결과를 활용한다. 예를 들면, 도 3b에서 우선순위 2가 부여된 각 화소에 대하여는 인접한 8개의 화소가 존재한다. 또한 인접한 8개의 화소들 중에서 우선순위 1이 부여된 화소들은 모두 네 개이다. 전경영역 결정부(150)는 우선순위 1이 부여된 네 개의 화소들 중에서 일정 개수, 예를 들면 세 개 이상의 화소가 전경영역에 해당하는 경우에는 우선순위 2가 부여된 화소도 전경영역에 해당하는 것으로 결정하며, 그렇지 않은 경우에는 우선순위 2가 부여된 화소가 배경영역에 해당하는 것으로 결정한다.When the Gaussian model is applied to all pixels to which priority 1 is applied, it may be determined whether each pixel corresponds to a foreground area or a background area. Next, the foreground area determiner 150 performs foreground extraction on the pixels to which priority 2 is assigned. In this case, the result of applying the Gaussian model to the pixels to which priority 1 is applied is not applied. Take advantage. For example, for each pixel to which priority 2 is assigned in FIG. 3B, there are eight adjacent pixels. In addition, among the eight adjacent pixels, all the pixels to which priority 1 is assigned are four. The foreground area determiner 150 corresponds to the foreground area when a predetermined number of pixels among the four pixels to which priority 1 is assigned, for example, three or more pixels correspond to the foreground area. Otherwise, the pixel to which priority 2 is assigned corresponds to the background area.

다음으로 전경영역 결정부(150)는 우선순위 3이 부여된 화소들에 대해 전경추출을 수행하게 된다. 이 경우에는 인접한 화소들 중에서 상위 우선순위인 우선순위 1 및 2가 부여된 화소들에 대한 전경추출 결과에 따라 전경영역에 해당하는지 여부가 결정된다. 도 3b를 참조하면, 우선순위 3이 부여된 화소에 인접한 8개의 화소들 중에서 우선순위 1 및 2가 부여된 화소는 네 개이다. 따라서 전경영역 결정부(150)는 우선순위 1 및 2가 부여된 네 개의 화소들 중에서 세 개 이상의 화소가 전경영역에 해당하는 경우에는 우선순위 3이 부여된 화소도 전경영역에 해당하는 것으로 결정하고, 그렇지 않은 경우에는 우선순위 3이 부여된 화소가 배경영역에 해당하는 것으로 결정한다.Next, the foreground area determiner 150 performs foreground extraction on the pixels to which the priority 3 is assigned. In this case, it is determined whether the image corresponds to the foreground area according to the foreground extraction result of the pixels to which the priorities 1 and 2, which are higher priority, among the adjacent pixels are assigned. Referring to FIG. 3B, among the eight pixels adjacent to the pixel to which priority 3 is assigned, four pixels to which priority 1 and 2 are assigned. Therefore, when three or more pixels among the four pixels to which priority 1 and 2 are assigned are the foreground areas, the foreground area determiner 150 determines that the pixel to which the priority 3 is applied corresponds to the foreground area. Otherwise, it is determined that the pixel to which priority 3 has been given corresponds to the background area.

도 3b에 도시된 패턴을 기초로 표본 단위블록을 구성하는 화소들에 대해 부여되는 우선순위는 1 내지 4까지로, 최하위 우선순위가 4이다. 따라서 전경영역 결정부(150)는 마지막으로 우선순위 4가 부여된 화소들에 대해 전경 추출을 수행한 다. 도 3b에서 우선순위 4가 부여된 화소들은 영상프레임의 가장자리에 위치하고 있다. 따라서 인접한 화소들의 개수가 3개 또는 5개로 일정하지 않다. 이때 우선순위 4가 부여된 화소에 인접한 화소들 중 우선순위 1이 부여된 화소의 전경추출 결과만을 고려하여 전경영역에 해당하는 화소가 두 개 이상인 경우에는 우선순위 4가 부여된 화소도 전경영역에 해당하는 것으로 결정할 수 있다. 그러나 반드시 이 방법에 제한되는 것은 아니며, 우선순위 1 내지 3이 부여된 인접한 화소들을 모두 고려하여 전경영역에 해당하는지 여부를 결정할 수 있다.Priorities given to the pixels constituting the sample unit block based on the pattern shown in FIG. 3B are 1 to 4, and the lowest priority is 4. Therefore, the foreground area determiner 150 performs foreground extraction on the pixels to which the priority 4 is finally given. In FIG. 3B, the pixels to which priority 4 is assigned are located at the edge of the image frame. Therefore, the number of adjacent pixels is not constant, three or five. In this case, when there are two or more pixels corresponding to the foreground area in consideration of only the result of the foreground extraction of the pixel to which the priority 1 is assigned among the pixels adjacent to the priority 4 pixel, the pixel to which the priority 4 is applied also corresponds to the foreground area. You can decide to. However, the present invention is not necessarily limited to this method, and it may be determined whether it corresponds to the foreground area by considering all adjacent pixels to which the priorities 1 to 3 are assigned.

전경영역 결정부(150)는 표본화소가 포함된 표본 단위블록을 구성하는 화소들 중 일정 비율, 예를 들면 단위블록을 구성하는 전체 화소들의 개수의 70% 이상의 화소들이 전경영역에 해당하는 것으로 결정되면 해당 표본 단위블록에 인접한 단위블록들을 구성하는 모든 화소들에 대하여 동일한 방법으로 전경 추출을 수행한다. 이는 추출된 전경영역의 윤곽을 회복하는 과정이다. 즉, 인접한 단위블록을 구성하는 각 화소에 우선순위를 부여하고, 최상위 우선순위가 부여된 화소로부터 순차적으로 전경영역에 해당하는지 여부를 결정하는 과정이 표본 단위블록에서와 동일하게 이루어진다.The foreground area determiner 150 determines that a predetermined ratio among the pixels constituting the sample unit block including the sample pixel, for example, 70% or more of the pixels of the total number of pixels constituting the unit block correspond to the foreground area. In the same manner, the foreground extraction is performed on all pixels constituting the unit blocks adjacent to the sample unit block. This is a process of restoring the outline of the extracted foreground area. That is, the process of giving priority to each pixel constituting the adjacent unit block and determining whether the pixels correspond to the foreground area sequentially from the pixel given the highest priority is the same as in the sample unit block.

복수의 영상프레임 사이의 시간적 연속성을 활용하여 전경추출의 속도를 더욱 향상시킬 수도 있다. 원본 영상프레임에 부여된 프레임 번호를 f라 하고, f가 홀수인 경우(f=1,3,5,…)에는 앞에서 설명한 것과 같이 생략 알고리즘을 적용하여 전경영역을 추출한다. 그러나 f가 짝수인 경우에는 f-1 및 f+1에 해당하는 영상프레임, 즉 원본 영상프레임에 시간적으로 앞서는 영상프레임 및 시간적으로 연속하 는 영상프레임에 대한 전경추출의 결과를 고려한다. 즉, f-1 및 f+1에 해당하는 영상프레임 상에서 단위블록을 구성하는 화소가 전경영역에 해당하는 것으로 결정되면, 원본 영상프레임 상에서 동일한 위치에 해당하는 화소에 대하여도 위와 같은 생략 알고리즘 및 가우시안 모델을 적용하지 않고 전경영역에 해당하는 것으로 결정할 수 있다. 그렇지 않은 경우에는 f가 홀수인 경우와 동일하게 전경추출을 수행한다.The speed of foreground extraction may be further improved by utilizing temporal continuity between a plurality of image frames. The frame number assigned to the original video frame is called f. If f is odd (f = 1, 3, 5, ...), the foreground area is extracted by applying an omission algorithm as described above. However, when f is an even number, the result of foreground extraction for video frames corresponding to f-1 and f + 1, that is, video frames temporally preceding the original video frames and temporally continuous video frames, is considered. That is, when it is determined that the pixels constituting the unit block correspond to the foreground area on the image frames corresponding to f-1 and f + 1, the same omission algorithm and Gaussian are applied to the pixels corresponding to the same position on the original image frame. You can decide that it corresponds to the foreground area without applying the model. Otherwise, foreground extraction is performed in the same manner as f is odd.

도 4는 본 발명에 따른 영상 처리 방법에 대한 바람직한 제1실시예의 수행과정을 도시한 흐름도이다.4 is a flowchart illustrating a process of performing a first preferred embodiment of the image processing method according to the present invention.

도 4를 참조하면, 영상 분할부(110)는 입력받은 원본 영상프레임을 일정한 크기의 단위블록으로 분할한다(S410). 다음으로 블록 샘플링부(120)는 원본 영상프레임 상에서 사전에 설정된 기준개수의 인접한 단위블록으로 이루어진 상위블록으로부터 샘플 단위블록을 선택한다(S420). 또한 화소 샘플링부(130)는 가우시안 모델에 의해 샘플 단위블록을 구성하는 복수의 화소 중 표본화소가 원본 영상프레임에서 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 결정한다(S430).Referring to FIG. 4, the image dividing unit 110 divides the input original image frame into unit blocks having a predetermined size (S410). Next, the block sampling unit 120 selects a sample unit block from an upper block composed of adjacent unit blocks of a preset reference number on the original image frame (S420). In addition, the pixel sampling unit 130 determines whether the sample pixel of the plurality of pixels constituting the sample unit block corresponds to the foreground area that is the area where the object exists in the original image frame by the Gaussian model (S430).

화소 분류부(140)는 단위블록들 중에서 전경영역에 해당하는 표본화소가 포함된 단위블록인 표본 단위블록을 구성하는 화소들에 대해 사전에 설정된 규칙에 따른 우선순위를 부여한다(S440). 전경영역 결정부(150)는 부여된 우선순위에 따라 순차적으로 각 화소가 전경영역에 해당하는지 여부를 결정한다(S450). 즉, 표본 단위블록을 구성하는 화소들 중에서 최상위 우선순위가 부여된 화소들에 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하고, 가우시안 모델의 적용 결 과에 따라 하위 우선순위가 부여된 화소들이 전경영역에 해당하는지 여부를 결정한다.The pixel classification unit 140 gives priority to pixels constituting the sample unit block that is the unit block including the sample pixel corresponding to the foreground area among the unit blocks (S440). The foreground region determiner 150 sequentially determines whether each pixel corresponds to the foreground region according to the assigned priority (S450). That is, it is determined whether the image corresponds to the foreground area by applying a Gaussian model to the pixels to which the highest priority is assigned among the pixels constituting the sample unit block, and the pixel to which the lower priority is given according to the result of applying the Gaussian model. Determines whether they correspond to the foreground area.

도 5는 본 발명에 따른 가우시안 모델을 이용한 영상 처리 장치에 대한 바람직한 제2실시예의 구성을 도시한 블록도이다.5 is a block diagram showing the configuration of a second preferred embodiment of an image processing apparatus using a Gaussian model according to the present invention.

도 5를 참조하면, 본 발명에 따른 가우시안 모델을 이용한 영상 처리 장치는 영상 분할부(510), 트리 생성부(520), 샘플링부(530), 화소 분류부(540) 및 전경영역 결정부(550)를 구비한다.Referring to FIG. 5, an image processing apparatus using a Gaussian model according to the present invention includes an image splitter 510, a tree generator 520, a sampling unit 530, a pixel classifier 540, and a foreground region determiner ( 550).

영상 분할부(510)는 입력받은 원본 영상프레임을 일정한 크기의 단위블록으로 분할한다. 영상 분할부(510)는 본 발명에 따른 영상 분할 장치의 제1실시예에서 설명한 영상 분할부(110)와 동일한 기능을 수행하므로 상세한 설명을 생략한다.The image dividing unit 510 divides the input original image frame into unit blocks having a predetermined size. Since the image splitter 510 performs the same function as the image splitter 110 described in the first embodiment of the image splitter according to the present invention, a detailed description thereof will be omitted.

트리 생성부(520)는 단말노드 및 비단말노드를 계층적으로 배치하여 사분 트리 구조의 전경 추출 트리를 생성한다. 이때 단말노드에는 원본 영상프레임 상에서 각각의 단위블록의 위치정보가 포함되며, 비단말노드에는 원본 영상프레임 상에서 서로 인접하며 하위레벨에 위치하는 단말노드에 포함된 복수의 단위블록으로 이루어진 상위블록의 위치정보가 포함된다.The tree generating unit 520 hierarchically arranges terminal nodes and non-terminal nodes to generate a foreground extraction tree having a quadrant tree structure. At this time, the terminal node includes the location information of each unit block on the original video frame, and the non-terminal node is the position of the upper block composed of a plurality of unit blocks included in the terminal node adjacent to each other and located at a lower level on the original video frame. Information is included.

전경 추출 트리는 영상 분할부(510)에 의해 생성된 단위블록을 기초로 생성된다. 기존의 사분 트리는 마지막 레벨의 노드에 해당하는 블록의 크기가 일정하지 않게 된다는 단점이 있다. 예를 들면, 640×480의 해상도를 가지는 영상을 기초로 생성된 사분 트리에서 5레벨 이상의 노드에 해당하는 블록은 소수점의 크기를 갖는다. 본 발명에서는 영상 분할부(510)에 의해 원본 영상프레임이 일정한 크기의 단 위블록으로 분할되어 사분 트리의 마지막 레벨의 노드에 해당하는 블록의 크기를 고정시키므로 이러한 문제를 해결할 수 있다.The foreground extraction tree is generated based on the unit blocks generated by the image divider 510. The existing quadrant tree has a disadvantage that the size of the block corresponding to the last level node is not constant. For example, in a quadrant tree generated based on an image having a resolution of 640 × 480, a block corresponding to a node having five or more levels has a size of a decimal point. In the present invention, the original image frame is divided into unit blocks having a constant size by the image divider 510, thereby fixing the size of the block corresponding to the node of the last level of the quadrant tree.

도 6은 사분 트리 구조를 가지는 전경 추출 트리의 일 예를 도시한 도면이다. 사분 트리는 자식노드의 개수가 4인 트리구조를 말한다. 도 6을 참조하면, hk는 해당 노드의 높이가 k임을 의미하며, 마지막 레벨에 해당하는 노드의 높이는 0이다. 트리 생성부(520)는 전경 추출 트리를 생성할 때 마지막 레벨에 해당하는 단말노드에 각각 단위블록의 위치정보를 포함시킨다. 이때 원본 영상프레임 상에서 서로 인접한 단위블록들, 바람직하게는 정방형을 형성하는 단위블록들의 위치정보가 이웃한 노드에 포함되도록 한다.6 is a diagram illustrating an example of a foreground extraction tree having a quadrant tree structure. A quadrant tree is a tree structure with four child nodes. Referring to FIG. 6, h k means that the height of the corresponding node is k, and the height of the node corresponding to the last level is zero. When generating the foreground extraction tree, the tree generator 520 includes the location information of each unit block in the terminal node corresponding to the last level. In this case, the neighboring nodes include location information of unit blocks adjacent to each other on the original image frame, preferably, unit blocks forming a square.

다음으로 트리 생성부(520)는 이웃한 단말노드를 네 개씩 결합하여 상위레벨에 해당하는 비단말노드를 생성하고, 이웃한 네 개의 단말노드에 포함된 단위블록들로 이루어진 상위블록의 위치정보를 해당 비단말노드에 포함시킨다. 이러한 과정을 사용자에 의해 설정된 최상위 레벨에 이르기까지 반복한다. 최상위 레벨에 해당하는 노드의 높이 hhighest는 영상프레임의 해상도에 따라 제한되지만, 제한된 범위 내에서 사용자에 의해 결정될 수 있다. 따라서 최상위 레벨에 해당하는 노드가 반드시 원본 영상프레임 전체를 포함하는 루트 노드가 되는 것은 아니다.Next, the tree generation unit 520 combines the four neighboring terminal nodes by four to generate a non-terminal node corresponding to a higher level, and obtains position information of the upper block composed of unit blocks included in the four neighboring terminal nodes. Include in the non-terminal node. This process is repeated up to the highest level set by the user. The height h highest of the node corresponding to the highest level is limited according to the resolution of the image frame, but may be determined by the user within a limited range. Therefore, the node corresponding to the highest level does not necessarily become a root node that includes the entire original video frame.

도 6에 도시된 전경 추출 트리에서 최상위 레벨에 해당하는 노드의 높이 hhighest는 2이다. 높이 0에 해당하는 단말노드에 포함된 네 개의 단위블록이 높이 1에 해당하는 비단말노드에 포함될 한 개의 상위블록을 형성하고, 이러한 상위블록 네 개가 높이 2에 해당하는 비단말노드에 포함될 더 큰 상위블록 한 개를 형성하게 된다. 또한 단위블록 및 상위블록들은 모두 정방형의 형태를 가진다. 즉, 단위블록이 8×8의 크기를 가질 때 높이 1에 해당하는 비단말노드에 포함되는 상위블록의 크기는 16×16이 되고, 높이 2에 해당하는 비단말노드에 포함되는 상위블록의 크기는 32×32가 된다.The height h highest of the node corresponding to the highest level in the foreground extraction tree illustrated in FIG. 6 is 2. Four unit blocks included in the terminal node having height 0 form one upper block to be included in the non-terminal node corresponding to height 1, and these four upper blocks are larger than those included in the non-terminal node having height 2. One upper block is formed. In addition, the unit block and the upper block all have a square shape. That is, when the unit block has a size of 8 × 8, the size of the upper block included in the non-terminal node corresponding to the height 1 is 16 × 16, and the size of the higher block included in the non-terminal node corresponding to the height 2 Becomes 32 × 32.

샘플링부(530)는 가우시안 모델에 의해 전경 추출 트리의 최상위 레벨에 위치하는 비단말노드로부터 단말노드까지 순차적으로 각 노드에 포함된 블록을 구성하는 복수의 화소 중 표본화소가 원본 영상프레임에서 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 결정한다.In the sampling unit 530, an object is selected from among a plurality of pixels constituting a block included in each node sequentially from a non-terminal node to a terminal node located at the top level of the foreground extraction tree by a Gaussian model. Determine whether it corresponds to the foreground area that exists.

트리 생성부(520)에 의한 전경 추출 트리의 생성은 단말노드로부터 순차적으로 상위 레벨의 노드를 생성하는 순서로 이루어진다. 그러나 샘플링부(530)는 최상위 레벨의 노드로부터 단말노드까지 순차적으로 표본화소를 추출하여 전경영역의 해당 여부를 판단한다.Generation of the foreground extraction tree by the tree generator 520 is performed in order of generating nodes of higher level sequentially from the terminal node. However, the sampling unit 530 sequentially extracts sample pixels from the node of the highest level to the terminal node to determine whether the foreground area is applicable.

도 7에는 복수의 단위블록으로 분할된 원본 영상프레임이 도시되어 있다. 도 7에 도시된 원본 영상프레임은 64개의 단위블록으로 분할되어 있고, 각 단위블록은 앞의 예와 같이 8×8의 크기를 가진다. 도 7의 원본 영상프레임으로부터 도 6에 도시된 바와 같은 전경 추출 트리를 생성하는 경우, 높이 0에 해당하는 노드에는 각 단위블록의 위치정보가 포함되며, 높이 1에 해당하는 노드에는 인접한 네 개의 단위블록으로 이루어진 상위블록의 위치정보가 포함된다. 동일한 방법으로 높이 2에 해당하는 노드에는 높이 1에 해당하는 노드에 포함된 상위블록이 네 개 모여서 형 성된 상위블록, 즉 16개의 단위블록으로 이루어진 상위블록의 위치정보가 포함된다. 도 7에 도시된 원본 영상프레임에서 A 내지 D로 표시된 상위블록은 전경 추출 트리에서 높이 2에 해당하는 네 개의 노드에 각각 포함된 상위블록을 나타내며, 각각의 상위블록을 구성하는 블록에 표시된 1 내지 16의 숫자는 상위블록을 구성하는 16개의 단위블록을 나타낸다.7 shows an original video frame divided into a plurality of unit blocks. The original video frame shown in FIG. 7 is divided into 64 unit blocks, and each unit block has a size of 8 × 8 as in the previous example. When generating the foreground extraction tree as shown in FIG. 6 from the original image frame of FIG. 7, the node corresponding to height 0 includes location information of each unit block, and the four adjacent units are located in the node corresponding to height 1. Position information of an upper block composed of blocks is included. In the same way, the node corresponding to the height 2 includes the position information of the upper block formed by gathering four upper blocks included in the node corresponding to the height 1, that is, the upper block composed of 16 unit blocks. In the original video frame illustrated in FIG. 7, upper blocks denoted by A to D indicate upper blocks included in four nodes corresponding to height 2 in the foreground extraction tree, and 1 to 1 displayed on blocks constituting each upper block. The number 16 indicates 16 unit blocks constituting the upper block.

샘플링부(530)는 먼저 전경 추출 트리의 최상위 레벨인 높이 2에 해당하는 노드에 포함된 상위블록을 구성하는 화소 중에서 선택된 표본화소에 가우시안 모델을 적용한다. 가우시안 모델에 의해 표본화소가 전경영역에 해당하는지 여부를 결정하는 과정은 본 발명에 따른 영상 처리 장치의 제1실시예에서 화소 샘플링부(130)에 의해 표본화소에 가우시안 모델이 적용되는 과정과 동일하므로 상세한 설명을 생략한다.The sampling unit 530 first applies a Gaussian model to a sample pixel selected from pixels constituting an upper block included in a node corresponding to height 2, which is the highest level of the foreground extraction tree. The process of determining whether the sample pixel corresponds to the foreground area by the Gaussian model is the same as that of applying the Gaussian model to the sample pixel by the pixel sampling unit 130 in the first embodiment of the image processing apparatus according to the present invention. Therefore, detailed description is omitted.

샘플링부(530)는 표본화소에 대한 가우시안 모델 또는 혼합 가우시안 모델의 적용 결과 해당 표본화소가 배경영역에 해당하는 것으로 판단되면 동일한 높이의 이웃 노드에 포함된 상위블록에 대해 동일한 과정을 수행한다. 예를 들면, 도 7에 나타난 네 개의 상위블록 중 B로부터 선택된 표본화소가 배경영역에 해당하는 것으로 결정되면, 샘플링부(530)는 도 6의 전경 추출 트리에서 상위블록 B가 포함된 노드의 이웃노드에 포함된 상위블록 C로부터 표본화소를 선택하여 가우시안 모델을 적용한다. 상위블록 B도 16개의 단위블록으로 구성되어 있으므로 표본화소를 선택하기 전에 단위블록을 먼저 선택하여야 한다. 이러한 과정은 앞에서 설명한 바와 동일하다. 즉, 샘플링부(530)는 상위블록으로부터 선택된 표본화소가 배경영역에 해당하는 것으로 결정되면, 해당 상위블록을 포함하는 비단말노드의 자식노드에 포함된 블록에 대하여는 전경영역에 해당하는지 여부를 판단하지 않는다.When the sampling unit 530 determines that the corresponding sample pixel corresponds to the background region as a result of applying the Gaussian model or the mixed Gaussian model to the sample pixel, the sampling unit 530 performs the same process on the upper block included in the neighboring node having the same height. For example, if it is determined that the sample pixel selected from B among the four upper blocks shown in FIG. 7 corresponds to the background area, the sampling unit 530 may neighbor the node including the upper block B in the foreground extraction tree of FIG. 6. A Gaussian model is applied by selecting a sample pixel from the upper block C included in the node. Since the upper block B is also composed of 16 unit blocks, the unit block must be selected first before selecting the sample pixel. This process is the same as described above. That is, when it is determined that the sampling pixel selected from the upper block corresponds to the background region, the sampling unit 530 determines whether the block included in the child node of the non-terminal node including the upper block corresponds to the foreground region. I never do that.

표본화소에 대한 가우시안 모델 또는 혼합 가우시안 모델의 적용 결과 해당 표본화소가 전경영역에 해당하는 것으로 판단되는 경우, 샘플링부(530)는 하위 레벨에 위치하는 노드에 포함된 블록에 대해 동일한 과정을 수행한다. 이는 표본화소가 배경영역에 해당하는 것으로 판단되는 경우와는 상이하다. 이때 사분 트리에서 각 노드는 네 개의 자식노드를 가지고 있으므로 샘플링부(530)는 네 개의 노드들 중에서 가장 왼쪽에 위치하는 노드부터 순차적으로 가우시안 모델을 적용할 수 있다. 예를 들어 도 7에 나타난 네 개의 상위블록 중 A로부터 선택된 표본화소가 전경영역에 해당한다고 가정한다. 그러면 샘플링부(530)는 상위블록 A의 네 개의 자식노드, 즉 전경 추출 트리에서 높이 1에 해당하는 노드에 포함된 상위블록들에 대해 표본화소의 선택 과정을 수행한다.When it is determined that the corresponding sample pixel corresponds to the foreground region as a result of applying the Gaussian model or the mixed Gaussian model to the sample pixel, the sampling unit 530 performs the same process on the block included in the node located at the lower level. . This is different from the case where it is determined that the sample pixel corresponds to the background area. In this case, since each node has four child nodes in the quadrant tree, the sampling unit 530 may apply the Gaussian model sequentially from the node located at the leftmost of the four nodes. For example, it is assumed that a sample pixel selected from A among four upper blocks shown in FIG. 7 corresponds to the foreground area. Then, the sampling unit 530 performs a process of selecting a sample pixel for the four children nodes of the upper block A, that is, the upper blocks included in the node corresponding to the height 1 in the foreground extraction tree.

도 8에는 도 6의 전경 추출 트리에서 높이 1에 해당하는 노드에 포함된 상위블록 네 개가 도시되어 있다. 높이 1에 해당하는 노드에 포함된 네 개의 상위블록을 a 내지 d라 한다. 샘플링부(530)는 상위블록 a 내지 d로부터 표본화소를 선택하여 가우시안 모델을 적용한다.8 shows four upper blocks included in a node corresponding to height 1 in the foreground extraction tree of FIG. 6. Four upper blocks included in the node corresponding to height 1 are referred to as a to d. The sampling unit 530 applies a Gaussian model by selecting a sample pixel from upper blocks a to d.

비단말노드에 포함된 상위블록들에 대해 위와 같이 단위블록과 표본화소의 선택 및 가우시안 모델의 적용 과정을 반복하면 최종적으로 전경 추출 트리에서 높이 0에 해당하는 단말노드에 도달하게 된다. 따라서 샘플링부(530)는 단말노드에 포함된 단위블록으로부터 표본화소를 선택하고 가우시안 모델을 적용하여 해당 표 본화소가 전경영역에 해당하는지 여부를 판단한다.Repeating the process of selecting the unit block and the sample pixel and applying the Gaussian model to the upper blocks included in the non-terminal node finally reaches the terminal node having a height of 0 in the foreground extraction tree. Accordingly, the sampling unit 530 selects a sample pixel from the unit blocks included in the terminal node and applies a Gaussian model to determine whether the sample pixel corresponds to the foreground area.

결국, 상위블록으로부터 선택된 표본화소가 배경영역에 해당하는 것으로 판단되면 해당 상위블록이 포함된 노드의 자식노드에 대하여는 가우시안 모델을 적용할 필요가 없으며, 상위블록으로부터 선택된 표본화소가 전경영역에 해당하는 것으로 판단되면 하위 레벨에 위치하는 노드로 이동하여 보다 자세한 판단과정이 이루어지게 된다. 최종적으로 샘플링부(530)는 원본 영상프레임 상에서 전경영역에 해당하는 것으로 결정된 표본화소의 위치정보를 획득하게 된다.After all, if it is determined that the sample pixel selected from the upper block corresponds to the background region, it is not necessary to apply the Gaussian model to the child node of the node including the upper block, and the sample pixel selected from the upper block corresponds to the foreground region. If it is determined that the determination moves to a node located at a lower level, a more detailed determination process is performed. Finally, the sampling unit 530 acquires the location information of the sample pixel determined to correspond to the foreground area on the original image frame.

화소 분류부(540)는 단위블록들 중에서 전경영역에 해당하는 표본화소가 포함된 단위블록인 표본 단위블록을 구성하는 화소들에 대해 사전에 설정된 규칙에 따른 우선순위를 부여한다. 단위블록이 8×8의 크기를 가지는 경우, 각 화소에 우선순위가 부여되는 규칙 또는 패턴은 본 발명에 따른 영상 처리 장치의 제1실시예에서와 동일하다. 즉, 도 3a 및 도 3b에 도시된 경우와 동일하게 표본 단위블록을 구성하는 화소에 우선순위를 부여할 수 있다.The pixel classifier 540 gives priority to pixels constituting the sample unit block, which is a unit block including a sample pixel corresponding to the foreground area, among the unit blocks, according to a preset rule. When the unit block has a size of 8x8, the rule or pattern to which the priority is given to each pixel is the same as in the first embodiment of the image processing apparatus according to the present invention. That is, priority may be given to pixels constituting the sample unit block in the same manner as shown in FIGS. 3A and 3B.

전경영역 결정부(550)는 표본 단위블록을 구성하는 화소들에 부여된 우선순위에 따라 순차적으로 각 화소가 전경영역에 해당하는지 여부를 결정한다. 즉, 최상위 우선순위가 부여된 화소들에 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하고, 가우시안 모델의 적용 결과에 따라 하위 우선순위가 부여된 화소들이 전경영역에 해당하는지 여부를 결정한다. 예를 들어 표본 단위블록을 구성하는 화소들에 도 3a 및 도 3b에 도시된 것과 같이 우선순위가 부여된 경우, 각 화소가 전경영역에 해당하는지 여부를 결정하는 과정은 앞에서 설명한 것과 동일하 다.The foreground area determiner 550 sequentially determines whether each pixel corresponds to the foreground area according to the priority given to the pixels constituting the sample unit block. That is, the gaussian model is applied to the pixels to which the highest priority is applied to determine whether the pixel corresponds to the foreground area, and whether the pixels to which the lower priority is to correspond to the foreground area is determined according to the result of applying the Gaussian model. . For example, when priorities are assigned to the pixels constituting the sample unit block as illustrated in FIGS. 3A and 3B, the process of determining whether each pixel corresponds to the foreground area is the same as described above.

또한 전경영역 결정부(550)에 의해 표본화소가 포함된 표본 단위블록을 구성하는 화소들 중 일정 비율, 예를 들면 단위블록을 구성하는 전체 화소들의 개수의 70% 이상의 화소들이 전경영역에 해당하는 것으로 결정되면 해당 표본 단위블록은 전경영역을 구성하는 단위블록인 것으로 볼 수 있다. 따라서 전경영역 결정부(550)는 전경영역의 윤곽 회복을 위해 도 6에 도시된 전경 추출 트리에서 표본 단위블록을 포함하는 단말노드와 동일한 부모노드를 공유하는 단말노드에 포함된 단위블록들을 구성하는 모든 화소들에 대하여 동일한 방법으로 전경 추출을 수행할 수 있다. 즉, 각 화소에 우선순위를 부여하고, 최상위 우선순위가 부여된 화소로부터 순차적으로 전경영역에 해당하는지 여부를 결정하는 과정이 동일하게 이루어진다.In addition, the foreground area determiner 550 has a predetermined ratio among the pixels constituting the sample unit block including the sample pixel, for example, 70% or more pixels of the total number of pixels constituting the unit block correspond to the foreground area. If it is determined that the sample unit block is a unit block constituting the foreground area. Accordingly, the foreground area determiner 550 configures the unit blocks included in the terminal node sharing the same parent node as the terminal node including the sample unit block in the foreground extraction tree illustrated in FIG. 6 to recover the contour of the foreground area. Foreground extraction may be performed on all pixels in the same manner. That is, the process of giving priority to each pixel and determining whether the pixels correspond to the foreground region sequentially from the pixels given the highest priority is performed in the same manner.

도 9는 본 발명에 따른 영상 처리 방법에 대한 바람직한 제2실시예의 수행과정을 도시한 흐름도이다.9 is a flowchart illustrating a process of performing a second preferred embodiment of the image processing method according to the present invention.

도 9를 참조하면, 영상 분할부(510)는 입력받은 원본 영상프레임을 일정한 크기의 단위블록으로 분할한다(S910). 단위블록의 크기는 원본 영상프레임의 해상도에 따라 결정된다. 트리 생성부(520)는 원본 영상프레임 상에서 각각의 단위블록의 위치정보를 포함하는 단말노드 및 하위레벨에 위치하는 단말노드에 포함되며 원본 영상프레임 상에서 서로 인접한 복수의 단위블록으로 이루어진 상위블록의 위치정보를 포함하는 비단말노드를 계층적으로 배치하여 사분 트리 구조의 전경 추출 트리를 생성한다(S920). 전경 추출 트리의 생성 과정에 대하여는 앞에서 상세하게 설명하였다. 다음으로 샘플링부(530)는 가우시안 모델에 의해 전경 추출 트리의 최 상위 레벨에 위치하는 비단말노드로부터 단말노드까지 순차적으로 각 노드에 포함된 블록을 구성하는 복수의 화소 중 표본화소가 원본 영상프레임에서 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 결정한다(S930). 그 결과 샘플링부(530)는 원본 영상프레임 상에서 전경영역에 해당하는 표본화소의 위치정보를 얻을 수 있게 된다.Referring to FIG. 9, the image divider 510 divides an input original image frame into unit blocks having a predetermined size (S910). The size of the unit block is determined according to the resolution of the original video frame. The tree generating unit 520 is included in the terminal node including the location information of each unit block on the original video frame and the terminal node located at the lower level, and the position of the upper block composed of a plurality of unit blocks adjacent to each other on the original video frame. A non-terminal node including information is arranged hierarchically to generate a foreground extraction tree having a quadrant tree structure (S920). The process of generating the foreground extraction tree has been described in detail above. Next, the sampling unit 530 uses a Gaussian model to sequentially sample pixels of a plurality of pixels constituting a block included in each node from a non-terminal node to a terminal node located at the highest level of the foreground extraction tree. In operation S930, it is determined whether the object corresponds to the foreground area in which the object exists. As a result, the sampling unit 530 may obtain the position information of the sample pixel corresponding to the foreground area on the original image frame.

화소 분류부(540)는 단위블록들 중에서 전경영역에 해당하는 표본화소가 포함된 단위블록인 표본 단위블록을 구성하는 화소들에 대해 사전에 설정된 규칙에 따른 우선순위를 부여한다(S940). 마지막으로 전경영역 결정부(550)는 표본 단위블록을 구성하는 화소들 중에서 최상위 우선순위가 부여된 화소들에 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하고, 가우시안 모델의 적용 결과에 따라 하위 우선순위가 부여된 화소들이 전경영역에 해당하는지 여부를 결정한다(S950).The pixel classification unit 540 gives priority to pixels constituting the sample unit block which is the unit block including the sample pixel corresponding to the foreground area among the unit blocks (S940). Finally, the foreground area determiner 550 determines whether the foreground area corresponds to the foreground area by applying the Gaussian model to the pixels to which the highest priority is given among the pixels constituting the sample unit block, and according to the result of applying the Gaussian model. It is determined whether the pixels to which the lower priority is given correspond to the foreground area (S950).

본 발명의 성능을 평가하기 위한 실험을 수행하였다. 실험에는 640×480의 해상도를 가지는 세 개의 영상이 사용되었고, 도 10a 내지 도 10c에는 실험에 사용된 세 개의 영상인 'Rain', 'Beach' 및 'Car'가 도시되어 있다. 또한 Intel Core 2 CPU @ 2GHz의 컴퓨터를 이용하여 실험을 수행하였다.Experiments were conducted to evaluate the performance of the present invention. In the experiment, three images having a resolution of 640 × 480 were used, and FIGS. 10A to 10C illustrate three images used in the experiment, 'Rain', 'Beach', and 'Car'. In addition, experiments were performed using a computer with an Intel Core 2 CPU @ 2GHz.

표 1에는 본 발명에 따른 영상 처리 장치 및 방법의 제1실시예에서 사용한 전경 추출 알고리즘의 평균 처리 속도(프레임/초)를 기존의 알고리즘과 비교하여 나타내었고, 표 2에는 하나의 영상프레임에 대한 전경 추출 알고리즘의 평균 적용 횟수를 나타내었다.Table 1 shows the average processing speed (frame / second) of the foreground extraction algorithm used in the first embodiment of the image processing apparatus and method according to the present invention in comparison with the conventional algorithm. The average number of applications of the foreground extraction algorithm is shown.

MOGMOG w/treew / tree 본 발명Invention RainRain 20.1720.17 65.965.9 68.0968.09 BeachBeach 20.7120.71 64.0564.05 70.5470.54 CarCar 19.3519.35 48.9648.96 57.9657.96

MOGMOG w/treew / tree 본 발명Invention RainRain 307,200307,200 24,14324,143 7,5287,528 BeachBeach 307,200307,200 19,62319,623 7,1837,183 CarCar 307,200307,200 53,47153,471 22,00222,002

표 1 및 표 2에서, MOG는 기존의 혼합 가우시안 모델이고, w/tree는 기존의 사분 트리 구조를 이용한 전경 추출 알고리즘이다. 표 1을 참조하면, 본 발명에서 사용된 전경 추출 알고리즘을 사용할 경우 영상프레임에 대한 처리 속도가 향상된다는 것을 확인할 수 있다. 또한 표 2를 참조하면, 기존의 방법에 비해 본 발명의 경우에 하나의 영상프레임에 대한 전경 추출 알고리즘의 적용 횟수가 크게 감소하여 성능이 향상되었음을 확인할 수 있다.In Table 1 and Table 2, MOG is a conventional mixed Gaussian model and w / tree is a foreground extraction algorithm using the existing quadrant tree structure. Referring to Table 1, when using the foreground extraction algorithm used in the present invention it can be seen that the processing speed for the image frame is improved. In addition, referring to Table 2, it can be seen that the number of applications of the foreground extraction algorithm for one image frame is significantly reduced compared to the conventional method, thereby improving performance.

다음으로 표 3에는 본 발명에 따른 가우시안 모델을 이용한 영상 처리 장치 및 방법의 제2실시예에서 사용한 전경 추출 알고리즘의 처리 속도를 나타내었고, 표 4에는 전경 추출 알고리즘의 적용 횟수를 나타내었다.Next, Table 3 shows the processing speed of the foreground extraction algorithm used in the second embodiment of the image processing apparatus and method using the Gaussian model according to the present invention, and Table 4 shows the number of application of the foreground extraction algorithm.

MOGMOG MOG+w/treeMOG + w / tree MOG+SQSMOG + SQS MOG+SQS+SPRMOG + SQS + SPR MOG+SQS+PTNMOG + SQS + PTN MOG+SQS+PTN(pr)MOG + SQS + PTN (pr) rainrain 20.172820.1728 66.037866.0378 65.552865.5528 60.23260.232 63.422263.4222 67.374667.3746 beachbeach 20.715820.7158 67.40767.407 66.348666.3486 62.062462.0624 66.640666.6406 67.122467.1224 carcar 20.029820.0298 49.411249.4112 48.261448.2614 40.1501640.15016 47.032447.0324 52.75352.753

MOGMOG MOG+w/treeMOG + w / tree MOG+SQSMOG + SQS MOG+SQS+SPRMOG + SQS + SPR MOG+SQS+PTNMOG + SQS + PTN MOG+SQS+PTN(pr)MOG + SQS + PTN (pr) rainrain 307200000307200000 2312083523120835 2577569525775695 2482348524823485 2426700224267002 1582396715823967 beachbeach 307200000307200000 1982757219827572 2081573420815734 1986422719864227 1926056019260560 1285881312858813 carcar 307200000307200000 5109124051091240 5804917958049179 5567454055674540 5547325055473250 3721135937211359

표 1 및 표 2에서 MOG는 기존의 혼합 가우시안 모델, w/tree는 기존의 사분 트리 구조를 이용한 전경 추출 알고리즘, SQS는 정방형 블록 기반의 알고리즙, SPR은 도 3a에 도시된 나선형 구조의 생략 알고리즘, PTN은 도 3b에 도시된 패턴을 가지는 생략 알고리즘, 그리고 PTN(pr)은 패턴에 확률 모델을 적용한 생략 알고리즘을 나타낸다.In Table 1 and Table 2, MOG is the conventional mixed Gaussian model, w / tree is the foreground extraction algorithm using the existing quadrant tree structure, SQS is the square block-based algorithm, and SPR is the elimination algorithm of the spiral structure shown in FIG. , PTN indicates an omission algorithm having a pattern shown in FIG. 3B, and PTN (pr) indicates an omission algorithm applying a probability model to the pattern.

표 3 및 표 4를 참조하면, 혼합 가우시안 모델에 사분 트리 구조의 전경 추출 트리를 이용한 경우(MOG+w/tree)에는 2~3배의 속도 향상을 확인할 수 있다. 다른 영상에 비해 'car' 영상에서 낮은 성능 향상을 보이는데, 이는 도 10c에 도시된 바와 같이 'car' 영상에 존재하는 객체의 크기가 크므로 사분 트리 구조의 전경 추출 트리를 사용한 이득이 감소하였기 때문이다. 이는 표 4에 나타난 전경 추출 알고리즘의 적용 횟수가 'rain' 및 'beach' 영상에서는 혼합 가우시안 모델만을 사용하였을 때보다 92~93% 감소한 반면에 'car' 영상에서는 84% 감소한 것으로부터 확인할 수 있다. 따라서 전경영역에 위치하는 객체의 크기가 작을수록 본 발명에서의 속도 향상의 정도가 커지게 됨을 알 수 있다.Referring to Table 3 and Table 4, when the foreground extraction tree of the quadrant tree structure is used for the mixed Gaussian model (MOG + w / tree), it can be seen that the speed improvement of 2-3 times. Compared to other images, the performance of the 'car' image is lower than that of other images, since the size of the object present in the 'car' image is large, as shown in FIG. to be. This can be seen from the fact that the number of application of the foreground extraction algorithm shown in Table 4 is reduced by 92 ~ 93% in the 'rain' and 'beach' images than in the mixed Gaussian model alone, but by 84% in the 'car' image. Therefore, it can be seen that the smaller the size of the object located in the foreground area, the greater the speed improvement in the present invention.

사분 트리 구조(w/tree)를 사용한 것에서 정방형 블록 기반(SQS)으로 변경한 것에 의한 속도 차이는 나타나지 않았다. 그러나 패턴과 확률을 이용한 생략 알고리즘에서는 속도의 향상을 보였다. 다른 생략 알고리즘에서는 사분 트리 구조를 사용한 경우에 비해 전경 추출 알고리즘의 적용 횟수가 10% 미만으로 감소한 반면에 확률적 패턴 생략 알고리즘(MOG+SQS+PTN(pr))의 경우에는 35% 정도 감소하였기 때문이다.There was no difference in speed due to the change from quadrant tree structure (w / tree) to square block-based (SQS). However, the skipping algorithm using patterns and probabilities showed an improvement in speed. In the other omission algorithms, the number of application of the foreground extraction algorithm is reduced by less than 10% compared to the case of using the quadrant tree structure, while the probability reduction pattern (MOG + SQS + PTN (pr)) is reduced by 35%. to be.

도 11은 도 10a 내지 도 10c에 도시된 도면에 대해 실험을 수행한 결과를 도시한 도면이다. 도 11에서 (a) 내지 (c)는 각각 도 10a 내지 도 10c에 도시된 도면에 대해 실험을 수행한 결과를 나타내며, 왼쪽부터 순서대로 원본영상, 혼합 가우시안 모델을 적용한 영상, 사분 트리 구조의 전경 추출 트리를 사용한 결과 영상, 정방형 블록을 이용한 결과 영상, 나선형 구조의 생략 알고리즘을 사용한 결과 영상 및 확률적 패턴 생략 알고리즘을 사용한 결과 영상을 나타낸다. 도 11을 참조하면, 혼합 가우시안 모델과 비교하였을 때 다른 알고리즘의 결과 영상들도 비교적 나쁘지 않은 결과를 보인다. 계층적인 전경 추출 트리를 사용하였을 때 전 영상의 결과를 이용하더라도 작은 물체의 경우에는 깜빡거리는 현상이 발생하는 단점을 가진다.FIG. 11 is a diagram illustrating the results of experiments performed on the drawings illustrated in FIGS. 10A to 10C. In FIG. 11, (a) to (c) show the results of experiments on the drawings shown in FIGS. 10A to 10C, respectively, the original image, the image to which the mixed Gaussian model is applied, and the quadrant tree structure in order from the left. The result image using the extraction tree, the result image using the square block, the result image using the spiral elimination algorithm, and the result image using the stochastic pattern elimination algorithm are shown. Referring to FIG. 11, compared with the mixed Gaussian model, the results of other algorithms also show relatively poor results. When using the hierarchical foreground extraction tree, even if the result of the entire image is used, the flickering phenomenon occurs in the case of small objects.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The invention can also be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific preferred embodiments described above, and the present invention belongs to the present invention without departing from the gist of the present invention as claimed in the claims. Various modifications can be made by those skilled in the art, and such changes are within the scope of the claims.

도 1은 본 발명에 따른 가우시안 모델을 이용한 영상 처리 장치에 대한 바람직한 제1실시예의 구성을 도시한 블록도,1 is a block diagram showing the configuration of a first preferred embodiment of an image processing apparatus using a Gaussian model according to the present invention;

도 2는 상위블록으로부터 선택된 샘플 단위블록을 도시한 도면,2 is a diagram illustrating a sample unit block selected from an upper block;

도 3a는 나선형 구조의 생략 알고리즘을 도시한 도면,3A is a diagram illustrating an elimination algorithm of a spiral structure;

도 3b는 일정 패턴을 가지는 생략 알고리즘을 도시한 도면,3b illustrates an abbreviation algorithm having a predetermined pattern;

도 4는 본 발명에 따른 영상 처리 방법에 대한 바람직한 제1실시예의 수행과정을 도시한 흐름도,4 is a flowchart illustrating a process of performing a first preferred embodiment of an image processing method according to the present invention;

도 5는 본 발명에 따른 가우시안 모델을 이용한 영상 처리 장치에 대한 바람직한 제2실시예의 구성을 도시한 블록도,5 is a block diagram showing a configuration of a second preferred embodiment of an image processing apparatus using a Gaussian model according to the present invention;

도 6은 사분 트리 구조를 가지는 전경 추출 트리의 일 예를 도시한 도면,6 is a diagram illustrating an example of a foreground extraction tree having a quadrant tree structure;

도 7은 복수의 단위블록으로 분할된 원본 영상프레임을 도시한 도면,7 is a view illustrating an original video frame divided into a plurality of unit blocks;

도 8은 도 6의 전경 추출 트리에서 높이 1에 해당하는 노드에 포함된 상위블록 네 개를 도시한 도면,FIG. 8 illustrates four upper blocks included in a node corresponding to height 1 in the foreground extraction tree of FIG. 6;

도 9는 본 발명에 따른 영상 처리 방법에 대한 바람직한 제2실시예의 수행과정을 도시한 흐름도,9 is a flowchart illustrating a process of performing a second preferred embodiment of the image processing method according to the present invention;

도 10a 내지 도 10c는 실험에 사용된 세 개의 영상인 'Rain', 'Beach' 및 'Car'를 도시한 도면, 그리고,10A to 10C are diagrams showing three images 'Rain', 'Beach' and 'Car' used in the experiment, and

도 11은 도 10a 내지 도 10c에 도시된 도면에 대해 실험을 수행한 결과를 도시한 도면이다.FIG. 11 is a diagram illustrating the results of experiments performed on the drawings illustrated in FIGS. 10A to 10C.

Claims (17)

입력받은 원본 영상프레임을 일정한 크기의 단위블록으로 분할하는 영상 분할부;An image divider dividing the input original image frame into unit blocks having a predetermined size; 상기 원본 영상프레임 상에서 사전에 설정된 기준개수의 인접한 단위블록으로 이루어진 상위블록을 구성하는 단위블록들 중에서 샘플 단위블록을 선택하는 블록 샘플링부;A block sampling unit for selecting a sample unit block from unit blocks constituting an upper block of adjacent unit blocks of a predetermined reference number on the original video frame; 상기 샘플 단위블록을 구성하는 화소들 중에서 선택된 표본화소가 상기 원본 영상프레임에서 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 가우시안 모델에 의해 결정하는 화소 샘플링부;A pixel sampling unit for determining whether a sample pixel selected from pixels constituting the sample unit block corresponds to a foreground area that is an area where an object exists in the original image frame by a Gaussian model; 상기 단위블록들 중에서 상기 전경영역에 해당하는 표본화소가 포함된 단위블록인 표본 단위블록을 구성하는 화소들에 대해 사전에 설정된 규칙에 따른 우선순위를 부여하는 화소 분류부; 및A pixel classification unit for assigning priorities to pixels constituting a sample unit block which is a unit block including a sample pixel corresponding to the foreground area among the unit blocks; And 상기 표본 단위블록을 구성하는 화소들 중에서 최상위 우선순위가 부여된 화소들에 상기 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하고, 상기 가우시안 모델의 적용 결과에 따라 하위 우선순위가 부여된 화소들이 전경영역에 해당하는지 여부를 결정하는 전경영역 결정부;를 포함하는 것을 특징으로 하는 영상 처리 장치.The gaussian model is applied to the pixels to which the highest priority is assigned among the pixels constituting the sample unit block to determine whether the image corresponds to the foreground area, and the lower priority pixel is assigned according to the result of applying the Gaussian model. And a foreground area determiner configured to determine whether or not they correspond to the foreground area. 제 1항에 있어서,The method of claim 1, 상기 블록 샘플링부는 상기 원본 영상프레임에 시간적으로 앞서는 이전 영상 프레임 상에서 상기 상위블록과 동일한 위치에 해당하는 상위블록으로부터 선택된 샘플 단위블록에 인접한 단위블록을 상기 샘플 단위블록으로 선택하는 것을 특징으로 하는 영상 처리 장치.The block sampling unit selects, as the sample unit block, a unit block adjacent to a sample unit block selected from an upper block corresponding to the same position as the upper block on a previous image frame temporally preceding the original image frame. Device. 제 2항에 있어서,3. The method of claim 2, 상기 화소 샘플링부는 상기 이전 영상프레임의 샘플 단위블록으로부터 선택된 표본화소와 동일한 위치에 해당하는 화소를 상기 표본화소로 선택하는 것을 특징으로 하는 영상 처리 장치.And the pixel sampling unit selects, as the sample pixel, a pixel corresponding to the same position as the sample pixel selected from the sample unit block of the previous image frame. 제 1항 내지 제 3항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 전경영역 결정부는 상기 표본 단위블록을 구성하는 화소들 중에서 전경영역에 해당하는 화소가 사전에 설정된 기준비율 이상이면 상기 원본 영상프레임 상에서 상기 표본 단위블록과 인접한 단위블록을 구성하는 화소들에 대해 상기 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하는 것을 특징으로 하는 영상 처리 장치.The foreground area determiner may be configured to perform the processing of the pixels of the unit block adjacent to the sample unit block on the original image frame when the pixel corresponding to the foreground area is greater than or equal to a preset reference ratio among the pixels constituting the sample unit block. And a Gaussian model is applied to determine whether the image corresponds to a foreground area. 입력받은 원본 영상프레임을 일정한 크기의 단위블록으로 분할하는 영상 분할부;An image divider dividing the input original image frame into unit blocks having a predetermined size; 상기 원본 영상프레임 상에서 상기 각각의 단위블록의 위치정보를 포함하는 단말노드 및 상기 원본 영상프레임 상에서 서로 인접한 복수의 단위블록으로 이루어진 상위블록의 위치정보를 포함하는 비단말노드를 계층적으로 배치하여 사분 트리 구조의 전경 추출 트리를 생성하는 트리 생성부;Quadrant by hierarchically arranging a terminal node including the location information of each unit block on the original video frame and a non-terminal node including the location information of a higher block composed of a plurality of unit blocks adjacent to each other on the original video frame A tree generator for generating a foreground extraction tree of a tree structure; 상기 전경 추출 트리의 최상위 레벨에 위치하는 비단말노드로부터 단말노드까지 순차적으로 상기 비단말노드에 포함된 상위블록 및 상기 단말노드에 포함된 단위블록을 구성하는 화소들 중에서 각각 선택된 표본화소가 상기 원본 영상프레임에서 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 가우시안 모델에 의해 결정하는 샘플링부;From the non-terminal node located at the top level of the foreground extraction tree to the terminal node, a sample pixel selected from each of pixels constituting the upper block included in the non-terminal node and the unit block included in the terminal node is sequentially selected from the original source. A sampling unit configured to determine, by a Gaussian model, whether the image corresponds to a foreground area that is an area where an object exists in the image frame; 상기 단위블록들 중에서 상기 전경영역에 해당하는 표본화소가 포함된 단위블록인 표본 단위블록을 구성하는 화소들에 대해 사전에 설정된 규칙에 따른 우선순위를 부여하는 화소 분류부; 및A pixel classification unit for assigning priorities to pixels constituting a sample unit block which is a unit block including a sample pixel corresponding to the foreground area among the unit blocks; And 상기 표본 단위블록을 구성하는 화소들 중에서 최상위 우선순위가 부여된 화소들에 상기 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하고, 상기 가우시안 모델의 적용 결과에 따라 하위 우선순위가 부여된 화소들이 전경영역에 해당하는지 여부를 결정하는 전경영역 결정부;를 포함하는 것을 특징으로 하는 영상 처리 장치.The gaussian model is applied to the pixels to which the highest priority is assigned among the pixels constituting the sample unit block to determine whether the image corresponds to the foreground area, and the lower priority pixel is assigned according to the result of applying the Gaussian model. And a foreground area determiner configured to determine whether or not they correspond to the foreground area. 제 5항에 있어서,The method of claim 5, 상기 샘플링부는 상기 전경 추출 트리의 비단말노드에 포함된 상위블록으로부터 선택된 표본화소가 배경영역에 해당하는 것으로 결정되면 해당 비단말노드의 하위노드에 포함된 상위블록 또는 단위블록으로부터 선택된 표본화소를 전경영역에 해당하는지 여부에 대한 결정 대상에서 제외하는 것을 특징으로 하는 영상 처리 장치.When the sampling unit determines that the sample pixel selected from the upper block included in the non-terminal node of the foreground extraction tree corresponds to the background area, the sampling unit may view the sample pixel selected from the upper block or unit block included in the lower node of the non-terminal node. The image processing device, characterized in that excluded from the determination target whether or not the area. 제 5항 또는 제 6항에 있어서,The method according to claim 5 or 6, 상기 전경영역 결정부는 상기 표본 단위블록을 구성하는 화소들 중에서 전경영역에 해당하는 화소가 사전에 설정된 기준비율 이상이면 상기 표본 단위블록을 포함하는 단말노드와 동일한 부모노드를 공유하는 이웃노드에 포함된 단위블록을 구성하는 화소들에 대해 상기 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하는 것을 특징으로 하는 영상 처리 장치.The foreground area determiner is included in a neighbor node sharing the same parent node as the terminal node including the sample unit block when a pixel corresponding to the foreground area among the pixels constituting the sample unit block is greater than or equal to a preset reference ratio. And applying the Gaussian model to the pixels constituting the unit block to determine whether the pixel corresponds to a foreground area. 제 1항 또는 제 5항에 있어서,The method according to claim 1 or 5, 상기 가우시안 모델은 혼합 가우시안 모델인 것을 특징으로 하는 영상 처리 장치.The Gaussian model is a mixed Gaussian model. 입력받은 원본 영상프레임을 일정한 크기의 단위블록으로 분할하는 영상 분할단계;Dividing the input original video frame into unit blocks having a predetermined size; 상기 원본 영상프레임 상에서 사전에 설정된 기준개수의 인접한 단위블록으로 이루어진 상위블록을 구성하는 단위블록들 중에서 샘플 단위블록을 선택하는 블록 샘플링단계;A block sampling step of selecting a sample unit block from unit blocks constituting an upper block composed of adjacent unit blocks of a predetermined reference number on the original video frame; 상기 샘플 단위블록을 구성하는 화소들 중에서 선택된 표본화소가 상기 원본 영상프레임에서 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 가우시안 모델에 의해 결정하는 화소 샘플링단계;A pixel sampling step of determining, by a Gaussian model, whether a sample pixel selected from pixels constituting the sample unit block corresponds to a foreground area that is an area where an object exists in the original image frame; 상기 단위블록들 중에서 상기 전경영역에 해당하는 표본화소가 포함된 단위블록인 표본 단위블록을 구성하는 화소들에 대해 사전에 설정된 규칙에 따른 우선순위를 부여하는 화소 분류단계; 및A pixel classification step of assigning priorities to pixels constituting a sample unit block which is a unit block including a sample pixel corresponding to the foreground region among the unit blocks according to a preset rule; And 상기 표본 단위블록을 구성하는 화소들 중에서 최상위 우선순위가 부여된 화소들에 상기 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하고, 상기 가우시안 모델의 적용 결과에 따라 하위 우선순위가 부여된 화소들이 전경영역에 해당하는지 여부를 결정하는 전경영역 결정단계;를 포함하는 것을 특징으로 하는 영상 처리 방법.The gaussian model is applied to the pixels to which the highest priority is assigned among the pixels constituting the sample unit block to determine whether the image corresponds to the foreground area, and the lower priority pixel is assigned according to the result of applying the Gaussian model. And a foreground area determining step of determining whether or not they correspond to the foreground area. 제 9항에 있어서,The method of claim 9, 상기 블록 샘플링단계에서, 상기 원본 영상프레임에 시간적으로 앞서는 이전 영상프레임 상에서 상기 상위블록과 동일한 위치에 해당하는 상위블록으로부터 선택된 샘플 단위블록에 인접한 단위블록을 상기 샘플 단위블록으로 선택하는 것을 특징으로 하는 영상 처리 방법.In the block sampling step, a unit block adjacent to a sample unit block selected from an upper block corresponding to the same position as the upper block on a previous image frame temporally preceding the original video frame is selected as the sample unit block. Image processing method. 제 10항에 있어서,The method of claim 10, 상기 화소 샘플링단계에서, 상기 이전 영상프레임의 샘플 단위블록으로부터 선택된 표본화소와 동일한 위치에 해당하는 화소를 상기 표본화소로 선택하는 것을 특징으로 하는 영상 처리 방법.And in the pixel sampling step, selecting the pixel corresponding to the same position as the sample pixel selected from the sample unit block of the previous image frame as the sample pixel. 제 9항 내지 제 11항 중 어느 한 항에 있어서,The method according to any one of claims 9 to 11, 상기 전경영역 결정단계에서, 상기 표본 단위블록을 구성하는 화소들 중에서 전경영역에 해당하는 화소가 사전에 설정된 기준비율 이상이면 상기 원본 영상프레임 상에서 상기 표본 단위블록과 인접한 단위블록을 구성하는 화소들에 대해 상기 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하는 것을 특징으로 하는 영상 처리 방법.In the determining of the foreground area, when the pixel corresponding to the foreground area is greater than or equal to a preset reference ratio among the pixels constituting the sample unit block, the pixels constituting the unit block adjacent to the sample unit block on the original image frame. And applying the Gaussian model to determine whether the image corresponds to a foreground area. 입력받은 원본 영상프레임을 일정한 크기의 단위블록으로 분할하는 영상 분할단계;Dividing the input original video frame into unit blocks having a predetermined size; 상기 원본 영상프레임 상에서 상기 각각의 단위블록의 위치정보를 포함하는 단말노드 및 상기 원본 영상프레임 상에서 서로 인접한 복수의 단위블록으로 이루어진 상위블록의 위치정보를 포함하는 비단말노드를 계층적으로 배치하여 사분 트리 구조의 전경 추출 트리를 생성하는 트리 생성단계;Quadrant by hierarchically arranging a terminal node including the location information of each unit block on the original video frame and a non-terminal node including the location information of a higher block composed of a plurality of unit blocks adjacent to each other on the original video frame A tree generation step of generating a foreground extraction tree of the tree structure; 상기 전경 추출 트리의 최상위 레벨에 위치하는 비단말노드로부터 단말노드까지 순차적으로 상기 비단말노드에 포함된 상위블록 및 상기 단말노드에 포함된 단위블록을 구성하는 화소들 중에서 각각 선택된 표본화소가 상기 원본 영상프레임에서 객체가 존재하는 영역인 전경영역에 해당하는지 여부를 가우시안 모델에 의해 결정하는 샘플링단계;From the non-terminal node located at the top level of the foreground extraction tree to the terminal node, a sample pixel selected from each of pixels constituting the upper block included in the non-terminal node and the unit block included in the terminal node is sequentially selected from the original source. A sampling step of determining, by the Gaussian model, whether the image corresponds to a foreground area that is an area where an object exists in the image frame; 상기 단위블록들 중에서 상기 전경영역에 해당하는 표본화소가 포함된 단위블록인 표본 단위블록을 구성하는 화소들에 대해 사전에 설정된 규칙에 따른 우선순위를 부여하는 화소 분류단계; 및A pixel classification step of assigning priorities to pixels constituting a sample unit block which is a unit block including a sample pixel corresponding to the foreground region among the unit blocks according to a preset rule; And 상기 표본 단위블록을 구성하는 화소들 중에서 최상위 우선순위가 부여된 화소들에 상기 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하고, 상기 가우시안 모델의 적용 결과에 따라 하위 우선순위가 부여된 화소들이 전경영역에 해당하는지 여부를 결정하는 전경영역 결정단계;를 포함하는 것을 특징으로 하는 영상 처리 방법.The gaussian model is applied to the pixels to which the highest priority is assigned among the pixels constituting the sample unit block to determine whether the image corresponds to the foreground area, and the lower priority pixel is assigned according to the result of applying the Gaussian model. And a foreground area determining step of determining whether or not they correspond to the foreground area. 제 13항에 있어서,The method of claim 13, 상기 샘플링단계에서, 상기 전경 추출 트리의 비단말노드에 포함된 상위블록으로부터 선택된 표본화소가 배경영역에 해당하는 것으로 결정되면 해당 비단말노드의 하위노드에 포함된 상위블록 또는 단위블록으로부터 선택된 표본화소를 전경영역에 해당하는지 여부에 대한 결정 대상에서 제외하는 것을 특징으로 하는 영상 처리 방법.In the sampling step, when it is determined that the sample pixel selected from the upper block included in the non-terminal node of the foreground extraction tree corresponds to the background area, the sample pixel selected from the upper block or unit block included in the lower node of the non-terminal node Is excluded from the determination of whether to correspond to the foreground area. 제 13항 또는 제 14항에 있어서,The method according to claim 13 or 14, 상기 전경영역 결정단계에서, 상기 표본 단위블록을 구성하는 화소들 중에서 전경영역에 해당하는 화소가 사전에 설정된 기준비율 이상이면 상기 표본 단위블록을 포함하는 단말노드와 동일한 부모노드를 공유하는 이웃노드에 포함된 단위블록을 구성하는 화소들에 대해 상기 가우시안 모델을 적용하여 전경영역에 해당하는지 여부를 결정하는 것을 특징으로 하는 영상 처리 방법.In the foreground area determining step, if a pixel corresponding to the foreground area among the pixels constituting the sample unit block is greater than or equal to a preset reference ratio, the neighboring node sharing the same parent node as the terminal node including the sample unit block. And applying the Gaussian model to the pixels constituting the unit block to determine whether the pixel corresponds to a foreground area. 제 9항 또는 제 13항에 있어서,The method according to claim 9 or 13, 상기 가우시안 모델은 혼합 가우시안 모델인 것을 특징으로 하는 영상 처리 방법.The Gaussian model is a mixed Gaussian model. 제 9항 또는 제 13항에 기재된 영상 처리 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the image processing method of claim 9 or 13 on a computer.
KR1020090025833A 2009-03-26 2009-03-26 Apparatus and method for processing image using Gaussian model KR101014296B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090025833A KR101014296B1 (en) 2009-03-26 2009-03-26 Apparatus and method for processing image using Gaussian model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090025833A KR101014296B1 (en) 2009-03-26 2009-03-26 Apparatus and method for processing image using Gaussian model

Publications (2)

Publication Number Publication Date
KR20100107649A KR20100107649A (en) 2010-10-06
KR101014296B1 true KR101014296B1 (en) 2011-02-16

Family

ID=43129315

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090025833A KR101014296B1 (en) 2009-03-26 2009-03-26 Apparatus and method for processing image using Gaussian model

Country Status (1)

Country Link
KR (1) KR101014296B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101296734B1 (en) 2011-12-30 2013-08-20 전남대학교산학협력단 Method for object segmentation by combination of gaussian mixture model and rgb clustering
US10885636B2 (en) 2017-11-07 2021-01-05 Electronics And Telecommunications Research Institute Object segmentation apparatus and method using Gaussian mixture model and total variation

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101117235B1 (en) * 2010-12-21 2012-03-16 연세대학교 산학협력단 Apparatus and method for recognizing traffic accident
KR101394242B1 (en) * 2011-09-23 2014-05-27 광주과학기술원 A method for monitoring a video and an apparatus using it
KR101272645B1 (en) * 2013-04-24 2013-06-10 (주)나인정보시스템 Detection apparatus and method for objects in the image using spatio-temporal gaussian mixture background model
KR101479845B1 (en) * 2013-05-31 2015-01-09 서울여자대학교 산학협력단 Anterior cruciate ligament segmentation apparatus and the method from Knee MR images
KR101581162B1 (en) * 2015-06-24 2015-12-31 전정희 Automatic detection method, apparatus and system of flame, smoke and object movement based on real time images
KR102593453B1 (en) * 2016-05-31 2023-10-24 엘지디스플레이 주식회사 Display for virtual reality and driving method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032760A (en) 2000-07-17 2002-01-31 Mitsubishi Electric Corp Method and device for extracting moving object
KR100568237B1 (en) 2004-06-10 2006-04-07 삼성전자주식회사 Apparatus and method for extracting moving objects from video image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032760A (en) 2000-07-17 2002-01-31 Mitsubishi Electric Corp Method and device for extracting moving object
KR100568237B1 (en) 2004-06-10 2006-04-07 삼성전자주식회사 Apparatus and method for extracting moving objects from video image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
박대용, 김재민, 조성원, 김준범, "개선된 적응적 가우시안 혼합 모델을 이용한 객체 검출", 한국퍼지 및 지능시스템학회지 제15권 제2호, pp.283-289, 2005.
박순영, 송영섭, 김항준, "가우시안 분포를 기반으로 한 얼굴 추적", 한국정보과학회, 한국컴퓨터종합학술대회 논문집 제33권 제1(B)호, pp. 295-297, 2006.

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101296734B1 (en) 2011-12-30 2013-08-20 전남대학교산학협력단 Method for object segmentation by combination of gaussian mixture model and rgb clustering
US10885636B2 (en) 2017-11-07 2021-01-05 Electronics And Telecommunications Research Institute Object segmentation apparatus and method using Gaussian mixture model and total variation

Also Published As

Publication number Publication date
KR20100107649A (en) 2010-10-06

Similar Documents

Publication Publication Date Title
KR101014296B1 (en) Apparatus and method for processing image using Gaussian model
JP6441980B2 (en) Method, computer and program for generating teacher images
US8605795B2 (en) Video editing methods and systems
Sajid et al. Background subtraction for static & moving camera
Jin et al. Image aesthetic predictors based on weighted CNNs
US10535141B2 (en) Differentiable jaccard loss approximation for training an artificial neural network
EP2224357A1 (en) Video segmentation
US9058540B2 (en) Data clustering method and device, data processing apparatus and image processing apparatus
JP2020518191A (en) Quantization parameter prediction maintaining visual quality using deep neural network
US9418440B2 (en) Image segmenting apparatus and method
CN109859236B (en) Moving object detection method, system, computing device and storage medium
JPH1153525A (en) Facial organ detector and medium
CN111026914A (en) Training method of video abstract model, video abstract generation method and device
CN105828081B (en) encoding method and encoding device
US20150063697A1 (en) Method and apparatus for segmenting object in image
Giraldo et al. Graph CNN for moving object detection in complex environments from unseen videos
Dey et al. Efficient foreground extraction from HEVC compressed video for application to real-time analysis of surveillance ‘big’data
CN111079864A (en) Short video classification method and system based on optimized video key frame extraction
CN110691246B (en) Video coding method and device and electronic equipment
KR20210109719A (en) Method and Apparatus for Video Colorization
Liu et al. Scene background estimation based on temporal median filter with Gaussian filtering
CN111161282B (en) Target scale selection method for image multi-level segmentation based on depth seeds
JP5801614B2 (en) Image processing apparatus and image processing method
Katsenou et al. Understanding video texture—A basis for video compression
CN111488476B (en) Image pushing method, model training method and corresponding devices

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140120

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150108

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee