KR101137110B1 - Method and apparatus for surveying objects in moving picture images - Google Patents

Method and apparatus for surveying objects in moving picture images Download PDF

Info

Publication number
KR101137110B1
KR101137110B1 KR1020100081490A KR20100081490A KR101137110B1 KR 101137110 B1 KR101137110 B1 KR 101137110B1 KR 1020100081490 A KR1020100081490 A KR 1020100081490A KR 20100081490 A KR20100081490 A KR 20100081490A KR 101137110 B1 KR101137110 B1 KR 101137110B1
Authority
KR
South Korea
Prior art keywords
current
foreground
background
blob
image
Prior art date
Application number
KR1020100081490A
Other languages
Korean (ko)
Other versions
KR20120018566A (en
Inventor
김인수
Original Assignee
(주)넥스리얼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)넥스리얼 filed Critical (주)넥스리얼
Priority to KR1020100081490A priority Critical patent/KR101137110B1/en
Publication of KR20120018566A publication Critical patent/KR20120018566A/en
Application granted granted Critical
Publication of KR101137110B1 publication Critical patent/KR101137110B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명에 따른 영상 내 물체 감시 방법은, 현재 배경 모델과 현재 영상을 비교하여, 변경이 상대적으로 적은 블록들은 배경으로 분류하고 변경이 상대적으로 큰 블럭들의 영상 클래스를 전경 또는 고스트 중 하나로 분류하는 단계, 영상 클래스가 전경인 블록들을 묶어 현재 전경 블롭으로 출력하고 영상 클래스가 고스트인 블록들을 묶어 고스트 블롭으로 출력하는 단계, 이전 전경 블롭들의 정보를 누적한 트랙들과 대응하는 현재 전경 블롭들을 찾아 트랙들에 반영하는 단계 및 고스트 블롭들이 일정 개수 이상 누적되면, 현재 배경 모델 내의 상기 누적된 고스트 블롭에 해당하는 블록 위치를 갱신하여 다음 배경 모델을 생성하는 단계를 포함할 수 있다.In the object monitoring method according to the present invention, comparing the current background model and the current image, classifying the blocks with relatively small changes to the background and classifying the video class of blocks with relatively large changes as either foreground or ghost. Grouping the blocks whose image class is the foreground and outputting them as the current foreground blobs and outputting the blocks whose image class is ghost as the ghost blobs, searching for the current foreground blobs corresponding to the tracks accumulating information of the previous foreground blobs and the tracks. The method may include generating a next background model by updating a block position corresponding to the accumulated ghost blob in the current background model when the number of reflected and ghost blobs is accumulated more than a predetermined number.

Description

영상 내 물체 감시 방법 및 장치{METHOD AND APPARATUS FOR SURVEYING OBJECTS IN MOVING PICTURE IMAGES}METHOD AND APPARATUS FOR SURVEYING OBJECTS IN MOVING PICTURE IMAGES}

본 발명은 영상 감시에 관한 것으로, 더욱 상세하게는, 동영상 내에서 이동 물체의 추적 기술에 관한 것이다.TECHNICAL FIELD The present invention relates to video surveillance, and more particularly, to a technique for tracking a moving object in a video.

CCTV나 DVR 등의 장비를 이용한 영상 보안 방식에서는 단순히 촬영된 영상을 획득하는 수준에 불과하여 감시자가 육안으로 화면을 감시하고 영상 속의 특이 상황을 판단하여야 한다. 이러한 방식은 감시 시간이 길어질수록 감시자의 육체적 피로, 집중력 저하 때문에 감시 효율이 급격히 떨어진다. 따라서, 영상 내 물체들의 감시 기술이 필요하게 되었다. 초기에는 단순한 움직임 영역 검출 기능을 사용한 기술이 개발되었지만, 최근에는 연산의 정확성과 효율성을 확보하기 위해서 배경 모델을 이용한 움직임 영역 추출 기술과 추출된 영역에서 물체 단위로 정의된 대상 물체 영상을 추적하는 물체 추적 기술을 접목하여 사용자에게 영상을 분석한 정보를 전달하는 기술의 개발이 활발히 진행되고 있다.In the video security method using equipment such as CCTV or DVR, it is only a level of obtaining captured images, so the monitor should visually monitor the screen and determine the unusual situation in the image. In this type of monitoring, the longer the monitoring time, the lower the monitoring efficiency due to the monitor's physical fatigue and reduced concentration. Thus, there is a need for surveillance technology of objects in the image. Initially, a technique using a simple motion region detection function was developed, but recently, a motion region extraction technique using a background model and an object tracking an object image defined in units of objects in the extracted region in order to secure the accuracy and efficiency of computation. Development of a technology that delivers information analyzed by combining the tracking technology with the user is actively progressing.

이에 따라, 영상에서 배경 모델을 추출하고, 배경 모델에 상대적으로 움직임을 보이는 물체 영상을 추출하는 다양한 기술들이 제안되어 왔다. Accordingly, various techniques have been proposed for extracting a background model from an image and extracting an object image showing a movement relative to the background model.

배경 모델의 추출은 일정 기간 동안 촬영한 영상을 바탕으로 배경 모델을 추출하고, 배경 모델과 현재 영상을 비교하여 전경(foreground image)을 추출하며, 현실에서 배경이 변화하는 것을 반영하여 기존의 배경 모델을 갱신하는 과정으로 구성된다.Extracting the background model extracts the background model based on the images taken for a certain period of time, compares the background model with the current image, extracts the foreground image, and reflects the change in the background in reality. It consists of a process of updating.

이때, 화면 상에 오랫동안 배경처럼 존재하던 물체가 움직인 후에, 그 물체가 있던 자리가 실제로는 배경임에도 불구하고 이후에도 움직임 영역(전경)으로 인식되는 현상인 배경 갱신 교착 현상(deadlock) 문제, 움직임을 보이는 영역들이 많아 배경 모델을 초기화하지 못하는 문제, 물체가 천천히 움직이거나 배경과 비슷하여 배경 모델에 물체가 흐리게 합성되는 모델 흐려짐 현상 등의 문제를 겪을 수 있다. In this case, after an object that has existed as a background on the screen for a long time moves, the background update deadlock problem, which is a phenomenon that is recognized as a moving area (foreground) even after the place where the object is actually the background, is moved. Due to the many visible areas, the user may not be able to initialize the background model, or the object may move slowly or similar to the background.

배경 모델을 정확히 추출하고 갱신할 수 있는 것은 그로부터 물체 영상을 추출하고 추적하는 데에 결과적으로 큰 차이를 나타낸다. 따라서, 배경 갱신 교착 현상, 움직임을 가진 영역들이 많을 때의 배경 모델 초기화, 모델 흐려짐 현상 등을 해결할 수 있는 영상 감시 기술이 요구된다.Being able to accurately extract and update the background model results in significant differences in extracting and tracking object images from it. Accordingly, there is a need for a video surveillance technology capable of solving a background update deadlock, a background model initialization when there are many moving regions, and a model blur.

본 발명이 해결하고자 하는 과제는 영상으로부터 정확하게 배경 모델을 추출하고 그로부터 물체 영상을 효과적으로 추출하며 추적할 수 있는 영상 감시 장치 및 방법을 제공하는 데에 있다.An object of the present invention is to provide an image surveillance apparatus and method capable of accurately extracting a background model from an image and effectively extracting and tracking an object image therefrom.

본 발명의 일 측면에 따른 영상 내 물체 감시 방법은,Object monitoring method in the image according to an aspect of the present invention,

현재 배경 모델과 현재 영상을 비교하여, 변경이 상대적으로 적은 블록들은 배경으로 분류하고 변경이 상대적으로 큰 블럭들의 영상 클래스를 전경 또는 고스트 중 하나로 분류하는 단계;Comparing the current background model with the current image, classifying blocks with relatively small changes as background and classifying the image class of blocks with relatively large changes as either foreground or ghost;

영상 클래스가 전경인 블록들을 묶어 현재 전경 블롭으로 출력하고 영상 클래스가 고스트인 블록들을 묶어 고스트 블롭으로 출력하는 단계;Grouping blocks in which the image class is the foreground and outputting the current foreground blob, and outputting the bundles in which the image class is ghost as the ghost blob;

이전 전경 블롭들의 정보를 누적한 트랙들과 대응하는 현재 전경 블롭들을 찾아 트랙들에 반영하는 단계; 및Finding current foreground blobs corresponding to tracks accumulating information of previous foreground blobs and reflecting them in the tracks; And

고스트 블롭들이 일정 개수 이상 누적되면, 현재 배경 모델 내의 상기 누적된 고스트 블롭에 해당하는 블록 위치를 갱신하여 다음 배경 모델을 생성하는 단계를 포함할 수 있다.When the number of ghost blobs is accumulated a predetermined number or more, the method may include generating a next background model by updating a block position corresponding to the accumulated ghost blobs in the current background model.

일 실시예에 따르면, 상기 영상 내 물체 감시 방법은,According to one embodiment, the method for monitoring an object in the image,

연속하는 영상들에서 추출한 시간-공간적으로 안정적인 영역들을 결합하여 배경 모델을 초기화하는 단계를 더 포함할 수 있다.The method may further include initializing a background model by combining temporal-spatially stable regions extracted from successive images.

일 실시예에 따르면, 상기 연속하는 영상들에서 추출한 시간-공간적으로 안정적인 영역들을 결합하여 배경 모델을 초기화하는 단계는,According to one embodiment, the step of initializing the background model by combining the time-spatially stable regions extracted from the successive images,

상기 연속하는 영상들 중 하나로서 선택된 임시 배경과 그 외의 영상들을 블록 별로 비교하여, 변경이 적은 블록을 배경으로 분류한 횟수를 블록 별로 계수하는 단계; 및Comparing the temporary background selected as one of the consecutive images with other images for each block, and counting the number of times the blocks having little change are classified as the background for each block; And

배경으로 분류되는 횟수가 소정 값 이상인 블록을 배경 샘플로서 출력하는 단계를 포함할 수 있다.And outputting a block having a number of times classified as a background more than a predetermined value as a background sample.

일 실시예에 따르면, 상기 연속하는 영상들에서 추출한 시간-공간적으로 안정적인 영역들을 결합하여 배경 모델을 초기화하는 단계는,According to one embodiment, the step of initializing the background model by combining the time-spatially stable regions extracted from the successive images,

상기 연속하는 영상들 중 하나로서 선택된 임시 배경과 현재 영상, 상기 임시 배경과 과거 영상 및 상기 현재 영상과 과거 영상을 각각 비교하는 단계; 및Comparing the temporary background and the current image selected as one of the continuous images, the temporary background and the past image, and the current image and the past image, respectively; And

각 블록 별로, 상기 임시 배경과 현재 영상 사이 및 상기 임시 배경과 과거 영상 사이에서는 변화가 있지만 상기 현재 영상과 과거 영상 사이에서는 변화가 없는 블록인 것으로 판정된 횟수가 소정 값 이상이면, 그 블록 위치에 상응하는 현재 영상의 블록을 배경 샘플로서 출력하는 단계를 더 포함할 수 있다.For each block, if the number of times that it is determined that there is a change between the temporary background and the current image and between the temporary background and the past image but there is no change between the current image and the past image is greater than or equal to a predetermined value, The method may further include outputting a corresponding block of the current image as a background sample.

일 실시예에 따르면,상기 영상 내 물체 감시 방법은,According to one embodiment, the method for monitoring an object in the image,

각 블록 위치마다 다수의 배경 샘플들을 대표하는 하나의 최종 배경 샘플을 도출하고 블록 별로 도출된 최종 배경 샘플들을 결합하여 상기 배경 모델을 생성하는 단계를 더 포함할 수 있다.The method may further include deriving one final background sample representing a plurality of background samples at each block position and combining the final background samples derived for each block to generate the background model.

일 실시예에 따르면, 상기 최종 배경 샘플은,According to one embodiment, the final background sample,

상기 다수의 배경 샘플들의 히스토그램 중간값에 상응하는 배경 샘플일 수 있다.The background sample may correspond to a histogram median of the plurality of background samples.

일 실시예에 따르면, 상기 현재 배경 모델과 현재 영상을 비교하여, 변경이 상대적으로 적은 블록들은 배경으로 분류하고 변경이 상대적으로 큰 블럭들을 전경 또는 고스트 중 하나로 분류하는 단계는,According to an embodiment, comparing the current background model with a current image, classifying blocks with relatively small changes as a background and classifying blocks with relatively large changes as a foreground or ghost may include:

상기 현재 배경 모델과 상기 현재 영상 사이의 블록 단위의 차분이 소정 값 이하이면 해당 블록을 배경으로 분류하고, 그렇지 않으면 해당 블록을 움직임 영역으로 분류하는 단계;Classifying the block as a background if the difference in the unit of a block between the current background model and the current image is less than or equal to a predetermined value; otherwise classifying the block as a motion region;

상기 현재 배경 모델 및 상기 현재 영상에 대해, 상기 현재 영상 내에서 움직임 영역으로 분류되는 블록들에서 윤곽선을 각각 검출하는 단계;Detecting contours from blocks classified as motion regions in the current image, for the current background model and the current image;

상기 현재 배경 모델의 윤곽선과 상기 현재 영상의 윤곽선의 차분이 소정 값 이상인 블록 중에서, 상기 현재 영상의 윤곽선이 검출되는 블록의 윤곽선 클래스를 전경으로 분류하고, 상기 현재 영상의 윤곽선이 검출되지 않지만 상기 현재 배경 모델의 윤곽선이 검출되는 블록의 윤곽선 클래스를 고스트로 분류하는 단계;Among the blocks whose difference between the contour of the current background model and the contour of the current image is equal to or greater than a predetermined value, the contour class of the block from which the contour of the current image is detected is classified as the foreground, and the contour of the current image is not detected, but the current Classifying the contour class of the block in which the contour of the background model is detected as a ghost;

윤곽선 클래스가 전경으로 분류된 블록들로부터 해당 블록이 전경일 확률 분포를 예측하고, 윤곽선 클래스가 고스트로 분류된 블록들로부터 해당 블록이 고스트일 확률 분포를 예측하는 단계; 및Predicting a probability distribution that the block is the foreground from blocks whose contour class is classified as foreground, and predicting a probability distribution that the block is ghost from blocks classified as ghost; And

해당 블록의 전경 확률이 고스트 확률보다 크면 해당 블록의 영상 클래스를 전경으로 분류하며 그렇지 않으면 고스트로 분류하는 단계를 포함할 수 있다.If the foreground probability of the block is greater than the ghost probability, the image class of the block may be classified as the foreground, otherwise the classification may be included as a ghost.

일 실시예에 따르면, 상기 영상 클래스가 전경인 블록들을 묶어 현재 전경 블롭으로 출력하고 영상 클래스가 고스트인 블록들을 묶어 고스트 블롭으로 출력하는 단계는,According to an embodiment, the step of tying blocks with the foreground image class as a foreground foreground blob and outputting the bundle with ghost class as a ghost blob,

연결 요소 라벨링을 이용하여 블록들을 묶음으로써 블롭을 생성하는 단계;Creating a blob by concatenating blocks using concatenation element labeling;

각 블롭 내에서 가장 많은 블록들이 가지는 클래스가 전경이면 해당 블롭을 현재 전경 블롭으로 출력하는 단계; 및Outputting the corresponding blob as the current foreground blob if the class of the most blocks in each blob is the foreground; And

각 블롭 내에서 가장 많은 블록들이 가지는 클래스가 고스트이면 고스트 블롭으로 출력하는 단계를 포함할 수 있다.If the class having the most blocks in each blob is ghost, it may include outputting the ghost blob.

일 실시예에 따르면, 상기 이전 전경 블롭들의 정보를 누적한 트랙들과 대응하는 현재 전경 블롭들을 찾아 트랙들에 반영하는 단계는According to an embodiment, the step of finding current foreground blobs corresponding to the tracks accumulating the information of the previous foreground blobs and reflecting the current foreground blobs to the tracks may be performed.

이전 트랙에 포함된 전경 블롭 정보과 현재 전경 블롭의 유사도가 소정 값보다 큰 현재 전경 블롭과 상기 이전 트랙을 대응시키는 단계; 및Associating the previous track with a current foreground blob whose similarity between the foreground blob information included in the previous track and the current foreground blob is greater than a predetermined value; And

대응된 현재 전경 블롭의 움직임에 따라 상기 이전 트랙의 전경 블롭 정보를 갱신하는 단계를 포함할 수 있다.And updating foreground blob information of the previous track according to the movement of the corresponding current foreground blob.

일 실시예에 따르면, 상기 이전 트랙에 포함된 전경 블롭 정보과 현재 전경 블롭의 유사도가 소정 값보다 큰 현재 전경 블롭과 상기 이전 트랙을 대응시키는 단계는,According to an embodiment, the step of mapping the previous track with the current foreground blob having a similarity between the foreground blob information included in the previous track and the current foreground blob greater than a predetermined value may include:

상기 이전 트랙에 포함된 전경 블롭의 과거 위치를 기초로 현재 영상에서 후보 영역을 정의하는 단계; 및Defining a candidate region in a current image based on a past position of a foreground blob included in the previous track; And

상기 후보 영역에 포함된 현재 전경 블롭 및 이전 트랙에 관하여 우선적으로 연산된 유사도가 소정 값보다 큰 경우, 현재 전경 블롭과 상기 이전 트랙을 대응시키는 단계를 포함할 수 있다.If the similarity calculated first with respect to the current foreground blob and the previous track included in the candidate area is greater than a predetermined value, the method may include mapping the current foreground blob to the previous track.

일 실시예에 따르면, 상기 이전 전경 블롭들의 정보를 누적한 트랙들과 대응하는 현재 전경 블롭들을 찾아 트랙들에 반영하는 단계는,According to one embodiment, the step of finding the current foreground blobs corresponding to the tracks accumulating the information of the previous foreground blobs and reflecting on the tracks,

트랙들 사이의 거리가 소정 값 이하인 적어도 하나의 트랙을 묶어 정의된 트랙 집합이 차지하는 영역에 상응하는 현재 전경 블롭들과 상기 트랙 집합 내의 트랙들 사이에서 연산된 유사도가 소정 값보다 큰 현재 전경 블롭과 상기 이전 트랙을 대응시킴으로써 상기 이전 트랙을 갱신하는 단계;A current foreground blob corresponding to an area occupied by a defined track set by grouping at least one track whose distance between tracks is equal to or less than a predetermined value and a current foreground blob having a similarity calculated between tracks in the track set greater than a predetermined value; Updating the previous track by matching the previous track;

연산된 유사도가 소정 값보다 작아 어느 현재 전경 블롭들과도 대응되지 않는 트랙을 비활성 트랙으로 설정하는 단계; 및Setting a track as an inactive track whose calculated similarity is less than a predetermined value and does not correspond to any current foreground blobs; And

어느 트랙 집합이 차지하는 영역에도 상응하지 않는 현재 전경 블롭을 위한 새로운 트랙을 생성하는 단계를 포함할 수 있다.And generating a new track for the current foreground blob that does not correspond to an area occupied by any track set.

일 실시예에 따르면, 상기 트랙들 사이의 거리가 소정 값 이하인 적어도 하나의 트랙을 묶어 정의된 트랙 집합이 차지하는 영역에 상응하는 현재 전경 블롭들과 상기 트랙 집합 내의 트랙들 사이에서 연산된 유사도가 소정 값보다 큰 현재 전경 블롭과 상기 이전 트랙을 대응시킴으로써 상기 이전 트랙을 갱신하는 단계는,According to one embodiment, the similarity calculated between the tracks in the track set and the current foreground blobs corresponding to the area occupied by the track set defined by grouping at least one track whose distance between the tracks is less than or equal to a predetermined value is predetermined. Updating the previous track by mapping the previous track with a current foreground blob that is greater than a value,

상기 트랙 집합 내 각각의 트랙들을 구분하기 위한 특징점, 다수의 유사도 함수들을 포함하는 유사도 함수 집합을 상기 트랙 집합과 함께 정의하고, 상기 유사도 함수들 중 하나의 유사도 함수에 기초하여 현재 전경 블롭들과 이전 트랙 간의 유사도를 연산하는 단계를 포함할 수 있다.A similarity function set including a feature point for distinguishing each track in the track set, a plurality of similarity functions, is defined with the track set, and the current foreground blobs and the previous track based on the similarity function of one of the similarity functions. Computing the similarity between the.

일 실시예에 따르면, 상기 유사도 함수 집합에 포함되는 유사도 함수들은 오차 절대값 합산(SAD), 오차 제곱값 합산(SSD), 바타차라야(battacharraya) 함수 및 상관(correlation) 함수를 포함할 수 있다.According to an embodiment, the similarity functions included in the similarity function set may include an absolute error sum (SAD), an error square sum (SSD), a battacharraya function, and a correlation function. .

일 실시예에 따르면, 상기 유사도 함수들에 관하여 누적된 유사 판정의 성능 이력을 기초로 가장 성능이 우수한 유사도 함수가 선택될 수 있다.According to an embodiment, the similarity function having the best performance may be selected based on the performance history of the similarity determination accumulated with respect to the similarity functions.

일 실시예에 따르면, 상기 유사도 함수들에 관하여 누적된 유사 판정의 성능 이력을 기초로 성능이 우수한 적어도 두 개의 상위 유사도 함수들 중에 연산이 상대적으로 간단한 유사도 함수가 선택될 수 있다.According to an embodiment, a similarity function having a relatively simple operation may be selected among at least two higher similarity functions having excellent performance based on the performance history of the similarity determination accumulated with respect to the similarity functions.

일 실시예에 따르면, 상기 고스트 블롭들이 일정 개수 이상 누적되면 현재 배경 모델 내의 상기 누적된 고스트 블롭에 해당하는 블록 위치를 갱신하여 다음 배경 모델을 생성하는 단계는,According to an embodiment of the present disclosure, if the ghost blobs are accumulated more than a predetermined number, generating a next background model by updating a block position corresponding to the accumulated ghost blobs in the current background model.

고스트 블롭들을 블록 별로 누적하는 단계;Accumulating ghost blobs block by block;

일정 개수 이상으로 누적된 상기 고스트 블롭들을 대표할 수 있는 변화 발생 배경 영역을 도출하는 단계; 및Deriving a change occurrence background region that can represent the ghost blobs accumulated in a predetermined number or more; And

상기 도출된 변화 발생 배경 영역으로써 현재 배경 모델 내의 상기 누적된 고스트 블롭에 해당하는 블록 위치를 갱신하여 다음 배경 모델을 생성하는 단계를 포함할 수 있다.The method may include generating a next background model by updating a block position corresponding to the accumulated ghost blob in the current background model as the derived change generation background area.

본 발명의 다른 측면에 따른 영상 감시 장치는, According to another aspect of the present invention, a video surveillance apparatus,

현재 배경 모델과 현재 영상을 비교하여, 변경이 상대적으로 적은 블록들은 배경으로 분류하고 변경이 상대적으로 큰 블럭들의 영상 클래스를 전경 또는 고스트 중 하나로 분류하며, 영상 클래스가 전경인 블록들을 묶어 현재 전경 블롭으로 출력하고 영상 클래스가 고스트인 블록들을 묶어 고스트 블롭으로 출력하는 움직임 클래스 판정부;Compares the current background model with the current image, classifies blocks with less change as background, classifies the image class of blocks with larger changes as either foreground or ghost, and binds blocks with image class as foreground to the current foreground blob A motion class determiner for outputting a block to which the image class is ghosted and outputting the ghost block;

이전 전경 블롭들의 정보를 누적한 트랙들과 대응하는 현재 전경 블롭들을 찾아 트랙들에 반영하는 물체 추적부; 및An object tracker which finds current foreground blobs corresponding to tracks accumulating information of previous foreground blobs and reflects the current foreground blobs to the tracks; And

고스트 블롭들이 일정 개수 이상 누적되면, 현재 배경 모델 내의 상기 누적된 고스트 블롭에 해당하는 블록 위치를 갱신하여 다음 배경 모델을 생성하는 배경 모델 생성부를 포함할 수 있다.If the number of ghost blobs is accumulated more than a predetermined number, the background model generator may generate a next background model by updating a block position corresponding to the accumulated ghost blobs in the current background model.

본 발명의 장치 및 방법에 따르면, 영상으로부터 정확하게 배경 모델을 추출하고 그로부터 다수의 물체 영상을 효과적으로 추출하며 추적할 수 있다. 이를 기초로, 감시 영역의 침범 여부 검출, 물체 계수, 물체의 출현과 화면 이탈의 검출 등의 지능형 영상 보안 기능을 구현할 수 있다.According to the apparatus and method of the present invention, it is possible to accurately extract a background model from an image and to effectively extract and track a plurality of object images therefrom. Based on this, an intelligent video security function such as detection of invasion of the surveillance area, object counting, detection of the appearance of an object and deviation from the screen can be implemented.

또한, 본 발명에 따른 영상 감시 장치 및 방법에 따르면, 효율적인 연산을 기반으로 메모리 사용량 및 전력 소모량이 적으므로, 다양한 시스템에 쉽게 적용할 수 있다.In addition, according to the video surveillance apparatus and method according to the present invention, since the memory usage and power consumption is small based on the efficient operation, it can be easily applied to various systems.

도 1은 본 발명의 일 실시예에 따른 움직임 클래스 분류를 통한 배경 모델 초기화, 물체 추적 및 배경 갱신을 포함하는 영상 감시 프로세스를 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 영상 감시 프로세스에서 이용되는 트랙 정보의 수명 주기를 예시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 영상 감시 프로세스 중 배경 모델 초기화의 세부 단계들을 예시한 순서도이다.
도 4는 본 발명의 일 실시예에 따른 영상 감시 프로세스 중 배경 모델 초기화에 따라 초기화된 배경 모델을 예시한 영상 캡쳐 화면들이다.
도 5는 본 발명의 일 실시예에 따른 영상 감시 프로세스 중 움직임 영역 검출 및 움직임 클래스 분류의 세부 단계들을 예시한 순서도이다.
도 6은 본 발명의 일 실시예에 따른 영상 감시 프로세스에서 블록 단위의 움직임 영역 추출을 예시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 영상 감시 프로세스에서 전경 블롭과 트랙 사이의 유사도를 이용한 물체 추적을 예시한 개념도이다.
도 8은 본 발명의 일 실시예에 따른 영상 감시 장치를 예시한 블록도이다.
1 is a conceptual diagram illustrating an image surveillance process including background model initialization, object tracking, and background update through motion class classification according to an embodiment of the present invention.
2 is a diagram illustrating a life cycle of track information used in the video surveillance process according to an embodiment of the present invention.
3 is a flowchart illustrating detailed steps of initializing a background model during an image monitoring process according to an embodiment of the present invention.
4 are image capture screens illustrating a background model initialized according to a background model initialization during an image monitoring process according to an embodiment of the present invention.
5 is a flowchart illustrating the detailed steps of motion region detection and motion class classification during the video surveillance process according to an embodiment of the present invention.
6 is a diagram illustrating a motion region extraction in units of blocks in a video surveillance process according to an embodiment of the present invention.
7 is a conceptual diagram illustrating object tracking using a similarity between a foreground blob and a track in a video surveillance process according to an embodiment of the present invention.
8 is a block diagram illustrating a video surveillance apparatus according to an embodiment of the present invention.

본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다. For the embodiments of the invention disclosed herein, specific structural and functional descriptions are set forth for the purpose of describing an embodiment of the invention only, and it is to be understood that the embodiments of the invention may be practiced in various forms, The present invention should not be construed as limited to the embodiments described in Figs.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. The same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

도 1은 본 발명의 일 실시예에 따른 움직임 클래스 분류를 통한 배경 모델 초기화, 물체 추적 및 배경 갱신을 포함하는 영상 감시 프로세스를 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating an image surveillance process including background model initialization, object tracking, and background update through motion class classification according to an embodiment of the present invention.

도 1을 참조하면, 단계(S11)는 연속하는 영상들에서 추출한 시간-공간적으로 안정적인 영역들을 결합하여 배경 모델(background model, BG)을 초기화(S111)하거나, 배경 모델에서 변경이 발생하여 고스트(ghost, GH)로 분류된 부분들이 일정 개수 이상 누적되면, 현재 배경 모델의 해당 블록 위치를 누적된 변경 부분들로써 갱신하여 다음 배경 모델을 생성(S112)함으로써, 움직이는 물체를 배제하고 순수하게 배경만 추출한 배경 모델을 생성하는 단계이다.Referring to FIG. 1, in step S11, a background model (BG) may be initialized by combining time-spatially stable regions extracted from consecutive images (S111), or a change may occur in the background model to generate a ghost ( ghost, GH) is accumulated more than a certain number of parts, by updating the corresponding block position of the current background model with the cumulative change parts to generate the next background model (S112), to exclude the moving object and purely extract only the background Creating a background model.

여기서, 배경은 움직임 영역이 없는 전체 영상을 의미하며, 이에 비해 전경(foreground, FG)은 움직임이 있는 영역으로서 시간적 공간적 추적의 대상이 되는 부분 영상이다. 현재 촬영된 영상에서 이러한 추적의 대상인 전경을 추출하기 위해서 그 기준이 되는 합성 영상을 배경 모델이라고 한다. Here, the background means an entire image without a motion region, whereas the foreground (FG) is a partial image that is a target of temporal and spatial tracking as a motion region. In order to extract the foreground, which is the target of such tracking, from the currently captured image, the synthesized image that is a reference is called a background model.

종래의 영상 감시 프로세스에서 화면 상에 물체의 이동이 많은 경우에는 이동하는 물체들이 흐릿하게 섞여 배경 모델이 제대로 생성되지 않는다. 하지만 본 발명의 단계(S111)는 시간-공간적으로 안정적인 영역들을 추출하고 이들을 결합함으로써 이동하는 물체들을 배제하여 배경 모델을 초기화할 수 있다.In the conventional video surveillance process, when there are many movements of objects on the screen, the moving objects are blurred and the background model is not properly generated. However, step S111 of the present invention may initialize the background model by excluding moving objects by extracting time-spatially stable regions and combining them.

한편 종래의 영상 감시 프로세스에서는, 오랫동안 움직임이 없어 배경으로 인식하던 어떤 영역에 있는 물체가 갑자기 움직여 사라지면, 실제로는 그 위치의 영역이 새로운 배경으로 이해되어야 함에도 불구하고, 그때까지의 배경 모델에 대비하여 움직임이 있는 영역이기 때문에 계속 전경으로 인식된다. 따라서, 그러한 위치에 유의미한 물체가 전혀 없음에도 영상 감시 프로세스는 추적을 계속 시도하게 되는데, 이러한 영역을 고스트라고 한다.On the other hand, in the conventional video surveillance process, when an object in an area that has been recognized as a background moves for a long time and suddenly moves and disappears, in reality, the area of the position should be understood as a new background. Because it is a moving area, it is still recognized as the foreground. Thus, the video surveillance process continues to attempt tracking even if there is no significant object at that location, which is called ghost.

단계(S112)은, 단계(S12)와 함께, 움직임이 있는 영역이 전경인지 또는 고스트인지를 지속적으로 판정하고, 고스트 영역들을 배경 모델에 취합하여 새로운 배경 모델로 갱신함으로써, 종래의 영상 감시 프로세스에서 대처할 수 없었던 고스트 현상을 해소할 수 있다.Step S112, together with step S12, continuously determines whether the area in motion is a foreground or ghost, collects the ghost areas into a background model, and updates the new background model in a conventional video surveillance process. The ghost phenomenon that could not be dealt with can be solved.

반대로, 어떤 물체가 화면에 들어 온 후 정지 상태로 오랫동안 있을 경우, 종래의 영상 감시 프로세스는 그 물체를 배경으로 인식할 수 있다. 하지만 본 발명의 영상 감시 프로세스는 그러한 물체를 배경 모델의 갱신에 이용하지 않으므로 배경으로 잘못 인식하지 않는다.Conversely, if an object stays stationary for a long time after entering the screen, the conventional video surveillance process can recognize the object as a background. However, the video surveillance process of the present invention does not use such an object to update the background model and therefore does not mistakenly recognize it as a background.

나아가, 종래의 영상 감시 프로세스에서는, 배경 모델의 갱신 시점에 배경을 가로지르며 천천히 이동하는 물체의 정보가 배경 모델에 흐릿하게 섞이는 배경 흐려짐 현상이 나타날 수 있다.Furthermore, in the conventional video surveillance process, a background blur phenomenon may occur in which information of an object moving slowly across the background is blurred in the background model at the time of updating the background model.

이에 대해 본 발명의 단계(S112)는 고스트 영역들을 누적하였다가 일시에 배경 모델을 갱신함으로써 배경 모델에 움직이는 물체가 섞이는 현상을 해소할 수 있다. 구체적으로, 고스트 영역들을 블록 별로 누적하고, 일정 개수 이상으로 누적된 고스트 영역들을 대표할 수 있는 변화 발생 배경 영역(MVBG: moving background)을 도출한다. 이어서 도출된 변화 발생 배경 영역으로써 현재 배경 모델 내의 해당하는 블록 위치를 갱신하여 다음 배경 모델을 생성할 수 있다.In contrast, step S112 of the present invention accumulates ghost regions and updates the background model at a time, thereby eliminating a phenomenon in which moving objects are mixed with the background model. In detail, the ghost regions are accumulated for each block, and a change generation background region (MVBG) that represents the ghost regions accumulated over a predetermined number is derived. The next background model may be generated by updating a corresponding block position in the current background model as the derived change generation background area.

이때, 고스트 영역들이 다수 식별되었다 하더라도 해당 블록에 일정 개수 누적되기 전까지는 배경 모델은 갱신되지 않을 수 있다. 하지만, 고스트를 유발한 물체 자체는 전경으로 식별될 수 있으므로, 고스트 영역의 갱신이 다소 지연되더라도 물체를 추적하는 데에는 지장이 없다. 더구나 사용자에게 보여지는 화면은 현재 촬영되는 화면이고 배경 모델의 갱신 지연은 사용자가 인지하기에는 짧기 때문에 사용자는 배경 모델의 갱신 지연을 알아채지 못한다.In this case, even if a plurality of ghost regions are identified, the background model may not be updated until a certain number is accumulated in the corresponding block. However, the ghost-inducing object itself can be identified as the foreground, so there is no problem in tracking the object even if the update of the ghost area is somewhat delayed. In addition, since the screen displayed to the user is the screen currently being shot and the update delay of the background model is short for the user to recognize, the user does not notice the update delay of the background model.

단계(S12)는 현재 배경 모델과 현재 영상을 비교하여, 변경 또는 차이가 상대적으로 적은 블록들은 배경으로 분류하고 변경 또는 차이가 상대적으로 큰 블럭들의 영상 클래스를 전경 또는 고스트 중 하나로 분류하고, 이어서 분류된 블록들을 묶어 움직임 덩어리(blob)인 전경 블롭 또는 고스트 블롭으로 출력한다.Step S12 compares the current background model with the current image, classifies blocks with relatively small changes or differences as the background, classifies image classes of blocks with relatively large changes or differences as either foreground or ghosts, and then classifies. The combined blocks are combined and output as a motion blob, a foreground blob or a ghost blob.

이 단계(S12)는 각 블록들의 움직임 클래스를 결정하는 단계이다. 먼저 배경 모델과 현재 영상을 비교하여 변화가 발생하였는지 판단한다. 배경 모델에 비해 현재 영상에서 변화가 생기는 경우는 두 가지이다. 첫째, 실제로 물체가 이동함으로써 그에 해당하는 블록에서 변화가 발생하며, 둘째 배경으로 인식되었던 부분에서 멈춰 있던 물체가 이동했을 때에 변화가 발생한다.This step S12 is a step of determining the motion class of each block. First, the background model is compared with the current image to determine whether a change has occurred. There are two cases where changes occur in the current image compared to the background model. First, when the object actually moves, a change occurs in the corresponding block. Second, a change occurs when an object stopped in the part that was recognized as the background moves.

일정 수준 이하의 변화는 촬영 시의 또는 후처리 시의 영상 노이즈 등으로 인한 일시적인 현상일 수 있다. 그러한 일정 수준 이하의 변화는 배경 모델에 영향을 미치지 않도록 해당 블록을 배경으로 분류한다.The change below a certain level may be a temporary phenomenon due to image noise during photographing or post-processing. Such sub-level changes classify the block into the background so that it does not affect the background model.

일정 정도 이상의 변화가 발생한 경우 그러한 블럭들은 실제 움직이는 물체인 전경 또는 배경에 변화가 생긴 고스트 중 하나이므로, 전경 또는 고스트의 움직임 클래스 중 하나로 분류한다.If more than a certain amount of change occurs, such blocks are classified as one of the motion classes of the foreground or the ghost because they are one of the ghosts that have changed in the foreground or the background, which are actual moving objects.

움직임 클래스가 분류된 블록들은 각각 움직임 클래스로 라벨링된 블록들이 주변 블록들과 어떤 공간적인 관계를 가지는지에 따라 묶인다. 예를 들어, 라벨링된 블록들은 연결 요소 라벨링(Connected Component Labelling) 기법에 따라 각각 블롭으로 묶인다. 이 블롭에는 종종 서로 다른 움직임 클래스로 라벨링된 블록이 섞이기도 한다. 이 경우, 블롭 내의 블록들이 가지는 클래스 라벨 중에 가장 많은 비율을 가진 클래스 라벨로 해당 블롭의 움직임 클래스를 결정할 수 있다.The blocks in which the motion class is classified are grouped according to how spatially the blocks labeled with the motion class have relation with neighboring blocks. For example, the labeled blocks are each blobed in accordance with the Connected Component Labeling technique. This blob is often a mix of blocks labeled with different movement classes. In this case, the motion class of the blob may be determined by the class label having the largest proportion among the class labels of the blocks in the blob.

이로써 추적 대상인 물체에 상응하는 움직임 덩어리, 즉 전경 블롭을 추출할 수 있고, 또한 배경 모델의 갱신 대상인 고스트에 상응하는 움직임 덩어리, 즉 고스트 블롭을 추출할 수 있다.As a result, the motion block corresponding to the object to be tracked, that is, the foreground blob, may be extracted, and the motion block corresponding to the ghost to be updated of the background model, that is, the ghost blob, may be extracted.

단계(S13)는 물체의 추적을 위해, 추출된 전경 블롭들을 추적하는 트랙을 생성, 유지, 갱신 및 관리하는 단계이다. 영상 감시 분야에서 트랙은 물체의 추적 상태를 정의하는 단위로서, 본 발명에서는 특히 물체의 이동 궤적(trace), 물체를 표현하는 특징점들(features), 다른 물체의 트랙과 비교하기 위한 유사도 함수의 집합을 포함할 수 있다.Step S13 is a step of creating, maintaining, updating and managing a track for tracking the extracted foreground blobs for tracking the object. In the field of video surveillance, a track is a unit for defining a tracking state of an object, and in the present invention, a set of similarity functions for comparing a track of an object, features representing an object, and a track of another object in particular. It may include.

트랙에 관한 설명을 위해 잠시 도 2를 참조하면, 도 2는 본 발명의 일 실시예에 따른 영상 감시 프로세스에서 이용되는 트랙 정보의 수명 주기를 예시한 도면이다.Referring to FIG. 2 for a brief description of tracks, FIG. 2 is a diagram illustrating a life cycle of track information used in the video surveillance process according to an embodiment of the present invention.

어떤 물체에 상응하는 전경 움직임 덩어리, 즉 전경 블롭에 상응하는 트랙이 없을 때에는, 새로운 트랙이 생성된다. 이때, 새로 생성된 트랙은 임시 트랙으로서 아직 안정성이 담보되지 않아 일정기간 관찰 대상이다. 전경 움직임 덩어리와 1대1의 대응 관계가 일정한 관찰 기간 동안 유지됨으로써 안정성이 검증되면, 임시 트랙은 활성 트랙으로 상태가 변경된다. When there is no foreground motion chunk corresponding to an object, i.e. a track corresponding to the foreground blob, a new track is created. In this case, the newly created track is a temporary track and is not yet secured, and thus is a target for a certain period of time. If the stability is verified by maintaining a one-to-one correspondence with the foreground motion chunk for a certain observation period, the temporary track changes state to the active track.

과거의 트랙과 1대1의 대응 관계를 지속적으로 유지하는 움직임 덩어리, 즉 블롭이 존재할 때에 물체의 추적이 성공했다고 하며, 이러한 성공적인 물체 추적 상태가 유지되는 동안 트랙은 활성 트랙 상태를 유지할 수 있다.The tracking of an object is said to be successful when there is a blob of motion, ie a blob, that maintains a one-to-one correspondence with past tracks, and the track can remain active while this successful object tracking state is maintained.

트랙이 활성 트랙 상태에 있다가 1대1의 대응 관계를 가진 물체를 발견하지 못할 경우에, 비활성 트랙으로 상태가 변경된다. 만약 그러한 현상이 일시적으로 일어나고 이후에 다시 1대1 대응 관계를 복원할 경우에는 비활성 트랙은 다시 활성 트랙으로 변경된다. 하지만, 일정 기간 계속하여 1대1 대응 관계를 찾지 못하면, 물체가 화면에서 사라졌다고 보고, 트랙은 더이상 사용되지 않는다. If the track is in the active track state and no object with a one-to-one correspondence is found, the state is changed to an inactive track. If such a phenomenon occurs temporarily and later restores the one-to-one correspondence again, the inactive track is changed back to the active track. However, if a one-to-one correspondence is not found for a period of time, the object is said to disappear from the screen and the track is no longer used.

다시 도 1로 돌아오면, 단계(S13)에서는 지금까지 추적된 트랙들과 현재 영상에서 추출된 전경 블롭들 사이의 유사도를 연산하여 각 트랙과 대응하는 전경 블롭을 찾는다. Returning to FIG. 1, in step S13, the similarity between the tracks tracked so far and the foreground blobs extracted from the current image is calculated to find the foreground blob corresponding to each track.

만약 아무 트랙과도 대응하지 않는 전경 블롭이 있을 경우에는, 그러한 전경 블롭을 위한 새로운 트랙을 생성한다.If there is a foreground blob that does not correspond to any track, create a new track for that foreground blob.

만약 트랙과 대응하는 전경 블롭을 유사도 함수를 통해 찾을 경우, 그러한 전경 블롭의 이동 궤적 내지 특징점의 변화가 해당 트랙에 반영된다. 도 1에서, 트랙0, 트랙1, 트랙2에 대해 각각 블롭0, 블롭1, 블롭2와 한 차례씩 유사도 연산이 수행된다. 그 결과 트랙0은 블롭0과 가장 유사도가 높고(파란색 실선), 블롭1, 블롭2와는 유사도가 낮다(파란색 파선). 마찬가지로, 트랙 1은 블롭1과 가장 유사도가 높고(붉은색 실선), 블롭0, 블롭2와는 유사도가 낮다(붉은색 파선).If the foreground blob corresponding to the track is found through the similarity function, the movement trajectory or feature point change of the foreground blob is reflected in the track. In FIG. 1, the similarity calculation is performed once for the track 0, the track 1, and the track 2 with the blob 0, the blob 1, and the blob 2, respectively. As a result, track 0 has the highest similarity to blob 0 (solid blue line) and low similarity to blob 1 and blob 2 (blue dashed line). Similarly, track 1 has the highest similarity to blob 1 (solid red line) and low similarity to blob 0 and blob 2 (red dashed line).

또한 만약 어떤 트랙에 대응하는 전경 블롭이 없을 경우에는, 그러한 트랙은 비활성 트랙으로 전환된다.Also, if there is no foreground blob corresponding to a track, that track is converted to an inactive track.

마지막으로, 비활성 트랙이 비활성 상태를 지속할 경우에는, 상응하는 물체가 더이상 화면에 존재하지 않으며, 또한 재차 등장할 가능성이 낮다고 보고, 트랙을 삭제할 수 있다. 실시예에 따라, 물체의 재등장시에 비활성 트랙의 재사용을 위해 트랙의 삭제가 억제될 수도 있다.Finally, if an inactive track continues to be inactive, it can be deleted that the corresponding object no longer exists on the screen and is unlikely to reappear. In some embodiments, deletion of tracks may be suppressed for reuse of inactive tracks upon re-appearance of objects.

현재 영상에 대해 트랙이 갱신되고 나면, 다음 영상에 관하여 배경 모델의 갱신 단계(S112)부터 트랙의 추적 및 유지 관리 단계(S13)까지의 일련의 프로세스가 반복된다.After the track is updated for the current image, a series of processes are repeated from the updating of the background model (S112) to the tracking and maintenance of the track (S13) for the next image.

도 3은 본 발명의 일 실시예에 따른 영상 감시 프로세스 중 배경 모델 초기화의 세부 단계들을 예시한 순서도이다.3 is a flowchart illustrating detailed steps of initializing a background model during an image monitoring process according to an embodiment of the present invention.

배경 모델을 구성하는 배경 영상은 전경 영상에 비해 시간적 공간적으로 안정적이다. 따라서, 어떤 연속적인 영상들에서 시간-공간적으로 안정적인 영역을 추출하였다면, 그러한 영역은 배경으로 분류될 가능성이 크다. 도 3에서는 초기 영상을 이용하여 추출한 안정적인 영역들로써 배경 영역 샘플을 수집하고, 수집된 배경 샘플들로부터 최초의 배경 모델을 생성한다.Background image constituting the background model is more stable in time and space than the foreground image. Thus, if a time-spatially stable region is extracted from some successive images, such region is likely to be classified as a background. In FIG. 3, a background region sample is collected from stable regions extracted using an initial image, and an initial background model is generated from the collected background samples.

시간-공간적으로 안정적인 영역은 두 가지로 구분할 수 있다. 먼저, 움직임 클래스가 배경으로 분류되는 블록들은 실제로 배경일 확률이 높다. 다음으로, 움직임 클래스가 고스트로 분류되는 블록들도 실제로는 배경일 확률이 높다. 다만, 이 단계에서 움직임 클래스는 검증된 배경 모델을 이용한 것이 아니라 임시적인 배경 모델을 기초로 한 분류되므로, 움직임 영역이 고스트인지 여부는 아래에 설명한 안정성 검사 방법을 통해 식별할 수 있다.Time-spatial stable domains can be classified into two types. First, the blocks whose motion class is classified as the background are likely to be the background. Next, the blocks whose motion classes are classified as ghosts are also likely to be actually background. However, at this stage, the motion class is classified based on the temporary background model instead of using the verified background model. Therefore, whether the motion region is ghost can be identified through the stability checking method described below.

구체적으로 도 3을 참조하면, 단계(S31)에서 연속적인 영상들 중 어느 한 영상, 예를 들어 최초의 영상을 임시 배경 모델로 정의한다.In detail, referring to FIG. 3, in step S31, one of the consecutive images, for example, the first image, is defined as a temporary background model.

단계(S32)에서, 임시 배경 모델에 대비하여 상대적으로 변화가 적은 현재 영상의 블록들을 움직임 영역 클래스 중 배경으로 분류한다. 현재 영상의 블록들이 배경 클래스인지 여부는 도 5와 함께 설명되는 방법을 통해 분류될 수 있고, 또는 단순히 현재 영상과 임시 배경 모델에 대해 블록 별로 오차 절대값 합산(SAD: sum of absolute difference) 또는 오차 제곱값 합산(SSD: sum of squared difference)한 값이 소정 허용값보다 작은 경우, 또는 상관 함수 값이 허용값보다 큰 경우에 곧바로 배경으로 분류될 수도 있다.In operation S32, the blocks of the current image, which are relatively less changed in comparison to the temporary background model, are classified into the background of the motion region class. Whether the blocks of the current image are a background class may be classified through the method described with reference to FIG. 5, or simply sum of absolute difference (SAD) or error per block for the current image and the temporary background model. If the sum of squared difference (SSD) value is smaller than a predetermined allowable value or the correlation function value is larger than the allowable value, it may be immediately classified as a background.

단계(S33)에서, 매 영상에 관하여 각 블록 위치에서 배경으로 분류된 횟수가 소정 값 이상인 블록은 실제로 배경일 가능성이 매우 크므로 배경 샘플로 판정한다. 이는 다음과 같이 수식화될 수 있다.In step S33, a block whose number of times classified as a background at each block position with respect to each image is greater than or equal to a predetermined value is very likely to be a background, and thus is determined as a background sample. This can be formulated as follows.

Figure 112010054204886-pat00001
Figure 112010054204886-pat00001

여기서, TBI는 임시 배경 모델, I는 영상 정보이다. TC는 계수 변수이고, αBG는 배경으로 분류될 때에 계수(count)가 늘어나는 값이며, IC는 영상 클래스이고, BG는 배경에 해당하는 영상 클래스이다. TC가 소정 값 이상이면 그러한 블록을 배경 샘플로 정한다.Here, TBI is a temporary background model and I is image information. TC is a coefficient variable, α BG is a value in which a count increases when classified as a background, IC is an image class, and BG is an image class corresponding to a background. If TC is greater than or equal to a predetermined value, such block is designated as a background sample.

단계(S34)에서, 앞서 임시 배경 모델에 대비하여 배경으로 분류되지 않은 블록들 중에서 상대적으로 안정적인 영역을 추출하기 위해서 다음 수학식 2와 같이 3개의 영상, 즉 현재 영상, 과거 영상 및 임시 배경 모델 영상 사이의 차이들을 이용한 안정성 테스트를 수행한다.In step S34, three images, that is, a current image, a past image, and a temporary background model image, as shown in Equation 2, in order to extract a relatively stable region from blocks not classified as a background in preparation for the temporary background model. Perform a stability test using the differences between.

Figure 112010054204886-pat00002
Figure 112010054204886-pat00002

DMpast(x,y,t)는 임시 배경 모델 영상 TBI(x,y,t)와 임의의 과거 영상 I(t-n)의 차분, 즉 SSD, SAD 등이 소정 값보다 커서 움직임이 있는 영역일 때에 1이고, 그렇지 않으면 0이다. DMcur(x,y,t)는 임시 배경 모델 영상 TBI(x,y,t)와 현재 영상 I(t)의 차분이 소정 값보다 커서 움직임이 있는 영역일 때에 1이고, 그렇지 않으면 0이다. TD(x,y,t)는 현재 영상과 과거 영상의 차분으로서, 그 차분이 소정의 값보다 크면 1이다. 이때, 만약 과거 영상과 현재 영상 각각에서 임시 배경 모델에 비해 차이가 발생한 블록 위치들(DMpast=1 및 DMcur=1) 중에 과거 영상과 현재 영상 사이에는 차이가 없는(TD=0) 블록 위치가 있다면, 그러한 블록 위치는 최초의 영상인 임시 배경 모델과는 달라졌지만 그 이후에 변화가 없다는 의미이고, 배경일 가능성이 높다. 수학식 3은 그러한 영역에 관하여 TC 계수를 증가시키는 것을 표현한 수식이다. TC 계수가 소정 횟수를 넘기면 현재 영상의 해당 블록을 배경 샘플로 판정한다.DM past (x, y, t) is the difference between the temporary background model image TBI (x, y, t) and any past image I (tn), i.e. SSD, SAD, etc. 1, otherwise 0. DM cur (x, y, t) is 1 when the difference between the temporary background model image TBI (x, y, t) and the current image I (t) is greater than a predetermined value and is a movement area, and 0 otherwise. TD (x, y, t) is the difference between the current image and the past image, and is 1 if the difference is larger than a predetermined value. At this time, if there is no difference between the past image and the current image among the block positions (DM past = 1 and DM cur = 1) where the difference between the past image and the current image is compared to the temporary background model, the block position has no difference (TD = 0). If present, that means that the block position is different from the original image, the temporary background model, but there is no change thereafter, and it is likely to be the background. Equation 3 is an expression representing increasing the TC coefficient with respect to such an area. When the TC coefficient exceeds a predetermined number, the corresponding block of the current image is determined as a background sample.

Figure 112010054204886-pat00003
Figure 112010054204886-pat00003

배경 샘플들이 블록 별로 충분히 집합되었다면, 이제 단계(S35)에서, 배경 샘플들의 통계적 특성을 이용하여 혹시 포함되어 있을 수 있는 실제 배경과 무관한 전경 영상들을 제거하고 배경 샘플들을 대표하는 하나의 최종 배경 샘플을 도출한다. 구체적으로, 블록 별로 배경 샘플들의 평균값(average), 중간값(median), 최빈값(mode), 중간값 추정치 등 중에서 하나를 연산함으로써 그러한 값들과 동떨어진 전경 영상들을 배제하고, 실제 배경에 상응하는 배경 샘플들을 대표하는 하나의 샘플이 도출될 수 있다. 단계(S36)에서, 블록 별로 도출된 최종 배경 샘플들을 결합하여 최초의 배경 모델을 생성한다.Once the background samples have been collected sufficiently block by block, in step S35, one final background sample representing the background samples and removing foreground images irrelevant to the actual background which may have been included by using the statistical properties of the background samples may be included. To derive Specifically, by calculating one of the average, median, mode, and median estimates of the background samples on a block-by-block basis, the background images corresponding to the actual background are excluded, and the background images corresponding to the actual background are excluded. One sample representative of these can be derived. In step S36, the first background model is generated by combining the final background samples derived for each block.

히스토그램을 이용한 중간값 추정 및 배경 모델의 생성은 다음 수학식 4와 같이 수행될 수 있다.The median estimation and the generation of the background model using the histogram may be performed as in Equation 4 below.

Figure 112010054204886-pat00004
Figure 112010054204886-pat00004

Figure 112010054204886-pat00005
Figure 112010054204886-pat00005

수학식 4에서, 어떤 영상 I(x,y,t)에 관하여 배경 샘플의 카운트 TC가 소정 값 이상인 경우에 해당 배경 샘플의 히스토그램 크기 BGS가 1만큼 늘어난다. 그러한 히스토그램 크기들에 관하여 중간값(median)을 구하여, 그 중간값에 해당하는 배경 샘플들을 결합하여 배경 모델 BG(x,y,t)가 생성된다.In Equation 4, when the count TC of the background sample is greater than or equal to a predetermined value for a certain image I (x, y, t), the histogram size BGS of the background sample is increased by one. A median is obtained with respect to such histogram sizes, and the background samples corresponding to the median are combined to generate a background model BG (x, y, t).

도 4는 본 발명의 일 실시예에 따른 영상 감시 프로세스 중 배경 모델 초기화에 따라 초기화된 배경 모델을 예시한 영상 캡쳐 화면들이다.4 are image capture screens illustrating a background model initialized according to a background model initialization during an image monitoring process according to an embodiment of the present invention.

도 4를 참조하면, 좌측의 초기의 입력 영상들은 도로 위에 움직이는 차량들을 포함하고 있고, 우상단의 종래 기술로 초기화된 배경 모델은 왜곡된 차량 형상을 포함한 채로 얻어진다. 반면에, 본 발명의 일 실시예에 따라 초기화된 배경 모델은 우하단과 같이 이동하는 차량 형상이 모두 고스트로 분류되어 제거되고 도로는 정확하게 포함한 상태로 획득될 수 있다.Referring to FIG. 4, the initial input images on the left side include vehicles moving on the road, and the background model initialized by the prior art on the upper right side is obtained with the distorted vehicle shape. On the other hand, the background model initialized according to an embodiment of the present invention can be obtained with all of the shape of the moving vehicle, such as the lower right end, classified and removed as a ghost and including the road correctly.

이렇게 정확하게 초기화된 배경 모델에 기초하여, 움직이는 물체들은 빠짐없이 전경으로 식별될 수 있다.Based on this correctly initialized background model, moving objects can be identified as foreground without exception.

도 5는 본 발명의 일 실시예에 따른 영상 감시 프로세스 중 움직임 영역 검출 및 움직임 클래스 분류의 세부 단계들을 예시한 순서도이다.5 is a flowchart illustrating the detailed steps of motion region detection and motion class classification during the video surveillance process according to an embodiment of the present invention.

도 5를 참조하면, 본 단계의 목적은 움직임이 없거나 있는 블록들을 구분하고, 특히 움직임이 있는 블록들이 전경인지 고스트인지 식별하는 것이다.Referring to FIG. 5, the purpose of this step is to distinguish blocks with or without motion, and in particular to identify whether the blocks with motion are foreground or ghost.

단계(S51)는 초기화되었거나 또는 갱신된 현재 배경 모델과 현재 영상 사이의 차이를 구한다. 구체적으로, 실시예에 따라서 현재 영상의 모든 픽셀에서 두 영상의 차이를 찾을 수도 있지만, 바람직하게는 블록 별로 영상의 차이를 구한다.Step S51 calculates the difference between the current background model and the current background model that has been initialized or updated. Specifically, although the difference between the two images may be found in all the pixels of the current image according to the embodiment, the difference between the images is preferably obtained for each block.

본 발명에서 배경 모델과 현재 영상 사이의 차이는 SAD(Sum of Absolute Difference), SSD(Sum of Squared Difference), 상관 함수(correlation) 등의 유사도 검사 기법을 블록 단위에서 이용한다.In the present invention, the difference between the background model and the current image uses a similarity checking technique such as a sum of absolute difference (SAD), a sum of squared difference (SSD), a correlation function, and the like in a block unit.

단계(S52)에서, 블록 단위의 영상 간의 차분, 예를 들어 오차 절대값 합산이 소정 값 이하이면 해당 블록을 배경으로 분류하고, 그렇지 않으면 해당 블록을 움직임 영역으로 분류한다.In step S52, if a difference between images in units of blocks, for example, the sum of absolute absolute values, is equal to or less than a predetermined value, the corresponding block is classified as a background, and if not, the corresponding block is classified as a motion region.

잠시 도 6을 참조하면, 도 6은 본 발명의 일 실시예에 따른 영상 감시 프로세스에서 블록 단위의 움직임 영역 추출을 예시한 도면이다.Referring to FIG. 6 for a while, FIG. 6 is a diagram illustrating a motion region extraction in units of blocks in a video surveillance process according to an exemplary embodiment of the present invention.

배경 모델은 물체를 포함하지 않도록 생성되었고, 현재 입력된 입력 영상은 사람이 가방을 매고 복도를 걸어가는 상황이 찍혀 있다. 좌하단에서 예시되듯이, 화소 단위로 차영상을 구하면 배경 모델과 입력 영상 사이에 유의미한 차이를 보이는 화소들이 나타난다. 물체 및 그림자는 배경 모델에 비해 극명한 차이를 나타내므로 그 윤곽이 도드라지지만, 한편 입력 영상과 배경 모델의 공간적 불일치나 노이즈 때문에 이른바 솔트 앤드 페퍼라고 불리는 현상도 나타나 있다.The background model was created to not include objects, and the current input image shows a person walking down the hall wearing a bag. As illustrated in the lower left, when the difference image is obtained in pixel units, pixels having a significant difference between the background model and the input image appear. Objects and shadows show a sharp difference compared to the background model, so the outline is raised, but there is also a phenomenon called salt and pepper because of the spatial inconsistency or noise between the input image and the background model.

하지만 본 발명에 따라 블록 단위로 움직임 영역을 추출할 경우에는 솔트 앤드 페퍼 현상을 억제할 수 있고 빠르게 연산할 수 있는 반면에, 화소 단위 연산에 비해 오차는 그렇게 크지 않다.However, according to the present invention, when extracting a motion region in units of blocks, the salt and pepper phenomenon can be suppressed and computed quickly, while the error is not so large as compared to the unit of pixels.

일반적으로, 움직임을 갖는 물체에 의한 차영상은 일정하게 덩어리, 즉 블롭(blob)을 형성한다. 반면에 노이즈로 인한 차영상은 불규칙적으로 산포되어 있다. 영상의 차이를 블록 단위로 각각 구하여 관찰해보면, 움직임을 갖는 물체에 의한 영상의 차이를 블록 단위로 합산한 값은 상대적으로 큰 반면에, 노이즈로 인한 영상의 차이를 블록 단위로 합산한 값은 상대적으로 낮다. 두 경우에 영상 차이를 합산한 각각의 값들은 특정한 경계를 사이에 두고 확연하게 구분된다. 따라서, 움직임을 갖는 물체에 상응하는 블록은 영상 차이의 블록 단위 합산 값을 그러한 특정 경계값에 비교함으로써 추출할 수 있다.In general, a difference image by a moving object constantly forms a lump, that is, a blob. On the other hand, the difference image due to noise is scattered irregularly. When the differences of the images are obtained by the unit of block, the difference of the image by the moving object in the unit of block is relatively large, while the difference of the image due to noise is the unit of the unit of block As low. In both cases, the individual values of the sum of the image differences are clearly distinguished by a specific boundary. Thus, a block corresponding to an object with motion can be extracted by comparing the block-by-block sum of the image difference to that particular boundary value.

도 5로 다시 돌아가서, 본 발명에서, 배경 모델(BGI)과 입력 영상(I) 사이의 차이는 블록 별로 대비되고 연산되어 해당 블록에서 배경 모델과 입력 영상의 차이가 소정 값보다 크면 그 블록의 클래스(IC)는 움직임 영역(MV)으로 분류된다. 하지만 배경 모델과 입력 영상의 차이가 소정 값보다 작으면 그 블록 전체가 움직임 없는 배경 영역(BG)으로 분류된다. 수학식 5는 이를 나타낸 것이다.5, in the present invention, the difference between the background model BGI and the input image I is contrasted and calculated for each block so that the class of the block if the difference between the background model and the input image in the block is greater than a predetermined value. (IC) is classified into the motion region (MV). However, if the difference between the background model and the input image is smaller than a predetermined value, the entire block is classified as a motionless background area BG. Equation 5 shows this.

Figure 112011099800776-pat00006

여기에서,
Figure 112011099800776-pat00021
는 배경모델(BGI)을 기준으로 계산한 차이(DM)를 블록단위의 영상으로 변환한 결과를 의미한다. 즉,
Figure 112011099800776-pat00022
는 배경모델과 차이를 비교하는 대상이 시간상으로 현재의 입력 영상이며 비교하는 위치가 블록단위로 (x,y)임을 의미하게 된다. 그리고
Figure 112011099800776-pat00023
는 블록 영상의 위치 x,y에 해당되는 픽셀 영상의 위치 좌표의 집합을 의미한다. 즉, 블록은 여러 픽셀의 모임인데, 블록의 (x,y)에 해당하는 픽셀들의 좌표를 모은 것이
Figure 112011099800776-pat00024
이다. 파라미터
Figure 112011099800776-pat00025
는 움직임을 구분하기 위한 영상 간의 차이가 보이는 범위를 의미한다. 차이가 해당 파라미터 값 이상 차이가 나는 경우, 즉 범위를 벗어나는 차이를 보이는 경우에 해당 위치에서 움직임이 발생했음을 정의하기 위하여 사용된다. 파라미터의 값은 비교되는 영상의 종류와 상태에 따라서 정의한다.
Figure 112011099800776-pat00006

From here,
Figure 112011099800776-pat00021
Denotes a result of converting a difference DM calculated based on a background model into a block unit image. In other words,
Figure 112011099800776-pat00022
Means that the object to compare the difference with the background model is the current input image in time and the position to be compared is (x, y) in units of blocks. And
Figure 112011099800776-pat00023
Denotes a set of position coordinates of a pixel image corresponding to positions x and y of the block image. In other words, a block is a collection of pixels, and a collection of coordinates of pixels corresponding to (x, y) of a block
Figure 112011099800776-pat00024
to be. parameter
Figure 112011099800776-pat00025
Denotes a range in which differences between images for distinguishing motions are visible. It is used to define that the motion occurred at the position when the difference is more than the parameter value, that is, the difference is out of range. The value of the parameter is defined according to the type and state of the image to be compared.

이어서, 블록에서 검출된 움직임이 실제 물체의 움직임에 따른 것인지 배경으로 잘못 알고 있던 부분의 변화에 의한 것인지를 식별한다. 이를 판정하기 위해, 본 발명에서는 윤곽선의 분포를 이용한다. Subsequently, it is identified whether the movement detected in the block is due to the movement of the real object or the change of the part which was wrongly known in the background. To determine this, the present invention uses the distribution of the contours.

블록에서 검출된 움직임이 실제 물체의 움직임에 따른 것이라면, 물체의 이미지와 배경 모델 사이에서는 확연한 영상의 차이가 있을 것이므로 윤곽선들의 차이도 강하게 나타날 것이다. 반면에, 배경 앞에 정지해 있던 물체가 배경 모델의 일부로 들어가 있다가 갑자기 움직이면서 검출된 움직임의 경우에는, 그 물체가 움직이고 난 이후에 남은 배경은 배경 모델의 인접한 부분과 자연스럽게 이어질 것이므로 그런 부분에서는 윤곽선들의 차이는 약하거나 없을 것이다. 따라서, 윤곽선의 분포에 의해 움직임 영역이 실제 움직이는 물체에 의한 것인 전경(FG)인지, 원래의 배경이 비로소 드러난 것인지(GH) 판단할 수 있다.If the motion detected in the block is due to the motion of the real object, the difference in the contours will be strong because there will be a clear difference between the image of the object and the background model. On the other hand, in the case of motion detected as an object stationary in front of the background enters a part of the background model and moves suddenly, the background remaining after the object moves will naturally connect with the adjacent part of the background model, so that the contour The difference will be weak or absent. Therefore, it is possible to determine whether the movement area is the foreground FG or the original background GH.

이를 위해 단계(S53)에서는 현재 배경 모델 및 현재 영상에 대해, 현재 영상 내에서 움직임 영역으로 분류되는 블록들에서 윤곽선을 각각 검출한다. 수학식 6은 소벨 윤곽선 검출 기법(sobel edge detection)을 이용하여 윤곽선을 검출하는 것을 나타낸다.To this end, in step S53, contours are detected in blocks classified as motion regions within the current image, for the current background model and the current image, respectively. Equation 6 shows the detection of the contour using a sobel edge detection technique.

Figure 112011099800776-pat00007

여기에서,
Figure 112011099800776-pat00026
에는 움직임 영역을 기준으로 블록단위 영상에 윤곽선이 존재하는지 여부를 저장한다. 즉,
Figure 112011099800776-pat00027
는 윤곽선을 검출하는 대상이 배경모델(BGI)임을 의미하고,
Figure 112011099800776-pat00028
는 현재의 입력 영상에서 윤곽선을 검출한 결과를 의미한다. 그리고
Figure 112011099800776-pat00029
는 픽셀단위의 영상을 소벨 윤곽선 검출 기법을 이용하여 윤곽선을 검출한 결과를 블록단위로 변환한 값을 의미한다. 블록(x,y)에 해당하는 픽셀들에 소벨 윤곽선 검출 기법으로 검출한 결과, 윤곽선이 존재한다면
Figure 112011099800776-pat00030
는 1을, 그렇지 않은 경우에는 0을 부여한다.
Figure 112011099800776-pat00031
는 윤곽선을 검출하는 대상이 배경모델임을 의미하며,
Figure 112011099800776-pat00032
는 윤곽선을 검출하는 대상이 현재 입력 영상임을 의미한다. 연산자
Figure 112011099800776-pat00020
는 조건문이 동시에 만족하는 경우 참을 출력한다.
Figure 112011099800776-pat00007

From here,
Figure 112011099800776-pat00026
Stores whether an outline exists in the block unit image based on the movement area. In other words,
Figure 112011099800776-pat00027
Means that the target for detecting the contour is the background model (BGI),
Figure 112011099800776-pat00028
Denotes a result of detecting the contour from the current input image. And
Figure 112011099800776-pat00029
Denotes a value obtained by converting the result of detecting the contour into the unit of block using the Sobel contour detection technique. If the Sobel contour detection technique detects the pixels corresponding to the block (x, y), the contour exists.
Figure 112011099800776-pat00030
Gives 1, otherwise gives 0.
Figure 112011099800776-pat00031
Means that the object to detect the contour is the background model,
Figure 112011099800776-pat00032
Means that the target for detecting the contour is the current input image. Operator
Figure 112011099800776-pat00020
Returns true if the conditional statements are satisfied at the same time.

단계(S54)에서는, 현재 배경 모델의 윤곽선과 현재 영상의 윤곽선의 차분이 소정 값 이상인 블록 중에서, 현재 영상의 윤곽선이 검출되는 블록의 윤곽선 클래스를 전경으로 분류하고, 현재 영상의 윤곽선이 검출되지 않지만 상기 현재 배경 모델의 윤곽선이 검출되는 블록의 윤곽선 클래스를 고스트로 분류한다.In step S54, among the blocks whose difference between the contour of the current background model and the contour of the current image is equal to or greater than a predetermined value, the contour class of the block where the contour of the current image is detected is classified as the foreground, and the contour of the current image is not detected. The contour class of the block where the contour of the current background model is detected is classified as a ghost.

움직임이 검출된 영역에서는 배경 모델에 나타나지 않던 윤곽선이 현재 영상에서 나타나게 되거나, 반대로 배경 모델에 나타나던 윤곽선이 현재 영상에서는 없어질 수 있다. 전자는 전경일 가능성이 크고, 후자는 고스트일 가능성이 크다. 수학식 7은 이러한 관념을 수식화한 것이다.In the area where the motion is detected, the contour that does not appear in the background model may appear in the current image, or conversely, the contour that appears in the background model may disappear in the current image. The former is more likely to be the foreground and the latter is more likely to be ghost. Equation 7 formulates this concept.

Figure 112011099800776-pat00008

여기에서,
Figure 112011099800776-pat00033
(Edge Difference Map)에는 배경모델(BGI)을 기반으로 검출한 윤곽선 정보
Figure 112011099800776-pat00034
와 현재 입력 영상을 기반으로 검출한 윤곽선 정보
Figure 112011099800776-pat00035
의 차이를 계산한 값을 저장한다. 파라미터
Figure 112011099800776-pat00036
는 비교하는 윤곽선 간의 차이 범위를 의미한다. 해당 범위를 넘어가는 경우 해당 위치에서 윤곽선의 차이가 발생했음을 정의하기 위하여 사용된다.
Figure 112011099800776-pat00008

From here,
Figure 112011099800776-pat00033
(Edge Difference Map) contains contour information detected based on background model (BGI)
Figure 112011099800776-pat00034
Contour information detected based on the current and current input image
Figure 112011099800776-pat00035
Save the difference between parameter
Figure 112011099800776-pat00036
Means the range of difference between the contours to compare. It is used to define that there is a difference in the contour at the location when it exceeds the range.

Figure 112011099800776-pat00009

여기에서,
Figure 112011099800776-pat00037
는 윤곽선 클래스(Edge Class)를 의미한다.
Figure 112011099800776-pat00009

From here,
Figure 112011099800776-pat00037
Means an edge class.

이어서, 윤곽선 클래스의 분포에 기초한 비매개변수 확률 분포 예측(non-parametric probability distribution estimation) 기법을 이용하여 움직임 영역인 블록들이 각각 전경일 확률과 고스트일 확률을 연산함으로써, 각 블록들을 전경 또는 고스트로 분류한다.Subsequently, each block is classified as a foreground or ghost by calculating a probability that the blocks, which are motion regions, are foreground and ghost, respectively, using a non-parametric probability distribution estimation technique based on the distribution of the contour class. do.

단계(S55)에서는, 윤곽선 클래스가 전경으로 분류된 블록들로부터 해당 블록이 전경일 확률 분포를 예측하고, 윤곽선 클래스가 고스트로 분류된 블록들로부터 해당 블록이 고스트일 확률 분포를 예측한다.In step S55, the probability distribution that the block is the foreground is predicted from the blocks whose contour class is classified as the foreground, and the probability distribution that the block is the ghost is predicted from the blocks whose contour class is classified as ghost.

수학식 8은 커널(Kernel) 함수를 이용하여 비매개변수 확률 분포 예측 기법을 적용한 것이다.Equation 8 applies a non-parameter probability distribution prediction technique using a kernel function.

Figure 112010054204886-pat00010
Figure 112010054204886-pat00010

Figure 112010054204886-pat00011
Figure 112010054204886-pat00011

단계(S56)에서는 해당 블록의 전경 확률이 고스트 확률보다 크면 해당 블록의 영상 클래스를 전경(FG)으로 분류하며 그렇지 않으면 고스트(GH)로 분류한다.In operation S56, if the foreground probability of the block is greater than the ghost probability, the image class of the block is classified as the foreground FG. Otherwise, the image class is classified as ghost GH.

전경으로 분류된 블록들은 추후에 물체 추적에 이용되고, 고스트로 분류된 블록들은 배경 갱신에 이용된다.Blocks classified as foreground are later used for object tracking, and blocks classified as ghost are used for background update.

다음으로, 블록들은 물체에 상응하는 덩어리의 형태로 묶여 집합적으로 물체 추적에 이용되어야 한다.Next, the blocks must be grouped in the form of chunks corresponding to the object and collectively used for object tracking.

단계(S57)에서는 영상 클래스가 전경인 블록들을 묶어 현재 전경 블롭으로 출력하고 영상 클래스가 고스트인 블록들을 묶어 고스트 블롭으로 출력한다. 예를 들어, 연결 요소 라벨링(CCL: Connected Component Labeling) 기법을 이용하여 관련성이 높은 블록들을 묶어 덩어리, 즉 블롭을 형성한다. 통상적으로 CCL 기법을 이용하면 동일하게 라벨링된 요소들이 집단을 형성하여 묶인다. 다만, 종종 다른 라벨이 붙은 요소들도 공간적인 밀접성이 있을 경우에는 하나의 집단에 합류할 수 있다. 이러한 경우에, 각 블롭 내에서 가장 많은 블록들이 가지는 클래스가 전경이면 해당 블롭을 현재 전경 블롭으로 출력할 있고, 또한 각 블롭 내에서 가장 많은 블록들이 가지는 클래스가 고스트이면 고스트 블롭으로 출력할 수 있다.In operation S57, the blocks with the image class as the foreground are bundled and output as the current foreground blob, and the blocks with the image class as the ghost are bundled and output as the ghost blob. For example, the Connected Component Labeling (CCL) technique is used to group related blocks to form chunks, or blobs. Typically, using the CCL technique, identically labeled elements are grouped together to form a cluster. Often, however, elements with different labels can join a group if there is a spatial closeness. In this case, if the class having the most blocks in each blob is the foreground, the corresponding blob may be output as the current foreground blob, and if the class having the most blocks in each blob is the ghost blob, it may be output as a ghost blob.

도 7은 본 발명의 일 실시예에 따른 영상 감시 프로세스에서 전경 블롭과 트랙 사이의 유사도를 이용한 물체 추적을 예시한 개념도이다.7 is a conceptual diagram illustrating object tracking using a similarity between a foreground blob and a track in a video surveillance process according to an embodiment of the present invention.

물체 추적은 현재 영상에서 물체를 추출하고, 이전까지 유지해왔던 물체의 이동 궤도 정보에 추출된 물체를 성공적으로 연관시킴으로써, 현 시점에서 추출된 물체가 지금까지 어떻게 이동해 왔는지 파악하려는 것이다.The object tracking is to extract the object from the current image and successfully associate the extracted object with the moving trajectory information of the object, which has been maintained until now, so as to grasp how the object has been moved so far.

본 발명에서는, 물체 추적을 효율적으로 할 수 있도록, 먼저 검색할 해공간(solution space)을 축소시키고, 이어서 비슷한 물체 사이의 구별 능력을 향상시키는 방법을 제안한다.In order to efficiently track an object, the present invention proposes a method of first reducing the solution space to be searched and then improving the ability to distinguish between similar objects.

앞서 설명한 바와 같이 현재 영상에서 전경으로 분류된 블록들의 덩어리, 즉 전경 블롭을 지금까지의 트랙들 중 하나에 연관짓기 위해, 전경 블롭과 각 트랙들 사이에 유사도를 연산하고, 가장 유사한 트랙과 해당 전경 블롭을 연관시킨다. 해당 전경 블롭의 위치 등의 정보는 연관된 트랙에 갱신된다.As described above, in order to associate the foreground blob, the foreground blob, with the foreground blob to one of the tracks so far, the similarity is calculated between the foreground blob and each track, and the most similar track and its foreground. Associate blobs Information such as the position of the corresponding foreground blob is updated in the associated track.

이때, 예를 들어 물체가 초당 25 프레임으로 촬영된다고 가정하면, 영상 프레임과 프레임 사이에서는 지금까지의 이동 궤적에서 크게 벗어나지 않을 것이고, 불연속적인 움직임을 보이지도 않을 것이며, 인접한 프레임 사이에서는 실제로 인접한 블록 위치에 있을 것이다. 따라서, 만약 전경 블롭이 어떤 트랙들이 있는 영역의 인근에 있다면, 그 전경 블롭은 그 트랙들 중 어느 하나와 연관될 가능성이 매우 크다.In this case, for example, assuming that an object is photographed at 25 frames per second, it will not deviate much from the trajectory of movement so far between the image frame and the frame, and will not show discontinuous movement, and will actually position adjacent blocks between adjacent frames. Will be on. Thus, if the foreground blob is in the vicinity of an area where there are some tracks, the foreground blob is very likely associated with any of the tracks.

일 실시예에서는, 이전 트랙에 포함된 전경 블롭 정보과 현재 전경 블롭의 유사도를 계산하며, 계산된 유사도가 소정 값보다 큰 현재 전경 블롭과 상기 이전 트랙을 대응시키고, 이전 트랙을 갱신한다.In one embodiment, the similarity of the foreground blob information included in the previous track and the current foreground blob is calculated, the current track blob having a calculated similarity greater than a predetermined value corresponds to the previous track, and the previous track is updated.

이때, 이전 트랙에 포함된 전경 블롭의 과거 위치를 기초로 하여 현재 영상에서 후보 영역을 정의하면 검색해야 할 해 공간이 축소될 수 있다. 만약 현재 전경 블롭이 그러한 후보 영역에 포함되어 있다면, 현재 전경 블롭 및 이전 트랙에 관하여 우선적으로 특정한 유사도 함수가 이용되어 유사도가 연산된다. 연산된 유사도가 소정 값보다 큰 경우, 현재 전경 블롭과 이전 트랙을 대응시키고 이전 트랙을 갱신할 수 있다.In this case, if a candidate region is defined in the current image based on the past position of the foreground blob included in the previous track, the space to be searched may be reduced. If the current foreground blob is included in such a candidate region, the similarity is computed first using a specific similarity function with respect to the current foreground blob and the previous track. If the calculated similarity is greater than a predetermined value, the current foreground blob may be corresponded to the previous track and the previous track may be updated.

해 공간을 줄이는 다른 실시예에서는 먼저, 트랙 간의 거리가 소정 값보다 작은 트랙들로써 하나의 트랙 집합을 구성한다. 트랙 집합은 인접한 트랙들뿐 아니라, 트랙들을 구분하기 위한 특징점, 그러한 특징점을 비교하여 유사도를 추출하는 유사도 함수들이 더 포함된다. 트랙 집합에 의해 차지되는 후보 영역 내에 현재 전경 블롭들이 있을 경우 트랙과 현재 전경 블롭 사이에서 유사도를 획득한다.In another embodiment of reducing the solution space, first, one track set is composed of tracks whose distances between tracks are smaller than a predetermined value. The track set further includes feature points for distinguishing the tracks, as well as adjacent tracks, and similarity functions for comparing the feature points and extracting similarities. Similarity is obtained between the track and the current foreground blob when there are current foreground blobs in the candidate area occupied by the track set.

도 2에서 설명하였듯이, 트랙은 수명 주기가 있다. 활성 트랙의 경우, 트랙들 사이의 거리가 소정 값 이하인 적어도 하나의 트랙을 묶어 정의된 트랙 집합이 차지하는 영역에 상응하는 현재 전경 블롭들과 상기 트랙 집합 내의 트랙들 사이에서 연산된 유사도가 소정 값보다 큰 현재 전경 블롭과 이전 트랙을 대응시킴으로써 이전 트랙을 갱신한다.As explained in Figure 2, the track has a life cycle. In the case of an active track, the similarity calculated between the tracks in the track set and the current foreground blobs corresponding to the area occupied by the defined track set by grouping at least one track whose distance between the tracks is less than or equal to the predetermined value is greater than the predetermined value. Update the previous track by matching the large current foreground blob with the previous track.

만약, 모든 연산된 유사도가 소정 값보다 작으면, 그 트랙은 어느 현재 전경 블롭들과도 대응되지 못하므로, 비활성 트랙으로 설정한다.If all the calculated similarities are less than a predetermined value, the track does not correspond to any current foreground blobs, so it is set as an inactive track.

이와 달리, 만약 어느 트랙 집합이 차지하는 트랙 집합 영역에도 포함되지 못한 현재 전경 블롭이 있을 경우에는, 그러한 이격된 현재 전경 블롭을 위한 새로운 트랙을 생성할 수 있다.Alternatively, if there is a current foreground blob that is not included in the track set area occupied by any track set, a new track for such spaced current foreground blobs can be created.

한편, 물체의 특징점 등에 의해 물체를 구별하는 유사도 알고리즘은 다수 제안되어 있는데, SAD, SSD, 바타차라야, 자기 상관 기법 등을 예로 들 수 있다. 이들 유사도 알고리즘들은 경우에 따라 연산량, 속도, 정확성 등이 다를 수 있다. 본 발명에서는 트랙 집합 내 각각의 트랙들을 구분하기 위한 특징점과, 다수의 유사도 함수들을 포함하는 유사도 함수 집합을 트랙 집합과 함께 정의하고, 유사도 함수들 중 하나의 유사도 함수에 기초하여 현재 전경 블롭들과 이전 트랙 간의 유사도를 연산한다.On the other hand, there are a number of similarity algorithms for distinguishing objects by the feature points of the objects, such as SAD, SSD, Batcharaya, autocorrelation techniques, and the like. These similarity algorithms may vary in computation, speed, and accuracy in some cases. In the present invention, a feature point for distinguishing each track in a track set and a similarity function set including a plurality of similarity functions are defined together with the track set, and the current foreground blobs and the previous one are based on the similarity function of one of the similarity functions. Calculate the similarity between tracks.

일 실시예에서는, 유사도 함수들에 관하여 적응적으로 관리되는 유사 판정의 성능 이력을 기초로 가장 성능이 우수한 유사도 함수가 선택되어 유사도가 연산된다.In one embodiment, the best performing similarity function is selected and computed for similarity based on the performance history of the similarity decision adaptively managed with respect to the similarity functions.

다른 실시예에서는, 유사도 함수들 중에 연산이 상대적으로 간단한 유사도 함수 순으로 연산이 이루어지며, 만약 유사도 연산 결과가 바로 이전에 수행된 유사도 연산 결과에 비해 예를 들어 유사도가 큰 차이를 보이면서 유사 판정 성능이 떨어지면 연산을 멈추고 이전 수행된 유사도 결과를 채택한다.In another embodiment, the similarity functions are performed in the order of similarity functions, in which the operations are relatively simple, and if similarity results are similar to each other, for example, the similarity performance is greater than that of the similarity operation previously performed. Stops the operation and accepts the similarity result previously performed.

도 8은 본 발명의 일 실시예에 따른 영상 감시 장치를 예시한 블록도이다.8 is a block diagram illustrating a video surveillance apparatus according to an embodiment of the present invention.

도 8을 참조하면, 영상 감시 장치(80)는 카메라(81), 배경 모델 생성부(82), 움직임 클래스 판정부(83), 물체 추적부(84), 디스플레이(85)를 포함할 수 있다.Referring to FIG. 8, the video surveillance apparatus 80 may include a camera 81, a background model generator 82, a motion class determiner 83, an object tracker 84, and a display 85. .

카메라(81)가 촬영한 영상은 배경 모델 생성부(82), 움직임 클래스 판정부(83), 물체 추적부(84) 및 디스플레이(85)에 각각 제공된다.The image captured by the camera 81 is provided to the background model generator 82, the motion class determiner 83, the object tracker 84, and the display 85, respectively.

배경 모델 생성부(82)는 최초의 촬영 영상들 중에서 시간-공간적으로 안정적인 영역들을 추출하고 이들을 조합하여 최초의 배경 모델을 제공하고, 이후부터는 움직임 클래스 판정부(83)에 의해 고스트로 분류된 영역들을 기초로 하여 배경 모델을 갱신한다.The background model generator 82 extracts temporally-spatially stable regions from the first photographed images and combines them to provide the first background model, and is subsequently classified as a ghost by the motion class determiner 83. Update the background model based on these.

움직임 클래스 판정부(83)는 현재 영상을 배경 모델에 대비하여 움직임 영역과 배경 영역을 추출하고, 움직임 영역의 움직임 클래스를 전경 또는 고스트로 분류한다. 움직임 클래스 판정부(83)는 전경으로 분류된 영역들을 전경 블롭으로 묶고, 이를 물체 추적부(84)에 전달한다. 또한 움직임 클래스 판정부(83)는 고스트로 분류된 영역들을 고스트 블롭으로 묶어 배경 모델 생성부(82)에 전달한다.The motion class determiner 83 extracts a motion area and a background area from the current image in comparison with the background model, and classifies the motion class of the motion area as foreground or ghost. The motion class determiner 83 bundles the areas classified as the foreground into the foreground blob, and transfers them to the object tracker 84. In addition, the motion class determiner 83 bundles the areas classified as ghosts into ghost blobs, and transmits them to the background model generator 82.

물체 추적부(84)는 이전의 전경 블롭들의 이동 정보를 가지는 트랙들을 유지 관리한다. 물체 추적부(84)는 움직임 클래스 판정부(83)로부터 전달된 전경 블롭과 트랙들 사이의 유사도를 연산하여 전경 블롭과 트랙을 연관시키고, 연관 결과에 따라 트랙을 갱신하거나, 새로 생성하거나, 비활성 내지 폐기한다. 한편, 물체 추적부(84)는 변경된 트랙 정보를 현재 영상에 결합하여 디스플레이(85)로 보낼 수 있다.The object tracker 84 maintains tracks with movement information of previous foreground blobs. The object tracker 84 associates the foreground blob with the track by calculating the similarity between the foreground blob and the tracks transmitted from the motion class determiner 83, and updates the track, generates a new track, or disables the track according to the association result. To discard. Meanwhile, the object tracker 84 may combine the changed track information with the current video and send the changed track information to the display 85.

디스플레이(85)는 카메라(81)에서 촬영된 영상을 그대로 표시할 수도 있고, 물체 추적부(84)에서 추적한 트랙 정보와 함께 결합된 현재 영상을 사용자에게 표시할 수도 있다.The display 85 may display the image captured by the camera 81 as it is, or may display the current image combined with the track information tracked by the object tracker 84 to the user.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명이 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이와 균등하거나 또는 등가적인 변형 모두는 본 발명 사상의 범주에 속한다 할 것이다.As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited to the above-described embodiments, which can be variously modified and modified by those skilled in the art to which the present invention pertains. Modifications are possible. Accordingly, the spirit of the invention should be understood only by the claims set forth below, and all equivalent or equivalent modifications will fall within the scope of the invention.

또한, 본 발명에 따른 장치는 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, 광학 디스크, 자기 테이프, 플로피 디스크, 하드 디스크, 비휘발성 메모리 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.In addition, the apparatus according to the present invention can be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the recording medium include ROM, RAM, optical disk, magnetic tape, floppy disk, hard disk, nonvolatile memory, and the like, and also include a carrier wave (for example, transmission through the Internet). The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

80 영상 감시 장치 81 카메라
82 배경 모델 생성부 83 움직임 클래스 판정부
84 물체 추적부 85 디스플레이
80 Video Surveillance 81 Camera
82 Background Model Generator 83 Motion Class Determination Unit
84 Object tracker 85 Display

Claims (17)

현재 배경 모델과 현재 영상을 비교하여, 변경이 상대적으로 적은 블록들은 배경으로 분류하고 변경이 상대적으로 큰 블럭들의 영상 클래스를 전경 또는 고스트 중 하나로 분류하는 단계;
영상 클래스가 전경인 블록들을 묶어 현재 전경 블롭으로 출력하고 영상 클래스가 고스트인 블록들을 묶어 고스트 블롭으로 출력하는 단계;
이전 전경 블롭들의 정보를 누적한 트랙들과 대응하는 현재 전경 블롭들을 찾아 트랙들에 반영하는 단계; 및
고스트 블롭들이 일정 개수 이상 누적되면, 현재 배경 모델 내의 상기 누적된 고스트 블롭에 해당하는 블록 위치를 갱신하여 다음 배경 모델을 생성하는 단계를 포함하는 영상 내 물체 감시 방법.
Comparing the current background model with the current image, classifying blocks with relatively small changes as background and classifying the image class of blocks with relatively large changes as either foreground or ghost;
Grouping blocks in which the image class is the foreground and outputting the current foreground blob, and outputting the bundles in which the image class is ghost as the ghost blob;
Finding current foreground blobs corresponding to tracks accumulating information of previous foreground blobs and reflecting them in the tracks; And
And if the number of ghost blobs is accumulated more than a predetermined number, generating a next background model by updating a block position corresponding to the accumulated ghost blobs in the current background model.
청구항 1에 있어서,
연속하는 영상들에서 추출한 시간-공간적으로 안정적인 영역들을 결합하여 배경 모델을 초기화하는 단계를 더 포함하는 것을 특징으로 하는 영상 내 물체 감시 방법.
The method according to claim 1,
And initializing a background model by combining time-spatially stable regions extracted from successive images.
청구항 2에 있어서, 상기 연속하는 영상들에서 추출한 시간-공간적으로 안정적인 영역들을 결합하여 배경 모델을 초기화하는 단계는,
상기 연속하는 영상들 중 하나로서 선택된 임시 배경과 그 외의 영상들을 블록 별로 비교하여, 변경이 적은 블록을 배경으로 분류한 횟수를 블록 별로 계수하는 단계; 및
배경으로 분류되는 횟수가 소정 값 이상인 블록을 배경 샘플로서 출력하는 단계를 포함하는 것을 특징으로 하는 영상 내 물체 감시 방법.
The method of claim 2, wherein initializing a background model by combining time-spatially stable regions extracted from the consecutive images comprises:
Comparing the temporary background selected as one of the consecutive images with other images for each block, and counting the number of times the blocks having little change are classified as the background for each block; And
And outputting a block having a number of times classified as a background more than a predetermined value as a background sample.
청구항 3에 있어서, 상기 연속하는 영상들에서 추출한 시간-공간적으로 안정적인 영역들을 결합하여 배경 모델을 초기화하는 단계는,
상기 연속하는 영상들 중 하나로서 선택된 임시 배경과 현재 영상, 상기 임시 배경과 과거 영상 및 상기 현재 영상과 과거 영상을 각각 비교하는 단계; 및
각 블록 별로, 상기 임시 배경과 현재 영상 사이 및 상기 임시 배경과 과거 영상 사이에서는 변화가 있지만 상기 현재 영상과 과거 영상 사이에서는 변화가 없는 블록인 것으로 판정된 횟수가 소정 값 이상이면, 그 블록 위치에 상응하는 현재 영상의 블록을 배경 샘플로서 출력하는 단계를 더 포함하는 것을 특징으로 하는 영상 내 물체 감시 방법.
The method of claim 3, wherein the initializing the background model by combining the time-spatially stable regions extracted from the consecutive images comprises:
Comparing the temporary background and the current image selected as one of the continuous images, the temporary background and the past image, and the current image and the past image, respectively; And
For each block, if the number of times that it is determined that there is a change between the temporary background and the current image and between the temporary background and the past image but there is no change between the current image and the past image is greater than or equal to a predetermined value, And outputting a corresponding block of the current image as a background sample.
청구항 3 또는 청구항 4 에 있어서,
각 블록 위치마다 다수의 배경 샘플들을 대표하는 하나의 최종 배경 샘플을 도출하고 블록 별로 도출된 최종 배경 샘플들을 결합하여 상기 배경 모델을 생성하는 단계를 더 포함하는 것을 특징으로 하는 영상 내 물체 감시 방법.
The method according to claim 3 or 4,
And deriving one final background sample representing a plurality of background samples at each block position and combining the final background samples derived for each block to generate the background model.
청구항 5에 있어서, 상기 최종 배경 샘플은,
상기 다수의 배경 샘플들의 히스토그램 중간값에 상응하는 배경 샘플인 것임을 특징으로 하는 영상 내 물체 감시 방법.
The method of claim 5, wherein the final background sample is
And a background sample corresponding to a median histogram of the plurality of background samples.
청구항 1에 있어서, 상기 현재 배경 모델과 현재 영상을 비교하여, 변경이 상대적으로 적은 블록들은 배경으로 분류하고 변경이 상대적으로 큰 블럭들을 전경 또는 고스트 중 하나로 분류하는 단계는,
상기 현재 배경 모델과 상기 현재 영상 사이의 블록 단위의 차분이 소정 값 이하이면 해당 블록을 배경으로 분류하고, 그렇지 않으면 해당 블록을 움직임 영역으로 분류하는 단계;
상기 현재 배경 모델 및 상기 현재 영상에 대해, 상기 현재 영상 내에서 움직임 영역으로 분류되는 블록들에서 윤곽선을 각각 검출하는 단계;
상기 현재 배경 모델의 윤곽선과 상기 현재 영상의 윤곽선의 차분이 소정 값 이상인 블록 중에서, 상기 현재 영상의 윤곽선이 검출되는 블록의 윤곽선 클래스를 전경으로 분류하고, 상기 현재 영상의 윤곽선이 검출되지 않지만 상기 현재 배경 모델의 윤곽선이 검출되는 블록의 윤곽선 클래스를 고스트로 분류하는 단계;
윤곽선 클래스가 전경으로 분류된 블록들로부터 해당 블록이 전경일 확률 분포를 예측하고, 윤곽선 클래스가 고스트로 분류된 블록들로부터 해당 블록이 고스트일 확률 분포를 예측하는 단계; 및
해당 블록의 전경 확률이 고스트 확률보다 크면 해당 블록의 영상 클래스를 전경으로 분류하며 그렇지 않으면 고스트로 분류하는 단계를 포함하는 것을 특징으로 하는 영상 내 물체 감시 방법.
The method of claim 1, wherein the comparing of the current background model and the current image, classifying blocks with less change as background and classifying blocks with relatively large change as either foreground or ghost,
Classifying the block as a background if the difference in the unit of a block between the current background model and the current image is less than or equal to a predetermined value; otherwise classifying the block as a motion region;
Detecting contours from blocks classified as motion regions in the current image, for the current background model and the current image;
Among the blocks of which the difference between the contour of the current background model and the contour of the current image is equal to or greater than a predetermined value, the contour class of the block from which the contour of the current image is detected is classified as the foreground, and the contour of the current image is not detected, but the current Classifying the contour class of the block in which the contour of the background model is detected as a ghost;
Predicting a probability distribution that the block is the foreground from blocks whose contour class is classified as foreground, and predicting a probability distribution that the block is ghost from blocks classified as ghost; And
If the foreground probability of the block is greater than the ghost probability, classifying the image class of the block as foreground; otherwise, classifying the object into an image.
청구항 1에 있어서, 상기 영상 클래스가 전경인 블록들을 묶어 현재 전경 블롭으로 출력하고 영상 클래스가 고스트인 블록들을 묶어 고스트 블롭으로 출력하는 단계는,
연결 요소 라벨링을 이용하여 블록들을 묶음으로써 블롭을 생성하는 단계;
각 블롭 내에서 가장 많은 블록들이 가지는 클래스가 전경이면 해당 블롭을 현재 전경 블롭으로 출력하는 단계; 및
각 블롭 내에서 가장 많은 블록들이 가지는 클래스가 고스트이면 고스트 블롭으로 출력하는 단계를 포함하는 것을 특징으로 하는 영상 내 물체 감시 방법.
The method of claim 1, wherein the grouping of the blocks of which the image class is the foreground is output as a current foreground blob and the blocks of the image class of the ghost are bundled and output as a ghost blob,
Creating a blob by concatenating blocks using concatenation element labeling;
Outputting the corresponding blob as the current foreground blob if the class of the most blocks in each blob is the foreground; And
And outputting a ghost blob if the class of the most blocks in each blob is a ghost.
청구항 1에 있어서, 상기 이전 전경 블롭들의 정보를 누적한 트랙들과 대응하는 현재 전경 블롭들을 찾아 트랙들에 반영하는 단계는
이전 트랙에 포함된 전경 블롭 정보과 현재 전경 블롭의 유사도가 소정 값보다 큰 현재 전경 블롭과 상기 이전 트랙을 대응시키는 단계; 및
대응된 현재 전경 블롭의 움직임에 따라 상기 이전 트랙의 전경 블롭 정보를 갱신하는 단계를 포함하는 것을 특징으로 하는 영상 내 물체 감시 방법.
The method of claim 1, wherein the finding and reflecting the current foreground blobs corresponding to the tracks accumulating the information of the previous foreground blobs and reflecting the tracks are as follows.
Associating the previous track with a current foreground blob whose similarity between the foreground blob information included in the previous track and the current foreground blob is greater than a predetermined value; And
And updating the foreground blob information of the previous track according to the movement of the corresponding current foreground blob.
청구항 9에 있어서, 상기 이전 트랙에 포함된 전경 블롭 정보과 현재 전경 블롭의 유사도가 소정 값보다 큰 현재 전경 블롭과 상기 이전 트랙을 대응시키는 단계는,
상기 이전 트랙에 포함된 전경 블롭의 과거 위치를 기초로 현재 영상에서 후보 영역을 정의하는 단계; 및
상기 후보 영역에 포함된 현재 전경 블롭 및 이전 트랙에 관하여 우선적으로 연산된 유사도가 소정 값보다 큰 경우, 현재 전경 블롭과 상기 이전 트랙을 대응시키는 단계를 포함하는 것을 특징으로 하는 영상 내 물체 감시 방법.
The method of claim 9, wherein the mapping of the previous track with the current foreground blob having a similarity between the foreground blob information included in the previous track and the current foreground blob is greater than a predetermined value,
Defining a candidate region in a current image based on a past position of a foreground blob included in the previous track; And
And associating the current foreground blob with the previous track when the similarity calculated first with respect to the current foreground blob and the previous track included in the candidate area is greater than a predetermined value.
청구항 1에 있어서, 상기 이전 전경 블롭들의 정보를 누적한 트랙들과 대응하는 현재 전경 블롭들을 찾아 트랙들에 반영하는 단계는,
트랙들 사이의 거리가 소정 값 이하인 적어도 하나의 트랙을 묶어 정의된 트랙 집합이 차지하는 영역에 상응하는 현재 전경 블롭들과 상기 트랙 집합 내의 트랙들 사이에서 연산된 유사도가 소정 값보다 큰 현재 전경 블롭과 상기 이전 트랙을 대응시킴으로써 상기 이전 트랙을 갱신하는 단계;
연산된 유사도가 소정 값보다 작아 어느 현재 전경 블롭들과도 대응되지 않는 트랙을 비활성 트랙으로 설정하는 단계; 및
어느 트랙 집합이 차지하는 영역에도 상응하지 않는 현재 전경 블롭을 위한 새로운 트랙을 생성하는 단계를 포함하는 것을 특징으로 하는 영상 내 물체 감시 방법.
The method of claim 1, wherein the finding and reflecting the current foreground blobs corresponding to the tracks accumulated with the previous foreground blobs and reflecting the tracks includes:
A current foreground blob corresponding to an area occupied by a defined track set by grouping at least one track whose distance between tracks is equal to or less than a predetermined value and a current foreground blob having a similarity calculated between tracks in the track set greater than a predetermined value; Updating the previous track by matching the previous track;
Setting a track as an inactive track whose calculated similarity is less than a predetermined value and does not correspond to any current foreground blobs; And
Creating a new track for the current foreground blob that does not correspond to an area occupied by any track set.
청구항 11에 있어서, 상기 트랙들 사이의 거리가 소정 값 이하인 적어도 하나의 트랙을 묶어 정의된 트랙 집합이 차지하는 영역에 상응하는 현재 전경 블롭들과 상기 트랙 집합 내의 트랙들 사이에서 연산된 유사도가 소정 값보다 큰 현재 전경 블롭과 상기 이전 트랙을 대응시킴으로써 상기 이전 트랙을 갱신하는 단계는,
상기 트랙 집합 내 각각의 트랙들을 구분하기 위한 특징점, 다수의 유사도 함수들을 포함하는 유사도 함수 집합을 상기 트랙 집합과 함께 정의하고, 상기 유사도 함수들 중 하나의 유사도 함수에 기초하여 현재 전경 블롭들과 이전 트랙 간의 유사도를 연산하는 단계를 포함하는 것을 특징으로 하는 영상 내 물체 감시 방법.
The method according to claim 11, wherein the similarity calculated between the tracks in the track set and the current foreground blobs corresponding to an area occupied by a track set defined by grouping at least one track whose distance between the tracks is equal to or less than a predetermined value. Updating the previous track by mapping a larger current foreground blob with the previous track,
A similarity function set including a feature point for distinguishing each track in the track set, a plurality of similarity functions, is defined with the track set, and the current foreground blobs and the previous track based on the similarity function of one of the similarity functions. Comprising the step of calculating the similarity between.
청구항 12에 있어서, 상기 유사도 함수 집합에 포함되는 유사도 함수들은 오차 절대값 합산(SAD), 오차 제곱값 합산(SSD), 바타차라야(battacharraya) 함수 및 상관(correlation) 함수를 포함하는 것을 특징으로 하는 영상 내 물체 감시 방법.The method of claim 12, wherein the similarity functions included in the set of similarity functions include absolute error sum (SAD), error square sum (SSD), battacharraya function, and correlation function. How to monitor the object in the image. 청구항 13에 있어서, 상기 유사도 함수들에 관하여 누적된 유사 판정의 성능 이력을 기초로 가장 성능이 우수한 유사도 함수가 선택되는 것을 특징으로 하는 영상 내 물체 감시 방법.The method according to claim 13, wherein the similarity function having the best performance is selected based on the performance history of the similarity determination accumulated with respect to the similarity functions. 청구항 13에 있어서, 상기 유사도 함수들에 관하여 누적된 유사 판정의 성능 이력을 기초로 성능이 우수한 적어도 두 개의 상위 유사도 함수들 중에 연산이 상대적으로 간단한 유사도 함수가 선택되는 것을 특징으로 하는 영상 내 물체 감시 방법.The object monitoring system according to claim 13, wherein a similarity function having a relatively simple operation is selected among at least two higher similarity functions having excellent performance based on the performance history of the similarity determination accumulated with respect to the similarity functions. Way. 청구항 1에 있어서, 상기 고스트 블롭들이 일정 개수 이상 누적되면 현재 배경 모델 내의 상기 누적된 고스트 블롭에 해당하는 블록 위치를 갱신하여 다음 배경 모델을 생성하는 단계는,
고스트 블롭들을 블록 별로 누적하는 단계;
일정 개수 이상으로 누적된 상기 고스트 블롭들을 대표할 수 있는 변화 발생 배경 영역을 도출하는 단계; 및
상기 도출된 변화 발생 배경 영역으로써 현재 배경 모델 내의 상기 누적된 고스트 블롭에 해당하는 블록 위치를 갱신하여 다음 배경 모델을 생성하는 단계를 포함하는 것을 특징으로 하는 영상 내 물체 감시 방법.
The method of claim 1, wherein when the ghost blobs are accumulated more than a predetermined number, generating a next background model by updating a block position corresponding to the accumulated ghost blobs in the current background model.
Accumulating ghost blobs block by block;
Deriving a change occurrence background region that can represent the ghost blobs accumulated in a predetermined number or more; And
And updating a block position corresponding to the accumulated ghost blob in the current background model as the derived change occurrence background area to generate a next background model.
현재 배경 모델과 현재 영상을 비교하여, 변경이 상대적으로 적은 블록들은 배경으로 분류하고 변경이 상대적으로 큰 블럭들의 영상 클래스를 전경 또는 고스트 중 하나로 분류하며, 영상 클래스가 전경인 블록들을 묶어 현재 전경 블롭으로 출력하고 영상 클래스가 고스트인 블록들을 묶어 고스트 블롭으로 출력하는 움직임 클래스 판정부;
이전 전경 블롭들의 정보를 누적한 트랙들과 대응하는 현재 전경 블롭들을 찾아 트랙들에 반영하는 물체 추적부; 및
고스트 블롭들이 일정 개수 이상 누적되면, 현재 배경 모델 내의 상기 누적된 고스트 블롭에 해당하는 블록 위치를 갱신하여 다음 배경 모델을 생성하는 배경 모델 생성부를 포함하는 영상 감시 장치.
Compares the current background model with the current image, classifies blocks with less change as background, classifies the image class of blocks with larger changes as either foreground or ghost, and binds blocks with image class as foreground to the current foreground blob A motion class determiner for outputting a block to which the image class is ghosted and outputting the result as a ghost blob;
An object tracker which finds current foreground blobs corresponding to tracks accumulating information of previous foreground blobs and reflects the current foreground blobs to the tracks; And
And a background model generator for generating a next background model by updating a block position corresponding to the accumulated ghost blob in the current background model when the number of ghost blobs is accumulated more than a predetermined number.
KR1020100081490A 2010-08-23 2010-08-23 Method and apparatus for surveying objects in moving picture images KR101137110B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100081490A KR101137110B1 (en) 2010-08-23 2010-08-23 Method and apparatus for surveying objects in moving picture images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100081490A KR101137110B1 (en) 2010-08-23 2010-08-23 Method and apparatus for surveying objects in moving picture images

Publications (2)

Publication Number Publication Date
KR20120018566A KR20120018566A (en) 2012-03-05
KR101137110B1 true KR101137110B1 (en) 2012-04-19

Family

ID=46127792

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100081490A KR101137110B1 (en) 2010-08-23 2010-08-23 Method and apparatus for surveying objects in moving picture images

Country Status (1)

Country Link
KR (1) KR101137110B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102159052B1 (en) * 2020-05-12 2020-09-23 주식회사 폴라리스쓰리디 Method and apparatus for classifying image

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101445361B1 (en) * 2012-08-31 2014-10-28 주식회사 하이트론씨스템즈 Site Monitoring System
KR101646000B1 (en) 2014-11-11 2016-08-08 한국과학기술연구원 Surveillance System And Method To Object And Area
KR102160749B1 (en) * 2019-05-29 2020-09-28 재단법인대구경북과학기술원 Method and apparatus for object tracking
US11891067B2 (en) 2019-12-11 2024-02-06 Electronics And Telecommunications Research Institute Vehicle control apparatus and operating method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070009899A (en) * 2005-07-14 2007-01-19 학교법인연세대학교 Apparatus and method for 3-dimensional modeling using multiple stereo cameras
KR20080020441A (en) * 2006-08-30 2008-03-05 (주)로직아이텍 Image monitoring system for object identification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070009899A (en) * 2005-07-14 2007-01-19 학교법인연세대학교 Apparatus and method for 3-dimensional modeling using multiple stereo cameras
KR20080020441A (en) * 2006-08-30 2008-03-05 (주)로직아이텍 Image monitoring system for object identification

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102159052B1 (en) * 2020-05-12 2020-09-23 주식회사 폴라리스쓰리디 Method and apparatus for classifying image
US11657594B2 (en) 2020-05-12 2023-05-23 Polaris3D Co., Ltd. Method and apparatus for classifying image

Also Published As

Publication number Publication date
KR20120018566A (en) 2012-03-05

Similar Documents

Publication Publication Date Title
Senior Tracking people with probabilistic appearance models
US8243987B2 (en) Object tracking using color histogram and object size
US8705861B2 (en) Context processor for video analysis system
Messelodi et al. A computer vision system for the detection and classification of vehicles at urban road intersections
JP5102410B2 (en) Moving body detection apparatus and moving body detection method
Senior et al. Appearance models for occlusion handling
US8340357B2 (en) Moving object detection method and moving object detection apparatus
US8213681B2 (en) Moving object detection method and moving object detection apparatus
Ferryman et al. Performance evaluation of crowd image analysis using the PETS2009 dataset
KR101137110B1 (en) Method and apparatus for surveying objects in moving picture images
KR101472674B1 (en) Method and apparatus for video surveillance based on detecting abnormal behavior using extraction of trajectories from crowd in images
Mao et al. Catdet: Cascaded tracked detector for efficient object detection from video
Denman et al. Multi-spectral fusion for surveillance systems
CN110781733A (en) Image duplicate removal method, storage medium, network equipment and intelligent monitoring system
CN111723773A (en) Remnant detection method, device, electronic equipment and readable storage medium
KR20110128529A (en) Apparatus and method for tracking non-rigid object based on shape and feature information
Jodoin et al. Modeling background activity for behavior subtraction
KR101492059B1 (en) Real Time Object Tracking Method and System using the Mean-shift Algorithm
KR101690050B1 (en) Intelligent video security system
Chen et al. Tracking and counting people in visual surveillance systems
Vibha et al. Dynamic object detection, tracking and counting in video streams for multimedia mining
US20080198237A1 (en) System and method for adaptive pixel segmentation from image sequences
Almomani et al. Segtrack: A novel tracking system with improved object segmentation
Roopchand et al. Bat detection and tracking toward batsman stroke recognition
Srilekha et al. A novel approach for detection and tracking of vehicles using Kalman filter

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170204

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180405

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20200205

Year of fee payment: 9