KR101508310B1 - Apparatus and method for tracking multiple moving objects in video surveillance system - Google Patents

Apparatus and method for tracking multiple moving objects in video surveillance system Download PDF

Info

Publication number
KR101508310B1
KR101508310B1 KR20140043041A KR20140043041A KR101508310B1 KR 101508310 B1 KR101508310 B1 KR 101508310B1 KR 20140043041 A KR20140043041 A KR 20140043041A KR 20140043041 A KR20140043041 A KR 20140043041A KR 101508310 B1 KR101508310 B1 KR 101508310B1
Authority
KR
South Korea
Prior art keywords
tracking
moving
objects
image
area
Prior art date
Application number
KR20140043041A
Other languages
Korean (ko)
Inventor
주영훈
김종선
Original Assignee
군산대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 군산대학교산학협력단 filed Critical 군산대학교산학협력단
Priority to KR20140043041A priority Critical patent/KR101508310B1/en
Application granted granted Critical
Publication of KR101508310B1 publication Critical patent/KR101508310B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling

Abstract

The present invention relates to a method and an apparatus for tracking multiple moving objects in an image surveillance system, the method comprising the steps of: tracking, by an image surveillance apparatus, a moving area of at least one moving object using a RGB background modeling from the input image; imparting labels to each of the moving areas and merging the moving areas according to the imparted labels; identifying at least one moving object; searching for the location of a tracking object using the identified moving object; and tracking the object in the image based on the searched location.

Description

영상 감시 시스템에서 다중 이동 물체를 추적하는 방법 및 장치{Apparatus and method for tracking multiple moving objects in video surveillance system}[0001] The present invention relates to a method and apparatus for tracking multiple moving objects in a video surveillance system,

본 발명은 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법에 관한 것으로, 특히 영상을 입력받아 이동 영역을 추출하고, 객체를 식별한 뒤 다중 이동 물체를 추적하는 방법에 관한 것이다.The present invention relates to a method for tracking multiple moving objects in a video surveillance system, and more particularly, to a method for extracting a moving area by inputting an image, identifying an object, and tracking multiple moving objects.

지능형 영상 감시는 입력 영상으로부터 배경 영역을 분리한 뒤 이동하는 객체를 추출해 인식하여 추적하며, 식별된 객체나 추적 중인 객체로부터 감시 상황에 적합한 이벤트를 발생시키는 과정을 포함한다. 여기서, 이동 물체를 식별 및 추적하기 위해서는, 영상에 존재하는 이동 객체를 분리할 수 있어야 하며 대표적으로, 가우시안 혼합 모델(GMM: Gaussian mixture model), 배경 차(Background subtraction)등과 같은 방법 등이 있다. 가우시안 혼합 모델은 확률 분포를 사용하는 영상 처리 분야에서 유용하게 사용되는 방법으로서 다양한 환경적인 변화를 갖는 입력 영상을 처리할 때 효과적이지만 속도가 느린 단점을 갖는다. 또한, 배경차를 이용한 방법은 배경 영상 생성 이후 이동 객체를 빠르게 추출할 수 있지만 배경 생성 방법에 성능이 크게 좌우된다. Kim 등은 이동 물체 추출시 RGB 컬러 모델을 이용한 배경 모델링 방법을 제안하여 이동 객체를 추출하는 배경 차 방법을 제안했는데, 배경과 유사한 색상을 갖는 이동 객체 추출 문제와 나무의 흔들림에 의한 의미 없는 이동 영역의 추출 문제를 효과적으로 해결한 바 있다.The intelligent video surveillance includes a process of extracting a moving object after separating the background area from the input image, recognizing and tracking the object, and generating an event suitable for the monitoring situation from the identified object or the object being tracked. Here, in order to identify and track the moving object, it is necessary to be able to separate moving objects existing in the image. Typically, there are methods such as a Gaussian mixture model (GMM) and a background subtraction. The Gaussian mixture model is a useful method for image processing using probability distributions. It is effective when processing input images with various environmental changes, but has a disadvantage that it is slow. In addition, the method using the background difference can extract the moving object quickly after generating the background image, but the performance greatly depends on the background generating method. Kim et al. Proposed a background modeling method that extracts moving objects by proposing a background modeling method using RGB color model when extracting a moving object. The problem of extracting moving objects with similar colors to the background, The problem of extracting the image is effectively solved.

추출된 이동 객체를 식별하는 과정은 추출된 이동 객체가 다수이거나, 하나의 이동 객체가 여러 개의 이동 영역으로 추출될 경우 이들을 추적이 용이한 이동 객체로 식별하는 단계이다. 현재까지 진행된 이동 객체 식별 방법은 윤곽선 기반 분류, 모션 기반 분류 방법 등이 있으며, 윤곽선 기반 분류는 추출된 이동 객체에서 점들과 박스형태 모양, 윤곽선 및 블롭(Blob)들의 데이터 집합들을 사용하는 분류 방법으로, Lipton 등은 인간, 차량 및 이외의 모든 이동 객체에 대한 블롭을 분류하기 위해 블롭의 흩어진 정도와 크기를 사용한 바 있으며, Kim 등은 이동 객체를 식별하기 위해 각 이동 객체의 블롭들이 갖는 이동 벡터를 추출한 바 있다. 하지만, 이들 연구는 추출되는 각각의 이동 객체 영역이 하나의 이동 객체에 대해 하나의 이동 영역을 가져야하는 치명적인 단점이 존재한다.In the process of identifying the extracted moving object, when a plurality of extracted moving objects are extracted, or when one moving object is extracted as a plurality of moving areas, it is identified as a moving object that can be easily tracked. Contour-based classification is a classification method that uses data sets of points, box shapes, contours, and blobs in the extracted moving object. , Lipton et al. Used the extent and size of blobs to classify blobs for human, vehicle, and all other moving objects. Kim et al. Used moving vectors of blobs of each moving object to identify moving objects I have extracted it. However, these studies have a fatal disadvantage that each extracted moving object region must have one moving region for one moving object.

이동 객체를 추적하는 과정은 이전 영상에서 식별된 이동 객체를 현재 영상에서 찾는 것이다. 특히, 추적하는 객체가 서로 겹치거나, 배경 영상에 의해 가려지는 문제는 추적 관련 연구의 큰 화두이며, 그 해결 방안은 수많은 연구자에 의해 다양한 방법론이 제시되었다. 추적 기법들은 영역 기반 추적 (Region-based tracking), 활성 윤곽선 기반 추적(Active contour-based tracking), 특징 기반 추적(Feature-based tracking), 모델 기반 추적(Model- based tracking) 등 4가지 범위로 나눌 수 있다. 여기서, 영역 기반 추적 알고리즘은 움직이는 객체에 해당하는 이미지의 변화나 구조적인 특성(대개 추적 객체는 인간이며 인간의 머리, 몸통, 하체 등의 구조를 사용)을 이용한 방법으로, 객체가 갖는 고유한 특성을 어떻게 모델화하는지에 따라 추적 성능이 좌우될 수 있다. 또한, 활성 윤곽선 기반 추적 알고리즘은 윤곽선을 경계로 윤곽을 표현하고 연속된 프레임에서 동적으로 윤곽을 갱신 하여 객체를 추적하는 방법으로, 윤곽선이 반드시 추출되어야 하는 전제로 인해 윤곽선의 추출 여부에 추적의 성능이 결정되는 단점과 추적 초기화에 매우 민감해 자동 추적이 어려운 문제점을 갖는다. 또한, 특징 기반 추적 알고리즘은 특징들의 요소들과 고 수준의 클러스터링을 통해 이미지 간의 특징을 일치시킴으로써 물체를 인식 및 추적하는 방법으로, 이동 객체의 특징이 다수 확보될 경우 추적에 용이하지만 특징점 추출을 위한 많은 연산량, 특징점 추출을 위한 이동 객체 영상의 제약(크기, 색상 조합 등)과 같은 문제점을 갖는다. 모델 기반은 사전에 객체의 구조적인 특징을 실측해 모델링한 뒤 매칭하는 방법으로, 주로 객체의 행동 인식을 위한 방법이다.The process of tracking the moving object is to find the moving object identified in the previous image in the current image. Especially, the problem that tracked objects overlap each other or are blocked by background images is a big issue of tracking research, and various methods have been proposed by many researchers. Tracking techniques can be divided into four areas: region-based tracking, active contour-based tracking, feature-based tracking, and model-based tracking . Here, the area-based tracking algorithm is a method using a change in image or a structural characteristic corresponding to a moving object (usually, a tracking object is a human and uses a structure such as human head, body, and lower body) Depending on how you model your traceability, tracking performance can be influenced. In addition, the active contour-based tracking algorithm is a method of tracing an object by expressing an outline with an outline boundary and dynamically updating an outline in a succession of frames. Since the outline must be extracted, And it is very sensitive to the initialization of the tracking, so that there is a problem that automatic tracking is difficult. In addition, the feature-based tracking algorithm recognizes and traces an object by matching the features of the features with the features of the images through high-level clustering. It is easy to track when many features of the moving object are secured. (Size, color combination, etc.) of a moving object image for extracting a lot of computation amount and feature point. The model base is a method for measuring the structural characteristics of an object in advance and then matching it.

이동 객체의 색상 정보를 사용하는 방법은 대표적으로, Mean Shift와 CAMshift 알고리즘 등이 있다. 이들 알고리즘은 선택된 탐색 윈도우의 색상 밀도 분포를 이용해 객체를 고속으로 추출한다. Mean Shift를 연속적인 영상에 적용하기 위해 스스로 탐색 윈도우의 크기를 조정하는 CAMshift 알고리즘이 제안되었으며 실시간 처리가 가능한 장점이 있다. CAMshift 알고리즘은 주로 사람의 얼굴 영역 인식을 위한 방법으로 연구되었지만, 최근에는 차 영상을 이용해 추출한 이동 객체 영역을 탐색 윈도우로 선정해 객체를 추적하거나, 이동 객체와 유사한 색상이 혼재하는 공간에서 이동 객체의 불변 특징점을 활용한 방법, 칼만 필터, 파티클 필터를 이용해 더욱 강건한 추적을 가능케 하는 방법 등이 연구되었다. 하지만, 특징점이나 파티클 필터와 같은 방법은 추적 객체가 많아질 경우 연산량이 많아져 실시간 처리가 보장되지 않는 문제점이 존재한다. 또한, 영상 차 및 특징 정보를 이용한 방법은 식별된 객체의 영상이 이동 객체의 영역을 모두 포함하지 못할 때 추적에 실패할 수 있는 문제점 또한 존재한다. Representative methods of using the color information of the moving object include Mean Shift and CAMshift algorithms. These algorithms extract objects at high speed using the color density distribution of the selected search window. The CAMshift algorithm, which adjusts the size of the search window itself to apply the mean shift to the continuous image, has been proposed and has the advantage of real-time processing. Although the CAMshift algorithm has been studied mainly as a method for human face area recognition, in recent years, it is possible to track an object by selecting a moving object area extracted using a car image as a search window, or to search for a moving object A method using invariant feature points, a Kalman filter, and a method for enabling more robust tracking using a particle filter. However, methods such as feature points and particle filters have a problem in that when the number of tracking objects increases, the amount of computation increases and real-time processing is not guaranteed. Also, there is a problem that the method using the image difference and feature information may fail to track when the image of the identified object does not include all of the area of the moving object.

한편, 이하에서 인용하는 선행기술 문헌은 파티클 필터를 이용한 다중물체 추적방법을 소개하고, 비선형 추정방법인 파티클 필터 알고리즘을 이용하여 다중 형태의 사후 분포도를 추정하여 다중 물체의 추적이 가능하게 하는 방법을 제안하였다. 하지만, 상기 선행기술은 상기에서 언급하였듯이 추적 객체가 많아질 경우 연산량이 많아져 실시간 처리가 보장되지 않는 치명적인 단점이 존재한다.In the meantime, the prior art cited below discloses a method for tracking multiple objects using a particle filter, and a method for tracking multiple objects by estimating multiple types of post-distribution using a nonlinear estimation method, particle filter algorithm The However, as described above, the prior art has a fatal disadvantage in that when the number of tracking objects increases, the amount of computation increases and real-time processing is not guaranteed.

이와 같은 관점에서, 분할된 이동 객체의 식별 및 CAMshift를 사용한 객체 추적 문제를 해결할 수 있는 기술적 수단이 필요하다는 사실을 알 수 있다.From this point of view, it can be seen that there is a need for a technical means to solve the problem of object tracking using CAMshift and the identification of divided moving objects.

공개특허공보 제 10-2009-0043016 (2009.05.06)Published Patent Application No. 10-2009-0043016 (May 5, 2009)

따라서, 본 발명이 해결하고자 하는 첫 번째 과제는 입력된 영상으로부터 RGB 배경 모델링을 이용하여 이동 물체의 움직임 영역을 추출하고, 라벨링 기법을 이용하여 이동 객체를 식별하며, 식별된 이동 객체의 영상을 캠시프트 알고리즘을 이용하여 현재의 영상에서 추적 객체의 위치를 탐색하고 칼만 필터를 이용해 위치를 추적할 수 있는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법을 제공하는 것이다.Accordingly, a first problem to be solved by the present invention is to extract a moving area of a moving object using RGB background modeling from an input image, identify the moving object using a labeling technique, The present invention provides a method of tracking a moving object in a video surveillance system capable of tracking a position of a tracking object in a current image using a shift algorithm and tracking the position using a Kalman filter.

본 발명이 해결하고자 하는 두 번째 과제는 입력된 영상으로부터 RGB 배경 모델링을 이용하여 이동 물체의 움직임 영역을 추출하고, 라벨링 기법을 이용하여 이동 객체를 식별하며, 식별된 이동 객체의 영상을 캠시프트 알고리즘을 이용하여 현재의 영상에서 추적 객체의 위치를 탐색하고 칼만 필터를 이용해 위치를 추적할 수 있는 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치를 제공하는 것이다.A second problem to be solved by the present invention is to extract a moving region of a moving object using RGB background modeling from an input image, identify a moving object by using a labeling technique, The present invention provides a device for tracking multiple moving objects in a video surveillance system capable of tracking the position of a tracking object in a current image and tracking the position using a Kalman filter.

또한, 상기된 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 있다.There is also provided a computer-readable recording medium having recorded thereon a program for causing a computer to execute the above-described method.

상기 첫 번째 과제를 달성하기 위하여, 본 발명의 일 실시예에 따른 영상 감시 장치가 입력된 영상으로부터 RGB 배경 모델링을 이용하여 하나 이상의 이동 물체의 움직임 영역을 추출하는 단계; 상기 영상 감시 장치가 상기 각각의 움직임 영역에 라벨을 부여하여 부여된 라벨에 따라 상기 움직임 영역을 병합함으로써, 하나 이상의 이동 객체를 식별하는 단계; 및 상기 영상 감시 장치가 상기 식별된 이동 객체를 이용하여 추적 객체의 위치를 탐색하며, 상기 탐색된 위치에 기초하여 상기 영상에서 물체를 추적하는 단계를 포함하는 영상 감시 시스템에서 이동 물체를 추적하는 방법을 제공한다.According to an aspect of the present invention, there is provided a method of controlling a moving object, the method comprising: extracting a motion region of at least one moving object using RGB background modeling from an input image of the image monitoring apparatus according to an embodiment of the present invention; Identifying the at least one moving object by labeling the respective moving area by the video surveillance device and merging the moving area according to the assigned label; And tracking the moving object in the video surveillance system, wherein the video surveillance apparatus searches for the position of the tracking object using the identified moving object, and tracking the object in the image based on the detected position .

상기된 일 실시예에 따른 상기 영상에서 물체를 추적하는 단계는, 상기 식별된 이동 객체의 개수와 추적 객체의 개수에 따라 캠시프트(CAMshift) 알고리즘을 수행하여 상기 추적하고자 하는 객체의 위치를 탐색하는 단계; 및 상기 탐색된 추적 객체의 위치에 칼만 필터(Kalman filter)를 이용하여 상기 영상에서 물체를 추적하는 단계를 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법일 수 있다.According to an embodiment of the present invention, the step of tracking an object may include searching for a location of the object to be tracked by performing a CAMshift algorithm according to the number of the identified moving objects and the number of tracking objects step; And tracking an object in the image using a Kalman filter at a position of the searched tracking object. The present invention also provides a method of tracking a moving object in a video surveillance system.

상기된 일 실시예에 따른 상기 영상에서 물체를 추적하는 단계는, 상기 추적하고자 하는 객체의 개수가 상기 식별된 이동 객체의 개수보다 많을 경우, 상기 칼만 필터를 이용하여 추적 객체의 위치가 영상의 경계 영역에 존재하면 해당 추적 객체를 삭제하며, 상기 추적 객체의 위치가 영상의 내부에 존재하면 해당 추적 객체의 위치를 추정하여 탐색 윈도우를 갱신하는 단계를 더 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법일 수 있다.The step of tracking an object in the image according to an embodiment of the present invention includes the steps of: when the number of the objects to be tracked is larger than the number of the identified moving objects, And updating the search window by estimating the location of the tracked object if the location of the tracked object exists inside the image, Lt; / RTI >

상기된 일 실시예에 따른 상기 영상에서 물체를 추적하는 단계는, 상기 식별된 이동 객체의 개수가 상기 추적하고자 하는 객체의 개수보다 많을 경우, 상기 물체 추적에 이용되는 않은 이동 객체를 상기 추적 객체로 등록하는 단계를 더 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법일 수 있다.The step of tracking an object in the image according to an embodiment of the present invention may further include the step of, when the number of the identified moving objects is greater than the number of the objects to be tracked, And registering the plurality of moving objects in the video monitoring system.

상기된 일 실시예에 따른 상기 하나 이상의 이동 객체에서 회전된 최소 사각형 영역을 포함하는 회전된 근접 타원을 생성하며, 상기 회전된 근접 타원을 재추출함으로써, 상기 이동 객체의 영역 선택 시 손실을 최소화하는 단계를 더 포함하는 방법일 수 있다.A rotated neighboring ellipse including the rotated minimum square area is generated from the one or more moving objects according to the embodiment described above and the rotated neighboring ellipses are re-extracted to minimize loss in area selection of the moving object Step < / RTI >

상기된 일 실시예에 따른 상기 하나 이상의 이동 객체를 식별하는 단계는, 상기 추출된 하나 이상의 움직임 영역에 라벨을 각각 부여하는 단계; 상기 부여된 라벨 중에서 근접한 라벨을 포함하는 움직임 영역들끼리 그룹화하여 하나 이상의 움직임 영역 그룹을 생성하는 단계; 및 상기 하나 이상의 움직임 영역 그룹을 라벨 병합 기법을 이용하여 하나 이상의 이동 객체를 식별하는 단계를 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법일 수 있다.The step of identifying the at least one moving object according to an embodiment of the present invention may include: providing a label to each of the extracted one or more moving areas; Grouping motion regions including adjacent labels among the assigned labels to generate at least one motion region group; And identifying one or more moving objects using the label merging technique for the one or more motion area groups.

상기된 일 실시예에 따른 상기 라벨이 부여된 움직임 영역 중 소정의 크기를 넘지 못하는 라벨은 버림으로써, 의미 없는 영역을 삭제하는 단계를 더 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법일 수 있다.The method may further include deleting a label that does not exceed a predetermined size of the label-attached movement area according to the above-described embodiment, thereby deleting the meaningless area, thereby tracking multiple moving objects in the video surveillance system have.

상기 두 번째 과제를 달성하기 위하여, 본 발명의 일 실시예에 따른 입력된 영상으로부터 RGB 배경 모델링을 이용하여 하나 이상의 이동 물체의 움직임 영역을 추출하는 추출부; 상기 각각의 움직임 영역에 라벨을 부여하여 부여된 라벨에 따라 상기 움직임 영역을 병합함으로써, 하나 이상의 이동 객체를 식별하는 식별부; 및 상기 식별된 이동 객체를 이용하여 추적 객체의 위치를 탐색하며, 상기 탐색된 위치에 기초하여 상기 영상에서 물체를 추적하는 추적부를 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치를 제공한다.In order to achieve the second object, an extraction unit extracts a motion region of at least one moving object using an RGB background modeling from an input image according to an exemplary embodiment of the present invention. An identification unit for identifying one or more moving objects by merging the moving areas according to a label given to each of the moving areas; And a tracking unit for searching for the position of the tracking object using the identified moving object and for tracking an object in the image based on the searched position.

상기된 일 실시예에 따른 상기 추적부는, 상기 식별된 이동 객체의 개수와 추적 객체의 개수에 따라 캠시프트 알고리즘을 수행하여 상기 추적하고자 하는 객체의 위치를 탐색하고, 상기 탐색된 추적 객체의 위치에 칼만 필터를 이용하여 상기 영상에서 물체를 추적하는 것을 특징으로 하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치일 수 있다.The tracking unit according to an embodiment of the present invention performs a camshift algorithm according to the number of the identified moving objects and the number of tracking objects to search for the position of the object to be tracked, And the object is tracked in the image using a Kalman filter. In the video surveillance system, the moving object may be tracked.

상기된 일 실시예에 따른 상기 추적부는, 상기 추적하고자 하는 객체의 개수가 상기 식별된 이동 객체의 개수보다 많을 경우, 상기 칼만 필터를 이용하여 추적 객체의 위치가 영상의 경계 영역에 존재하면 해당 추적 객체를 삭제하며, 상기 추적 객체의 위치가 영상의 내부에 존재하면 해당 추적 객체의 위치를 추정하여 탐색 윈도우를 갱신하는 것을 특징으로 하는 이동 물체를 추적하는 장치일 수 있다.If the number of the objects to be tracked is greater than the number of the identified moving objects, if the position of the tracking object exists in the boundary region of the image using the Kalman filter, And updates the search window by estimating a position of the tracked object if the position of the tracked object exists inside the image.

상기된 일 실시예에 따른 상기 추적부는, 상기 식별된 이동 객체의 개수가 상기 추적하고자 하는 객체의 개수보다 많을 경우, 상기 물체 추적에 이용되는 않은 이동 객체를 상기 추적 객체로 등록하는 단계를 더 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치일 수 있다.If the number of the identified moving objects is greater than the number of the objects to be tracked, the tracking unit according to the embodiment further includes registering a moving object not used for tracking the object as the tracking object The moving object may be a device for tracking multiple moving objects in a video surveillance system.

상기된 일 실시예에 따른 상기 식별부는, 상기 추출된 하나 이상의 움직임 영역에 라벨을 각각 부여하고, 상기 부여된 라벨 중에서 근접한 라벨을 포함하는 움직임 영역들끼리 그룹화하여 하나 이상의 움직임 영역 그룹을 생성하며, 상기 하나 이상의 움직임 영역 그룹을 라벨 병합 기법을 이용하여 하나 이상의 이동 객체를 식별하되, 상기 라벨이 부여된 움직임 영역 중 소정의 크기를 넘지 못하는 라벨은 버림으로써, 의미 없는 영역을 삭제하는 단계를 더 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치일 수 있다.The identification unit according to an embodiment of the present invention assigns labels to the extracted one or more motion areas and generates one or more motion area groups by grouping the motion areas including adjacent labels among the assigned labels, Further comprising the step of identifying one or more moving objects using the label merging technique for the one or more motion area groups, but deleting a label that does not exceed a predetermined size of the labeled moving area, The moving object may be a device for tracking multiple moving objects in a video surveillance system.

상기된 일 실시예에 따른 상기 하나 이상의 이동 객체에서 회전된 최소 사각형 영역을 포함하는 회전된 근접 타원을 생성하며, 상기 회전된 근접 타원을 재 추출함으로써, 상기 이동 객체의 영역 선택 시 손실을 최소화하는 것을 특징으로 하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치일 수 있다.A rotated neighboring ellipse including the rotated minimum square area is generated from the one or more moving objects according to the embodiment described above and the rotated neighboring ellipses are re-extracted to minimize loss in area selection of the moving object The moving object may be a device for tracking multiple moving objects in a video surveillance system.

상기된 다른 기술적 과제를 해결하기 위하여, 본 발명은 상기된 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.According to another aspect of the present invention, there is provided a computer-readable recording medium having recorded thereon a program for causing a computer to execute a method for tracking multiple moving objects in the video surveillance system.

본 발명에 따르면, 영상을 입력받아 이동 영역을 추출하고 객체를 식별한 뒤 추적함으로써, 다수의 영역으로 구성된 이동 객체들을 효과적으로 병합하며 추적 객체가 서로 겹쳐있는 상황에서도 객체의 위치를 효과적으로 추적할 수 있는 효과가 있다.According to the present invention, it is possible to effectively combine moving objects composed of a plurality of regions and effectively track the position of an object even when the tracking objects overlap each other, by extracting a moving region by inputting an image, It is effective.

도 1은 본 발명의 일 실시예들이 채택하고 있는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법을 도시한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 배경 모델링 방법을 이용한 이동 영역을 추출하는 과정을 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 이동 영역의 라벨링 결과를 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 이동 객체의 외곽선 추출 결과를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 라벨 병합 결과를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 라벨의 근접 타원을 생성한 결과를 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 이동 객체와 캠시프트를 이용한 객체 추적 방법을 도시한 흐름도이다.
도 8은 본 발명의 일 실시예들이 채택하고 있는 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치를 도시한 블록도이다.
도 9는 본 발명의 일 실시예에 따른 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법을 도시한 블록도이다.
도 10a는 본 발명의 일 실시예에 따른 이동 객체의 식별 및 추적 실험 결과를 도시한 도면이다.
도 10b는 본 발명의 일 실시예에 따른 식별된 객체 수를 그래프로 도시한 도면이다.
도 10c는 본 발명의 일 실시예에 따른 객체 추적 오차 결과를 그래프로 도시한 도면이다.
도 10d는 본 발명의 일 실시예에 따른 소요시간 결과를 그래프로 도시한 도면이다.
1 is a flowchart illustrating a method of tracking multiple moving objects in a video surveillance system adopted by embodiments of the present invention.
2 is a diagram illustrating a process of extracting a moving region using a background modeling method according to an embodiment of the present invention.
FIG. 3 is a diagram showing a labeling result of a moving region according to an embodiment of the present invention.
4 is a diagram illustrating the outline extraction result of a moving object according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating a result of label merging according to an embodiment of the present invention.
6 is a diagram illustrating a result of generating a proximity ellipse of a label according to an embodiment of the present invention.
7 is a flowchart illustrating an object tracking method using a moving object and a camshift according to an embodiment of the present invention.
FIG. 8 is a block diagram illustrating an apparatus for tracking multiple moving objects in a video surveillance system adopted by embodiments of the present invention.
9 is a block diagram illustrating a method of tracking multiple moving objects in a video surveillance system according to an embodiment of the present invention.
FIG. 10A is a diagram illustrating a result of an identification and tracking experiment of a moving object according to an embodiment of the present invention.
10B is a graphical representation of the number of identified objects in accordance with an embodiment of the present invention.
FIG. 10C is a graph illustrating an object tracking error result according to an exemplary embodiment of the present invention. Referring to FIG.
FIG. 10D is a graph showing the time-required results according to an embodiment of the present invention.

본 발명의 실시예들을 설명하기에 앞서, 상기의 발명의 배경이 되는 기술에서 언급한 기존의 영상 감시 방법에서 발생하는 문제점들을 해결하기 위해 본 발명의 실시예들이 채택하고 있는 기술적 수단을 개괄적으로 소개하도록 한다.Before describing the embodiments of the present invention, in order to solve the problems occurring in the conventional video surveillance method mentioned in the background of the above-mentioned invention, the technical means adopted by the embodiments of the present invention is introduced in an overview .

본 발명은 분할된 이동 객체의 식별 및 캠시프트(CAMshift)를 사용한 객체 추적 문제를 해결하기 위해 다음과 같이 3가지 단계로 이루어진 방법을 제안한다. 먼저, 영상 내의 이동 객체를 추출하기 위해 RGB 컬러 모델을 이용한 배경 모델링 방법을 사용한다. 두 번째로, 여러 개의 분할된 블롭 집합들로 추출된 이동 객체를 식별하기 위해 각 블롭에 라벨링 방법을 적용한다. 이때, 라벨의 윤곽선 거리 정보를 이용한 하나의 이동 객체로 식별하는 라벨-병합 방법을 제안한다. 마지막으로, 식별된 이동 객체 영역을 캠시프트의 탐색 윈도우로 선정한 뒤 캠시프트가 찾은 위치를 칼만 필터를 이용해 추적하는 방법을 제안한다. 최종적으로, 본 발명에서 제안한 방법의 응용 가능성을 증명하기 위해 실내 환경 내에 영상 감시 시스템 구축하고 몇 가지 실험 및 결과 분석을 통해 이를 입증한다The present invention proposes a three-step method for solving the problem of object tracking using the divided moving object identification and camshift. First, a background modeling method using an RGB color model is used to extract moving objects in an image. Second, a labeling method is applied to each blob to identify moving objects extracted from a plurality of divided blob sets. At this time, a label-merging method of identifying a moving object using the contour distance information of the label is proposed. Finally, we propose a method of tracking the detected position of the camshift using the Kalman filter after selecting the identified moving object region as the search window of the camshift. Finally, in order to prove the applicability of the method proposed by the present invention, a video surveillance system is constructed in an indoor environment and it is proved by analyzing several experiments and results

이하에서는 도면을 참조하여 본 발명의 실시예들을 구체적으로 설명하도록 한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description and the accompanying drawings, detailed description of well-known functions or constructions that may obscure the subject matter of the present invention will be omitted. It should be noted that the same constituent elements are denoted by the same reference numerals as possible throughout the drawings.

도 1은 본 발명의 일 실시예들이 채택하고 있는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법을 도시한 흐름도로서, 영상 감시 장치가 입력된 영상으로부터 RGB 배경 모델링을 이용하여 하나 이상의 이동 물체의 움직임 영역을 추출하고, 상기 각각의 움직임 영역에 라벨을 부여하여 부여된 라벨에 따라 상기 움직임 영역을 병합하고, 하나 이상의 이동 객체를 식별하며, 상기 식별된 이동 객체를 이용하여 추적 객체의 위치를 탐색함으로써, 상기 탐색된 위치에 기초하여 상기 영상에서 물체를 추적한다.FIG. 1 is a flowchart illustrating a method of tracking multiple moving objects in a video surveillance system adopted by an embodiment of the present invention. Referring to FIG. 1, Extracting a region, labeling each of the movement regions, merging the movement regions according to a given label, identifying one or more moving objects, and searching for the position of the tracking object using the identified moving object , And tracks the object in the image based on the searched position.

보다 구체적으로, S110 단계에서 영상 감시 장치가 입력된 영상으로부터 RGB 배경 모델링을 이용하여 하나 이상의 이동 물체의 움직임 영역을 추출한다. More specifically, in step S110, the motion monitoring unit extracts a motion region of one or more moving objects using the RGB background modeling from the input image.

보다 구체적으로, 컬러 모델을 기반으로 하는 배경 모델링은 입력된 영상의 컬러의 화소 변화를 학습하여 배경을 모델링하는 방법으로 Haritaiglu 등이 제안했다. 이 방법은 입력된 영상에서 배경을 생성하기 위해 각 그레이(Gray) 영상으로부터 화소의 최대값과 최소값을 추출하고 이들 최대-최소값을 미분한 각 화소의 강도 값을 배경 모델링 파라미터를 선정하는 방법이다. 이 방법은 배경 모델링 이후 매우 빠른 속도로 움직임 물체를 추출할 수 있는 장점이 있다. 그레이 영상과 같은 단일 영상채널에 대한 배경 모델링은 다음과 같이 표현할 수 있다.More specifically, background modeling based on a color model was proposed by Mapiglu et al. As a method of modeling the background by learning the pixel change of the input image color. In this method, the maximum and minimum values of pixels are extracted from each gray image to generate a background in the input image, and a background modeling parameter is selected as the intensity value of each pixel having different maximum-minimum values. This method has the advantage of extracting moving objects at very high speed after background modeling. Background modeling for a single image channel such as a gray image can be expressed as follows.

Figure 112014034428167-pat00001
Figure 112014034428167-pat00001

여기서,

Figure 112014034428167-pat00002
는 z번째 입력 영상의 해당 픽셀 위치
Figure 112014034428167-pat00003
에서의 그레이 값,
Figure 112014034428167-pat00004
Figure 112014034428167-pat00005
는 모든 입력 영상의 해당 픽셀에서의 중간값 및 표준 편차를 나타내며, M, N은 해당 픽셀 위치
Figure 112014034428167-pat00006
의 최대, 최소 값을 D는 이전 영상과 현재 영상 간의 최대 픽셀 변화 값일 수 있다.here,
Figure 112014034428167-pat00002
Is the pixel position of the z-th input image
Figure 112014034428167-pat00003
The gray value at < RTI ID =
Figure 112014034428167-pat00004
Wow
Figure 112014034428167-pat00005
Represents the median value and standard deviation of the corresponding pixel of all the input images, M and N denote the corresponding pixel positions
Figure 112014034428167-pat00006
And D may be a maximum pixel change value between the previous image and the current image.

그러나 상기 그레이 영상을 이용한 배경 모델은 움직임 영역 추출 시 그림자 등과 같은 잡음에 민감한 특성이 있게 된다. 특히, 배경이 흰색일 경우 이와 같은 문제점은 더욱 두드러진다. 도 2는 그레이 영상을 이용한 배경 모델을 이용해 움직임 물체를 추출한 결과를 보여 주는 것으로, 도 2에서 좌측 하단의 그림(23)을 살펴보면 추출된 움직임 영역 이외에 타원으로 표시한 영역이 추출됨을 알 수 있다. 몇몇 작은 잡음들을 간단하게 없앨 수 있는 여러 방법이 있기 때문에 이러한 잡음이 문제가 되지 않을 수도 있지만, 이러한 잡음이 계속해서 반복적으로 발생하고 영역의 크기가 커지면 영상 속에 의미 있는 이동 객체로 인식해 추적이나 식별이 어려워진다. Kim 등은 이러한 문제를 해결하기 위해 RGB 컬러 모델을 이용해 이동 영역을 추출하는 방법을 제안했으며, 도 2에서 우측 하단의 그림(24)과 같이 좌측 하단의 그림(23)에서 점선 타원에 존재하는 이동 영역 이외의 잡음을 효과적으로 제거하였다. 이에, 본 발명의 실시예에서는 RGB 배경 모델링 방법을 사용해 이동 영역을 추출한다.However, the background model using the gray image is sensitive to noise such as shadows when extracting a motion region. Especially, when the background is white, such a problem becomes more conspicuous. FIG. 2 shows a result of extracting a moving object using a background image using a gray image. Referring to FIG. 2, in the lower left corner of FIG. 2, an area denoted by an ellipse is extracted in addition to the extracted motion area. This noise may not be a problem because there are several ways to simply remove some small noises. However, if such noise continues to occur repeatedly and the size of the area becomes large, it is recognized as a meaningful moving object in the image, Becomes difficult. In order to solve this problem, Kim et al. Proposed a method of extracting a moving area by using an RGB color model. In Fig. 2, a left side (23) Effectively removing noise other than the area. Accordingly, in the embodiment of the present invention, the moving area is extracted using the RGB background modeling method.

S120 단계에서, 상기 영상 감시 장치가 상기 각각의 움직임 영역에 라벨을 부여하여 부여된 라벨에 따라 상기 움직임 영역을 병합함으로써, 하나 이상의 이동 객체를 식별한다. 다시 말해, 상기 추출된 하나 이상의 움직임 영역에 라벨을 각각 부여하고, 상기 부여된 라벨 중에서 근접한 라벨을 포함하는 움직임 영역들끼리 그룹화하여 하나 이상의 움직임 영역 그룹을 생성하며, 상기 하나 이상의 움직임 영역 그룹을 라벨 병합 기법을 이용하여 하나 이상의 이동 객체를 식별할 수 있다.In step S120, the video surveillance apparatus identifies one or more moving objects by labeling the respective moving areas and merging the moving areas according to the provided labels. In other words, labels are assigned to the extracted one or more motion areas, and one or more motion area groups are generated by grouping the motion areas including adjacent labels among the assigned labels, One or more moving objects may be identified using a merge technique.

보다 구체적으로, S110 단계에서 추출된 이동 영역을 의미 있는 객체로 인식하기 위해서는 각 영역(Blobs)들에 라벨을 부여해야 한다. 영역에 라벨을 부여하는 대표적인 방법으로 라벨링(Labeling) 기법이 있다. 여기서, 라벨링 기법은 영역들에 라벨을 부여하는 대표적인 연결된 구성 요소 기법으로 소정의 크기를 넘지 못하는 라벨(잡음 또는 이동 영역)은 버림으로써, 의미 없는 영역을 삭제할 수도 있다. 여기서 상기 소정의 크기는 사용자가 상황에 따라 임의 설정 가능할 수 있다.More specifically, in order to recognize the moving area extracted in step S110 as a meaningful object, a label should be given to each of the blobs. Labeling is a typical method of labeling a region. Here, the labeling technique may delete a meaningless area by discarding a label (noise or moving area) that does not exceed a predetermined size by a typical connected component technique of labeling the areas. Here, the predetermined size may be arbitrarily set by the user depending on the situation.

도 3은 본 발명의 일 실시예에 따른 이동 영역의 라벨링 결과를 도시한 도면으로서, 좌측 상단의 그림(31) 및 우측 상단의 그림(32)은 입력한 이동 영역의 영상이고, 좌측 하단의 그림(33) 및 우측 하단의 그림(34)은 라벨이 부여된 결과일 수 있다. 여기서, 좌측 하단의 그림(33)에서 입력된 이동 영역이 4개(적색 사각형)로 식별되었으며, 우측 하단의 그림(34)에서 3개로 식별됨을 알 수 있다.FIG. 3 is a diagram showing a labeling result of a moving area according to an embodiment of the present invention. In FIG. 31, the upper left image 31 and the upper right image 32 are images of the input moving area, (33) and the lower right picture (34) may be labeled results. Here, it can be seen that the moving region inputted in the lower left figure 33 is identified as 4 (red square), and in the right lower figure 34, it is identified as 3.

도 3의 라벨링 결과에서는 이동 객체를 추적하기 위한 중요한 문제점이 존재할 수 있다. 즉, 두 개 혹은 여러 개로 나타내어진 이동 객체의 문제로 어떤 이동 영역을 대표적인 영역으로 선택해야 하는가의 문제이다. 본 발명의 실시예에서는 이러한 문제점을 해결하기 위해 두 개 이상의 영역 조합으로 이루어진 이동 객체를 하나의 이동의 객체로 생성하는 라벨 병합(LM: Label-merge) 방법을 제안한다.In the labeling result of FIG. 3, there may be an important problem for tracking a moving object. In other words, it is a matter of how to select a moving area as a representative area because of the problem of moving objects represented by two or more. In an embodiment of the present invention, a label merging (LM) method is proposed in which a moving object composed of a combination of two or more regions is created as one moving object to solve this problem.

보다 구체적으로, 식별된 m개의 이동 영역의 라벨링 결과를

Figure 112014034428167-pat00007
라 하고, 각
Figure 112014034428167-pat00008
의 외곽선을
Figure 112014034428167-pat00009
라 하면, 병합된 라벨 결과
Figure 112014034428167-pat00010
다음과 같은 병합 과정으로 표현할 수 있다.More specifically, the labeling results of the identified m moving regions are
Figure 112014034428167-pat00007
Respectively,
Figure 112014034428167-pat00008
Outline of
Figure 112014034428167-pat00009
, The merged label result
Figure 112014034428167-pat00010
It can be represented by the following merging process.

Figure 112014034428167-pat00011
Figure 112014034428167-pat00011

여기서,

Figure 112014034428167-pat00012
으로
Figure 112014034428167-pat00013
은 추출된 이동 객체 번호, k는 새로운 라벨 번호,
Figure 112014034428167-pat00014
는 a,b 위치 간의 유클리디언(Euclidean) 거리,
Figure 112014034428167-pat00015
는 사용자 정의 병합 거리(픽셀 단위)일 수 있다.here,
Figure 112014034428167-pat00012
to
Figure 112014034428167-pat00013
Is the extracted moving object number, k is the new label number,
Figure 112014034428167-pat00014
Is the Euclidean distance between a and b positions,
Figure 112014034428167-pat00015
May be a user-defined merge distance (in pixels).

먼저, 이동 객체의 외곽선 추출은 라벨링 과정에서 획득한 라벨 영상의 제일 외곽에 위치하는 모든 픽셀들의 집합

Figure 112014034428167-pat00016
으로 표현되며, 추출된 외곽선은 도 4와 같을 수 있다. 다음, 각 라벨의 모든 외곽선들의 위치를 비교하여 사용자가 정의한 거리
Figure 112014034428167-pat00017
보다 작은 거리를 갖는 라벨은 새로운 라벨
Figure 112014034428167-pat00018
로 정의하여 과정을 완료한다. 그러면, 작성된 새로운 라벨은 병합된 라벨의 모든 외곽선을 포함하며, 도 5에서와 같이 병합된 하나의 라벨을 포함할 수 있다.First, the contour extraction of the moving object is performed by extracting a set of all pixels located at the outermost side of the label image acquired in the labeling process
Figure 112014034428167-pat00016
And the extracted outline may be as shown in FIG. Next, the positions of all outlines of each label are compared and the user defined distance
Figure 112014034428167-pat00017
Labels with smaller distances will have a new label
Figure 112014034428167-pat00018
And the process is completed. Then, the new label created includes all the outlines of the merged label, and may include one label merged as in FIG.

또한, 상기 하나 이상의 이동 객체에서 회전된 최소 사각형 영역을 포함하는 회전된 근접 타원을 생성하며, 상기 회전된 근접 타원을 재추출함으로써, 상기 이동 객체의 영역 선택 시 손실을 최소화할 수 있다.In addition, a rotated melee ellipse including the rotated minimum square area is generated from the one or more moving objects, and the loss in area selection of the moving object can be minimized by re-extracting the rotated neighboring ellipses.

보다 구체적으로, 도 1의 S130 단계에서 언급할 캠시프트(CAMshift)와 칼만 필터(Kalman filter)를 이용한 이동 객체 추적 방법은 추출된 이동 객체의 영역을 상기 캠시프트의 탐색 윈도우로 설정하는 과정을 갖는다. 따라서, 이동 객체의 손실을 최소화할 수 있는 영역을 선택할 수 있어야 한다. 도 1에서 병합된 라벨 1(53) 및 병합된 라벨 2(54) 가 보여주는 사각형 영역을 살펴보면, 병합된 라벨 2(54)의 선택된 영역은 비교적 이동 객체의 영역이 잘 선택되었지만, 병합된 라벨 1(53)의 경우 이동 객체 영역이 사람의 상반부까지만 선택된 것을 알 수 있다. 이유는, 배경 색상과 유사하거나 장애물에 의해 이동 객체가 가려졌기 때문이다.More specifically, a moving object tracking method using a camshift (CAMshift) and a Kalman filter (to be referred to in step S130 of FIG. 1) has a step of setting an area of the extracted moving object as a search window of the camshift . Therefore, it is necessary to select an area that can minimize the loss of the moving object. Looking at the rectangular area shown by merged label 1 53 and merged label 2 54 in FIG. 1, the selected area of merged label 2 54 is relatively well selected for the area of the moving object, but the merged label 1 (53), it can be seen that the moving object region is selected only up to the upper half of the person. This is because the moving object is obscured by obstacles or similar to the background color.

따라서, 본 발명의 실시예에서는 이러한 이동 객체의 영역 선택 시 손실을 최소화하기 위해 근접 타원(Fitellipse) 방법을 적용할 수 있다. 상기 근접 타원 방법은 이동 객체가 갖는 회전된 최소 사각형 영역을 포함하는 회전된 근접 타원을 생성하고, 이 근접 타원을 포함하는 사각형 영역을 재추출하는 방법이다. 여기서, 추출된 근접 타원을 포함하는 사각형 영역을 LM의 영역으로 선정하며 다음과 같이 표현할 수 있다.Therefore, in the embodiment of the present invention, a proximity ellipse (Fitellipse) method can be applied to minimize the loss when selecting the area of the moving object. The proximity ellipse method is a method of generating a rotated neighboring ellipse including a rotated minimum square area of a moving object and re-extracting a rectangular area including the neighboring ellipse. Here, a rectangular area including the extracted adjacent ellipses is selected as an area of the LM, and can be expressed as follows.

Figure 112014034428167-pat00019
Figure 112014034428167-pat00019

여기서,

Figure 112014034428167-pat00020
는 선택된
Figure 112014034428167-pat00021
의 사각형 영역,
Figure 112014034428167-pat00022
는 근접 타원 추출 함수,
Figure 112014034428167-pat00023
Figure 112014034428167-pat00024
의 외곽선일 수 있다. 도 6은 수학식 3을 통해 계산된 회전 사각형 및 근접 타원과 근접 타원을 포함하는 사각형 영역일 수 있다.here,
Figure 112014034428167-pat00020
Is selected
Figure 112014034428167-pat00021
A rectangular area of <
Figure 112014034428167-pat00022
A proximity ellipse extraction function,
Figure 112014034428167-pat00023
The
Figure 112014034428167-pat00024
As shown in FIG. 6 may be a rotated rectangle calculated by Equation (3) and a rectangular region including a proximity ellipse and a proximity ellipse.

이제 다시 도 1로 돌아가 S120 단계 이후를 설명하도록 한다.Returning now to FIG. 1, step S120 and subsequent steps will be described.

S130 단계에서, 상기 영상 감시 장치가 상기 식별된 이동 객체를 이용하여 추적 객체의 위치를 탐색하며, 상기 탐색된 위치에 기초하여 상기 영상에서 물체를 추적한다. 다시 말해, 상기 식별된 이동 객체의 개수와 추적 객체의 개수에 따라 캠시프트(CAMshift) 알고리즘을 수행하여 상기 추적하고자 하는 객체의 위치를 탐색하며, 상기 탐색된 추적 객체의 위치에 칼만 필터(Kalman filter)를 이용하여 상기 영상에서 물체를 추적할 수 있다. 또한, 상기 추적하고자 하는 객체의 개수가 상기 식별된 이동 객체의 개수보다 많을 경우, 상기 칼만 필터를 이용하여 추적 객체의 위치가 영상의 경계 영역에 존재하면 해당 추적 객체를 삭제하며, 상기 추적 객체의 위치가 영상의 내부에 존재하면 해당 추적 객체의 위치를 추정하여 탐색 윈도우를 갱신할 수 있다. 또한, 상기 식별된 이동 객체의 개수가 상기 추적하고자 하는 객체의 개수보다 많을 경우, 상기 물체 추적에 이용되는 않은 이동 객체를 상기 추적 객체로 등록할 수 있다.In step S130, the video surveillance apparatus searches for the location of the tracking object using the identified moving object, and tracks the object on the basis of the searched location. In other words, a CAMshift algorithm is performed according to the number of the identified moving objects and the number of tracking objects to search for the location of the object to be tracked, and a Kalman filter ) Can be used to track an object in the image. If the number of the objects to be tracked is greater than the number of the identified moving objects, the tracking object is deleted if the position of the tracking object exists in the boundary region of the image using the Kalman filter. If the location exists inside the image, the location of the tracking object can be estimated to update the search window. Also, when the number of the identified moving objects is greater than the number of the objects to be tracked, a moving object that is not used for tracking the object may be registered as the tracking object.

보다 구체적으로, 객체 추적에 많이 사용되는 캠시프트 알고리즘은 다음과 같은 몇 가지 문제점을 안고 있다. 초기 탐색 윈도우의 크기 및 위치를 선정한 뒤 자동으로 탐색 윈도우를 변경하지 못해 사용자가 직접 탐색 윈도우를 설정해 주어야 정확한 추적 성능을 얻을 수 있다. 또한, 속도가 빠른 대상 물체의 경우 탐색 윈도우를 벗어나게 되고 CAMshift는 대상 물체의 위치로 탐색 윈도우를 수렴시키지 못하는 문제점이 있다. 이와 같은 문제점들을 해결하기 위해 기존의 연구에서는 배경과 객체의 분리를 통해 대상을 검출함으로써, 탐색 윈도우의 위치 및 크기를 지정하거나, 칼만 필터와 같은 물체 추적 알고리즘을 적용해 예측 모델을 생성하여 추적 성능을 향상시키기 위한 연구 등이 지속적으로 진행되고 있다.More specifically, the camshift algorithm, which is often used for object tracking, has several problems as follows. Since the size of the initial search window and the position of the initial search window can not be changed automatically, the user can directly set the search window so that accurate tracking performance can be obtained. In addition, in the case of a high-speed object, the object moves out of the search window, and CAMshift can not converge the search window to the position of the object. In order to solve these problems, in the conventional research, by detecting the object by separating the background and object, the position and size of the search window are designated, or the object tracking algorithm such as the Kalman filter is applied to generate the prediction model, And the like are continuously being carried out.

따라서, 본 발명의 실시예에서는 불규칙한 이동 객체의 추적과 변화하는 이동 객체의 탐색 윈도우 변경 문제를 해결하기 위해, 앞서 추출한 이동 객체의 근접 타원을 이용한 객체의 영역을 탐색 윈도우로 설정한 다음, 캠시프트를 이용해 찾은 대상의 위치를 칼만 필터를 사용해 추적하는 방법을 제안한다.Therefore, in order to solve the problem of tracking the irregular moving object and changing the search window of the moving object, the area of the object using the proximity ellipse of the extracted moving object is set as the search window, We propose a method to track the position of a found object using a Kalman filter.

도 7은 본 발명의 일 실시예에 따른 이동 객체와 캠시프트를 이용한 객체 추적 방법을 도시한 흐름도로서, 도 7을 통해 도 1의 S130 단계를 보다 구체적으로 설명하도록 한다.FIG. 7 is a flowchart illustrating an object tracking method using a moving object and a camshift according to an embodiment of the present invention. Referring to FIG. 7, step S130 in FIG. 1 will be described in more detail.

보다 구체적으로, 본 발명에서 제안하는 추적 방법은 영상에 진입하는 이동 객체의 수와 추적중인 이동 객체의 수에 따라 객체 추적(71), 객체 삭제(72), 객체 등록(73) 단계를 갖고 칼만 필터를 이용한 추적 과정(74)을 수행할 수 있다. 도 7의 흐름도를 설명하기에 앞서 도 7에서 사용하는 기호들의 의미하는 바를 설명하도록 한다.

Figure 112014034428167-pat00025
는 입력 영상,
Figure 112014034428167-pat00026
는 추적 객체,
Figure 112014034428167-pat00027
은 이동 객체,
Figure 112014034428167-pat00028
는 추적 객체 수,
Figure 112014034428167-pat00029
는 이동 객체 수,
Figure 112014034428167-pat00030
캠시프트 알고리즘,
Figure 112014034428167-pat00031
는 캠시프트 알고리즘이 탐색한 추적 객체의 위치,
Figure 112014034428167-pat00032
는 추적 객체의 위치,
Figure 112014034428167-pat00033
는 유클리디언 거리,
Figure 112014034428167-pat00034
는 입력 영상 V의 크기(너비와 높이),
Figure 112014034428167-pat00035
는 추적 객체의 메모리 할당,
Figure 112014034428167-pat00036
는 메모리 해제를 의미할 수 있다.More specifically, the tracking method proposed in the present invention has an object tracking 71, an object deletion 72, and an object registration 73 according to the number of moving objects entering a video and the number of moving objects being tracked, A tracking process 74 using a filter can be performed. Before describing the flowchart of FIG. 7, the meaning of the symbols used in FIG. 7 will be described.
Figure 112014034428167-pat00025
The input image,
Figure 112014034428167-pat00026
A tracking object,
Figure 112014034428167-pat00027
A moving object,
Figure 112014034428167-pat00028
The number of trace objects,
Figure 112014034428167-pat00029
The number of moving objects,
Figure 112014034428167-pat00030
Camshift algorithm,
Figure 112014034428167-pat00031
The position of the tracking object searched by the camshift algorithm,
Figure 112014034428167-pat00032
The location of the tracking object,
Figure 112014034428167-pat00033
Euclidian Street,
Figure 112014034428167-pat00034
(Width and height) of the input image V,
Figure 112014034428167-pat00035
The memory allocation of the tracking object,
Figure 112014034428167-pat00036
May mean memory release.

따라서, 도 7에서 객체 추적 단계(Object track)(71)는 이동 객체 수와 추적 객체 수가 같을 때 추적 객체를 캠시프트 알고리즘을 이용해 입력된 영상에서 탐색하고, 캠시프트가 탐색한 추적 객체의 위치를 칼만 필터를 이용해 추적할 수 있다.7, when the number of moving objects and the number of tracking objects are equal, the object track 71 searches for the tracking object in the input image using the camshift algorithm, and the position of the tracking object It can be tracked using a Kalman filter.

또한, 객체 삭제 단계(Object delete)(72)는 추적 객체 수가 이동 객체 수보다 많을 때 추적 객체가 보이지 않거나 영상 밖으로 나간 경우이다. 객체 추적 단계와 동일한 추적 과정을 수행한 뒤 추적 객체가 영상의 경계 영역에 존재하면 해당 추적 객체 삭제하고 내부에 존재할 때 위치를 추정하고 탐색 윈도우를 갱신할 수 있다.In addition, the object deletion step (Object delete) 72 is a case in which the tracking object is not visible or out of the image when the number of tracking objects is larger than the number of moving objects. If the tracking object exists in the boundary of the image after performing the same tracking process as the object tracking step, it can delete the corresponding tracking object, estimate the position when it exists inside, and update the search window.

또한, 객체 등록 단계(Object registration)(73)는 추적 객체 수보다 이동 객체 수가 많을 때 이동 영역에 새로운 객체가 진입한 상태로, 객체 추적 단계와 동일한 추적 과정을 수행한 뒤 선정되지 못한 이동 객체를 추적 객체로 등록할 수 있다.When the number of moving objects is greater than the number of tracking objects, the object registration step (73) performs a tracking process identical to that of the object tracking step in a state where a new object enters the moving area. You can register it as a trace object.

여기서, 캠시프트를 이용하여 영상에서 이동 객체의 위치를 탐색한 뒤, 칼만 필터를 이용해 추적하는 과정은 다음과 같을 수 있다. 먼저, 영상 내에서 이동하는 객체의 픽셀 위치

Figure 112014034428167-pat00037
와 속도
Figure 112014034428167-pat00038
를 상태 변수로 나타내며 다음과 같이 표현할 수 있다.Here, the process of searching for the position of the moving object in the image using the camshift and tracking it using the Kalman filter may be as follows. First, the pixel position of the moving object in the image
Figure 112014034428167-pat00037
And speed
Figure 112014034428167-pat00038
Is expressed as a state variable and can be expressed as follows.

Figure 112014034428167-pat00039
Figure 112014034428167-pat00039

여기서,

Figure 112014034428167-pat00040
는 추적 객체의 위치로
Figure 112014034428167-pat00041
일 수 있다.here,
Figure 112014034428167-pat00040
Is the location of the tracking object.
Figure 112014034428167-pat00041
Lt; / RTI >

시간 k에서의 상태를 (k-1) 시간에서의 상태 변수를 이용해 나타내면, 이하에서 수학식 5와 같이 전이 행렬 A, 제어 입력

Figure 112014034428167-pat00042
, 제어 입력과 상태 변화와의 관계를 나타내는 행렬 B, 프로세서 잡음
Figure 112014034428167-pat00043
로 나타내며 다음과 같이 표현할 수 있다.If the state at time k is represented by the state variable at time (k-1), then the transition matrix A, the control input
Figure 112014034428167-pat00042
A matrix B representing the relationship between the control input and the state change, a processor noise
Figure 112014034428167-pat00043
And can be expressed as follows.

Figure 112014034428167-pat00044
Figure 112014034428167-pat00044

측정값은 캠시프트가 탐지한 추적 객체의 탐색된 위치이며 이하에서 수학식 6과 같이 상태 변수 X와 측정 잡음 v로 나타낼 수 있다.The measured value is the detected position of the tracking object detected by the camshift and can be represented by the state variable X and the measurement noise v as shown in Equation (6) below.

Figure 112014034428167-pat00045
Figure 112014034428167-pat00045

여기서,

Figure 112014034428167-pat00046
로 탐지된 객체의 위치만을 가지며,
Figure 112014034428167-pat00047
는 측정오차로 가우시안 분포
Figure 112014034428167-pat00048
를 따른다고 가정한다.
Figure 112014034428167-pat00049
크기를 갖는 공분한 행렬이다. 이때, 영상 내에서 탐지된 객체의 속도는 알 수 없다. 따라서, 행렬
Figure 112014034428167-pat00051
는 이하에서 수학식 7과 같은 형태가 되고, 수학식 5 및 수학식 6을 통해 칼만 필터의 처리 과정을 수행할 수 있다.here,
Figure 112014034428167-pat00046
Only the position of the detected object is detected,
Figure 112014034428167-pat00047
Gaussian distribution with measurement error
Figure 112014034428167-pat00048
. ≪ / RTI >
Figure 112014034428167-pat00049
The It is a coarse matrix with dimensions. At this time, the speed of the detected object in the image is unknown. Therefore,
Figure 112014034428167-pat00051
Can be expressed as Equation (7) below, and the processing of the Kalman filter can be performed through Equations (5) and (6).

Figure 112014034428167-pat00052
Figure 112014034428167-pat00052

도 8은 본 발명의 일 실시예들이 채택하고 있는 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치를 도시한 블록도로서, 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치(80)는 앞서 기술한 도 1의 각 과정에 대응하는 구성을 포함한다. 따라서, 여기서는 설명의 중복을 피하기 위해 시스템의 세부구성을 중심으로 그 기능을 약술하도록 한다.FIG. 8 is a block diagram illustrating an apparatus for tracking multiple moving objects in a video surveillance system adopted by an embodiment of the present invention. In an apparatus 80 for tracking multiple moving objects in a video surveillance system, 1, respectively. Therefore, in order to avoid duplication of explanation, the function is outlined mainly in the detailed configuration of the system.

추출부(81)는 입력된 영상으로부터 RGB 배경 모델링을 이용하여 하나 이상의 이동 물체의 움직임 영역을 추출한다.The extracting unit 81 extracts a moving region of one or more moving objects from the input image using RGB background modeling.

식별부(82)는 상기 각각의 움직임 영역에 라벨을 부여하여 부여된 라벨에 따라 상기 움직임 영역을 병합함으로써, 하나 이상의 이동 객체를 식별한다.The identifying unit 82 identifies one or more moving objects by labeling the respective moving areas and merging the moving areas according to the given label.

추적부(83)는 상기 식별된 이동 객체를 이용하여 추적 객체의 위치를 탐색하며, 상기 탐색된 위치에 기초하여 상기 영상에서 물체를 추적한다.The tracking unit 83 searches for the position of the tracking object using the identified moving object and tracks the object in the image based on the detected position.

또한, 추적부(83)는 상기 식별된 이동 객체의 개수와 추적 객체의 개수에 따라 캠시프트 알고리즘을 수행하여 상기 추적하고자 하는 객체의 위치를 탐색하고, 상기 탐색된 추적 객체의 위치에 칼만 필터를 이용하여 상기 영상에서 물체를 추적할 수 있다.The tracking unit 83 searches for the position of the object to be tracked by performing a camshift algorithm according to the number of the identified moving objects and the number of tracking objects, So that an object can be tracked in the image.

또한, 추적부(83)는 상기 추적하고자 하는 객체의 개수가 상기 식별된 이동 객체의 개수보다 많을 경우, 상기 칼만 필터를 이용하여 추적 객체의 위치가 영상의 경계 영역에 존재하면 해당 추적 객체를 삭제하며, 상기 추적 객체의 위치가 영상의 내부에 존재하면 해당 추적 객체의 위치를 추정하여 탐색 윈도우를 갱신할 수 있다.If the number of the objects to be tracked is greater than the number of the identified moving objects, the tracking unit 83 deletes the corresponding tracking object if the position of the tracking object exists in the boundary region of the image using the Kalman filter. And if the position of the tracking object exists in the image, the position of the tracking object can be estimated to update the search window.

또한, 추적부(83)는 상기 식별된 이동 객체의 개수가 상기 추적하고자 하는 객체의 개수보다 많을 경우, 상기 물체 추적에 이용되는 않은 이동 객체를 상기 추적 객체로 등록하는 단계를 더 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적할 수 있다.If the number of the identified moving objects is greater than the number of the objects to be tracked, the tracking unit 83 may register the moving object that is not used for tracking the object as the tracking object. Multiple moving objects can be tracked in the system.

또한, 식별부(83)는 상기 추출된 하나 이상의 움직임 영역에 라벨을 각각 부여하고, 상기 부여된 라벨 중에서 근접한 라벨을 포함하는 움직임 영역들끼리 그룹화하여 하나 이상의 움직임 영역 그룹을 생성하며, 상기 하나 이상의 움직임 영역 그룹을 라벨 병합 기법을 이용하여 하나 이상의 이동 객체를 식별하되, 상기 라벨이 부여된 움직임 영역 중 소정의 크기를 넘지 못하는 라벨은 버림으로써, 의미 없는 영역을 삭제하는 단계를 더 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치.In addition, the identification unit 83 assigns labels to the extracted one or more motion areas, and generates one or more motion area groups by grouping the motion areas including adjacent labels among the assigned labels, Further comprising the step of identifying one or more moving objects using a label merging technique for a moving area group, and deleting a label that does not exceed a predetermined size of the labeled moving area, An apparatus for tracking multiple moving objects in a system.

또한, 상기 하나 이상의 이동 객체에서 회전된 최소 사각형 영역을 포함하는 회전된 근접 타원을 생성하며, 상기 회전된 근접 타원을 재 추출함으로써, 상기 이동 객체의 영역 선택 시 손실을 최소화할 수 있다.In addition, a rotated melee ellipse including the rotated minimum square area is generated from the one or more moving objects, and the loss in area selection of the moving object can be minimized by re-extracting the rotated neighboring ellipses.

한편, 도 1의 영사에서 다중 이동 물체를 추적하는 방법을 도시한 흐름도는 이하에서 도 9의 블록도로서 표현할 수 있다.On the other hand, a flowchart showing a method of tracking multiple moving objects in the projection of FIG. 1 can be expressed as a block diagram of FIG. 9 below.

도 9는 본 발명의 일 실시예에 따른 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법을 도시한 블록도로서, 도 9의 블록도는 앞서 기술한 도 1의 각 과정에 대응하는 구성을 포함하는바, 도 9의 상세한 설명은 도 1의 상세한 설명으로 대신하며, 여기서는 각 블록에 대하여 간략하게 설명하도록 한다.FIG. 9 is a block diagram illustrating a method of tracking multiple moving objects in a video surveillance system according to an embodiment of the present invention. The block diagram of FIG. 9 includes a configuration corresponding to each process of FIG. 1 described above The detailed description of FIG. 9 and FIG. 9 will be replaced with the detailed description of FIG. 1, and each block will be briefly described here.

도 9는 감시 공간에 설치된 카메라로부터 영상을 입력받아 이동 영역을 추출(MO-E: Moving Object-Extraction)(91)하고, 객체로 식별(MO-I: Moving Object-Identification)(92)한 뒤, 추적(MO-T: Moving Object-Tracking)(93)하는 3단계로 구성될 수 있다. 여기서, 각 단계별 처리 내용 및 목표는 다음과 같을 수 있다. MO-E(91)는 RGB 배경 모델링(Backgroud modeling) 방법을 이용해 배경을 생성하고, 감시 공간에 진입한 이동 영역(Moving region)을 추출할 수 있다. 또한, MO-I(92)는 추출된 이동 영역에 라벨링(Labeling) 기법을 이용해 번호를 부여한 다음, 근접한 번호를 병합하는 라벨 병합 방법을 이용해 각 이동 객체(Moving object)를 식별할 수 있다. 또한, MO-T(93)는 식별된 이동 객체 또는 추적중인 이동 객체(Track object)의 영상을 캠시프트 알고리즘을 이용해 현재의 영상에서 추적 객체의 위치를 탐색하고 칼만 필터를 이용해 위치를 추적할 수 있다.9 shows an example of a moving object extraction (MO-E) 91 that receives an image from a camera installed in a monitoring space, identifies the object as an object (MO-I: Moving Object-Identification) And Moving Object-Tracking (MO-T) 93, as shown in FIG. Here, the processing contents and goals for each step may be as follows. The MO-E 91 generates a background using an RGB background modeling method and extracts a moving region that has entered the monitoring space. In addition, the MO-I 92 can identify each moving object by assigning a number to the extracted moving area using a labeling technique, and then using a label merging method of merging adjacent numbers. In addition, the MO-T 93 can search the position of the tracked object in the current image using the camshift algorithm and track the position of the identified moving object or the tracked object (Track object) using the Kalman filter have.

이하에서는 도 10a 내지 도 10d를 통해 실험에 따른 종래 기술과 본 발명이 제안하는 기술의 차이점을 설명하도록 한다.Hereinafter, differences between the prior art and the present invention will be described with reference to FIGS. 10A to 10D.

본 발명이 제안한 방법의 실험을 위하여 앞서 제시한 도 9와 같은 시스템을 구축하였다. 상기 구축된 시스템은 IP 카메라(삼성테크원, SNP-1000A) 1개에서 640*480의 RGB 컬러 영상을 획득하고, 영상 처리용 데스크탑 PC(CPU: i7, 8GB RAM, SSD 128GB)에 C++, OpenCV를 이용해 구현하였다.For the experiment of the method proposed by the present invention, a system as shown in FIG. The above system obtained RGB color image of 640 * 480 from one IP camera (Samsung Techwon, SNP-1000A) and installed C / C ++ on a desktop PC (CPU: i7, 8GB RAM, SSD 128GB) , And OpenCV.

도 10a는 본 발명의 일 실시예에 따른 이동 객체의 식별 및 추적 실험 결과를 도시한 도면으로서, 감시중인 공간에 진입한 이동 객체와 추적 실험 결과를 보여주며, 좌측에 위치한 영상들은 추출된 이동 객체의 식별된 근접 타원 결과를 우측 영상에 캠시프트와 칼만 필터를 이용해 추적한 결과를 나타내었다.FIG. 10A is a diagram illustrating a result of tracking and experimenting a moving object according to an exemplary embodiment of the present invention. FIG. 10A shows a result of a tracking experiment with a moving object entering a monitored space, The results of tracking the identified ellipse results by using the camshift and the Kalman filter on the right image.

실험 결과를 살펴보면, 그림 (a)(101), 그림 (b)(102), 및 그림 (c)(103)은 이동 객체가 진입함에 따라 각 이동 객체에 추적 번호를 부여하고 있으며, 그림 (d)(104) 및 그림 (e)(105)는 이동 객체가 서로 겹쳐 있을 때에도 이동 객체의 추적을 성공적으로 수행함을 알 수 있다. 도 10a의 실험 결과에 따른 세부 비교 데이터를 도 10b 내지 도 10d를 통해 나타내었다.In the experimental results, the tracking numbers are given to each moving object as the moving object enters the picture (a) (101), the picture (b) (102), and the picture (c) (104) and (e) (105) show that the tracking of the moving object is successfully performed even when the moving objects overlap each other. Detailed comparison data according to the experimental result of FIG. 10A is shown in FIGS. 10B to 10D.

도 10b는 본 발명의 일 실시예에 따른 식별된 객체 수를 그래프로 도시한 도면이다.10B is a graphical representation of the number of identified objects in accordance with an embodiment of the present invention.

보다 구체적으로, 추출된 이동 영역에서 라벨링 기법(Labeling method objects)을 이용해 식별한 객체 수와 본 발명이 제안한 라벨 병합 방법(Label-merge method objects)을 이용해 식별한 객체 수를 비교한 것으로, 라벨링 기법에 의해 식별된 이동 객체는 감시 공간에 추적 객체(Tracking objects)가 증가함에 따라 최대 31개(추적 객체 3일 때)까지 증가하지만, 본 발명에서 제안한 라벨 병합 방법을 통해 식별 객체 수를 효과적으로 감소시키고 있음을 알 수 있다.More specifically, the number of objects identified using labeling method objects in the extracted moving area is compared with the number of objects identified using label-merge method objects proposed by the present invention. The number of ID objects is effectively reduced through the label merging method proposed in the present invention. However, the number of ID objects can be effectively reduced by using the label merging method proposed in the present invention .

도 10c는 본 발명의 일 실시예에 따른 객체 추적 오차 결과를 그래프로 도시한 도면이다.FIG. 10C is a graph illustrating an object tracking error result according to an exemplary embodiment of the present invention. Referring to FIG.

보다 구체적으로, 추적 중인 이동 객체들의 영상 내에서의 실제 위치를 실측한 위치(GT: Ground truth)와 캠시프트(CAMshift) 탐색 위치 및 칼만 필터를 적용해 추적한 위치(탐지된 프레임부터 추적 종료까지) 오차를 나타낸 것이다. 도 10c의 추적 오차에 대해 추적이 시작된 프레임부터 추적 종료 시까지의 추적 오차를 누적한 결과는 이하의 표 1과 같다.More specifically, the position (GT), the camshift search position, and the position traced by applying the Kalman filter (the detected position of the moving objects in the image to the end of the tracking Respectively. The results of accumulating the tracking errors from the frame at which the tracking was started to the end of the tracking with respect to the tracking error of FIG. 10C are shown in Table 1 below.

Figure 112014034428167-pat00053
Figure 112014034428167-pat00053

표 1의 결과를 살펴보면, 본 발명이 제안한 캠시프트와 칼만 필터를 이용한 추적 방법이 종래기술인 캠시프트만을 이용한 추적보다 조금 더 작은 오차를 가졌으며 ID-0~2까지 각각 3.69%, 4.74%, 1.67%으로 오차가 작아졌음을 확인할 수 있다.Table 1 shows that the tracking method using the camshift and the Kalman filter proposed by the present invention had a smaller error than the tracking using only the camshift according to the prior art and showed 3.69%, 4.74%, and 1.67 %, It can be confirmed that the error is small.

도 10d는 본 발명의 일 실시예에 따른 소요시간 결과를 그래프로 도시한 도면으로서, 본 발명에서 제안한 방법의 처리 시간을 나타낸 것이다.FIG. 10D is a graph showing a time required result according to an embodiment of the present invention, illustrating the processing time of the method proposed by the present invention.

보다 구체적으로, 초기 배경 모델링 과정은 10개의 영상을 약 150msec(66frame/sec)에 수행했으며, 이동 객체가 진입 후 라벨 병합 방법은 평균 23msec의 처리 속도를 보였다. 캠시프트는 추적 객체가 증가함에 따라 객체당 약 10msec씩 연산 시간이 증가했으며, 칼만 필터는 최대 3개(최대 추적 객체 수 3)로 연산 시간이 약 2msec로 매우 빠른 연산 속도를 보였다. 본 발명이 제안한 방법(Label-Merge+CAMshift+Kalman filter)을 사용한 총 소요 시간은 추적 객체가 없을 때 16msec, 추적 객체의 수가 증가함에 따라 각각 평균 28msec(35frames/sec), 41msec(24frames/sec), 및 51msec(20frames/sec)로 3개의 객체를 실시간으로 추적(15frames/sec 이상)할 수 있음을 확인했으며, 본 발명에서 제안한 방법이 실시간 처리를 갖는 영상 감시 시스템에 적용 가능함을 알 수 있다.More specifically, the initial background modeling process performed 10 images at about 150 msec (66 frames / sec), and the label merging method after moving objects showed an average processing speed of 23 msec. The camshift operation time increased by about 10msec per object as the number of trace objects increased, and the Kalman filter had a maximum operation speed of 3ms (maximum number of trace objects: 3) with a computation time of about 2msec. The total time required using the method proposed by the present invention (Label-Merge + CAMshift + Kalman filter) is 16 msec when there is no tracking object, 35 msec / sec and 41 msec / , And 51 msec (20 frames / sec), and it can be seen that the method proposed by the present invention is applicable to a video surveillance system having real-time processing.

상기된 본 발명에 따르면, 이동 객체를 탐지하는 방법은 배경과 유사한 색상을 갖는 이동 객체를 효과적으로 추출할 수 있는 RGB 배경 모델링 방법을 사용해 움직임 객체의 영역을 추출했다. 이동 객체 식별 방법은 이동 객체 추출 시 여러 개의 분할된 영역 집합들로 표현되는 이동 객체를 하나 또는 다수의 객체로 식별하기 위한 라벨 병합 방법을 제안했다. 마지막으로, 이동 객체 추적 방법은 탐지된 이동 객체 수와 추적 객체 수에 따라 캠시프트 알고리즘의 탐색 윈도우를 선정하는 방법과 캠시프트에 의해 탐색된 위치를 칼만 필터를 이용해 추적하는 방법을 제안했다. 또한, 실험 결과 본 발명에서 제안한 방법은 다수의 영역들로 이루어진 이동 객체들을 효과적으로 병합할 수 있었고, 추적 객체가 서로 겹쳐있는 상황에서도 객체의 위치를 효과적으로 추적했으며, 실시간 처리가 가능해 실제 감시 시스템에 적용 가능함을 확인하였다.According to the present invention, a method of detecting a moving object extracts a region of a moving object by using an RGB background modeling method capable of effectively extracting a moving object having a color similar to a background. The moving object identification method proposed a label merging method for identifying a moving object represented by a plurality of divided area sets as one or a plurality of objects when extracting a moving object. Finally, the moving object tracking method proposed a method of selecting the search window of the camshift algorithm and a method of tracking the position searched by the camshift using the Kalman filter according to the number of detected moving objects and the number of tracked objects. Experimental results show that the method proposed by the present invention can effectively merge moving objects composed of a plurality of regions and effectively track the position of the object even when the tracking objects overlap each other and can be processed in real time .

한편, 본 발명은 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.Meanwhile, the embodiments of the present invention can be embodied as computer readable codes on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device and the like, and also a carrier wave (for example, transmission via the Internet) . In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present invention belongs.

이상에서 본 발명에 대하여 그 다양한 실시예들을 중심으로 살펴보았다. 본 발명에 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described above with reference to various embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

80 : 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치
81 : 추출부
82 : 식별부
83 : 추적부
80: Device for tracking multiple moving objects in a video surveillance system
81:
82:
83:

Claims (14)

영상 감시 장치가 입력된 영상으로부터 RGB 배경 모델링을 이용하여 하나 이상의 이동 물체의 움직임 영역을 추출하는 단계;
상기 영상 감시 장치가 상기 각각의 움직임 영역에 라벨을 부여하여 부여된 라벨에 따라 상기 움직임 영역을 병합함으로써, 하나 이상의 이동 객체를 식별하는 단계; 및
상기 영상 감시 장치가 상기 식별된 이동 객체를 이용하여 추적 객체의 위치를 탐색하며, 상기 탐색된 위치에 기초하여 상기 영상에서 물체를 추적하는 단계를 포함하되,
상기 하나 이상의 이동 객체에서 회전된 최소 사각형 영역을 포함하는 회전된 근접 타원을 생성하며, 상기 회전된 근접 타원을 재추출하는 단계;를 더 포함함으로써, 상기 이동 객체의 영역 선택 시 손실을 최소화하는 것을 특징으로 하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법.
Extracting a moving region of at least one moving object from an image input by the video monitoring apparatus using RGB background modeling;
Identifying the at least one moving object by labeling the respective moving area by the video surveillance device and merging the moving area according to the assigned label; And
Wherein the video surveillance apparatus searches for a position of a tracking object using the identified moving object and tracks an object in the video based on the detected position,
Generating a rotated neighboring ellipse including a rotated minimum square area in the at least one moving object and re-extracting the rotated neighboring ellipse, thereby minimizing loss in area selection of the moving object A method for tracking multiple moving objects in a video surveillance system.
제 1 항에 있어서,
상기 영상에서 물체를 추적하는 단계는,
상기 식별된 이동 객체의 개수와 추적 객체의 개수에 따라 캠시프트(CAMshift) 알고리즘을 수행하여 상기 추적하고자 하는 객체의 위치를 탐색하는 단계; 및
상기 탐색된 추적 객체의 위치에 칼만 필터(Kalman filter)를 이용하여 상기 영상에서 물체를 추적하는 단계를 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법.
The method according to claim 1,
Wherein tracking an object in the image comprises:
Searching for a location of the object to be tracked by performing a CAM SHIFT algorithm according to the number of the identified moving objects and the number of tracking objects; And
And tracking an object in the image using a Kalman filter at a location of the searched tracking object.
제 2 항에 있어서,
상기 영상에서 물체를 추적하는 단계는,
상기 추적하고자 하는 객체의 개수가 상기 식별된 이동 객체의 개수보다 많을 경우, 상기 칼만 필터를 이용하여 추적 객체의 위치가 영상의 경계 영역에 존재하면 해당 추적 객체를 삭제하며, 상기 추적 객체의 위치가 영상의 내부에 존재하면 해당 추적 객체의 위치를 추정하여 탐색 윈도우를 갱신하는 단계를 더 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법.
3. The method of claim 2,
Wherein tracking an object in the image comprises:
Wherein if the number of the objects to be tracked is greater than the number of the identified moving objects, the tracking object is deleted if the position of the tracking object exists in the boundary region of the image using the Kalman filter, And updating the search window by estimating a position of the tracked object if the tracked object exists inside the image.
제 2 항에 있어서,
상기 영상에서 물체를 추적하는 단계는,
상기 식별된 이동 객체의 개수가 상기 추적하고자 하는 객체의 개수보다 많을 경우, 상기 물체 추적에 이용되는 않은 이동 객체를 상기 추적 객체로 등록하는 단계를 더 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법.
3. The method of claim 2,
Wherein tracking an object in the image comprises:
And registering, as the tracking object, a moving object not used for tracking the object, when the number of the identified moving objects is larger than the number of the objects to be tracked. Way.
삭제delete 제 1 항에 있어서,
상기 하나 이상의 이동 객체를 식별하는 단계는,
상기 추출된 하나 이상의 움직임 영역에 라벨을 각각 부여하는 단계;
상기 부여된 라벨 중에서 근접한 라벨을 포함하는 움직임 영역들끼리 그룹화하여 하나 이상의 움직임 영역 그룹을 생성하는 단계; 및
상기 하나 이상의 움직임 영역 그룹을 라벨 병합 기법을 이용하여 하나 이상의 이동 객체를 식별하는 단계를 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법.
The method according to claim 1,
Wherein identifying one or more moving objects comprises:
Assigning labels to the extracted one or more motion regions, respectively;
Grouping motion regions including adjacent labels among the assigned labels to generate at least one motion region group; And
And identifying one or more moving objects using the label merging technique for the one or more motion area groups.
제 6 항에 있어서,
상기 라벨이 부여된 움직임 영역 중 소정의 크기를 넘지 못하는 라벨은 버림으로써, 의미 없는 영역을 삭제하는 단계를 더 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법.
The method according to claim 6,
Further comprising deleting a label that does not exceed a predetermined size of the label-attached movement area, thereby deleting a meaningless area.
제 1 항 내지 제 4 항, 제 6 항 내지 제 7 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium storing a program for causing a computer to execute the method according to any one of claims 1 to 4 and 6 to 7. 입력된 영상으로부터 RGB 배경 모델링을 이용하여 하나 이상의 이동 물체의 움직임 영역을 추출하는 추출부;
상기 각각의 움직임 영역에 라벨을 부여하여 부여된 라벨에 따라 상기 움직임 영역을 병합함으로써, 하나 이상의 이동 객체를 식별하는 식별부; 및
상기 식별된 이동 객체를 이용하여 추적 객체의 위치를 탐색하며, 상기 탐색된 위치에 기초하여 상기 영상에서 물체를 추적하는 추적부를 포함하되,
상기 하나 이상의 이동 객체에서 회전된 최소 사각형 영역을 포함하는 회전된 근접 타원을 생성하며, 상기 회전된 근접 타원을 재추출함으로써, 상기 이동 객체의 영역 선택 시 손실을 최소화하는 것을 특징으로 하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치.
An extracting unit for extracting a moving region of one or more moving objects from an input image using RGB background modeling;
An identification unit for identifying one or more moving objects by merging the moving areas according to a label given to each of the moving areas; And
And a tracking unit for searching for the position of the tracking object using the identified moving object and for tracking the object in the image based on the searched position,
Generating a rotated neighboring ellipse including a rotated minimum square area in the at least one moving object and minimizing loss in area selection of the moving object by re-extracting the rotated neighboring ellipse, For tracking multiple moving objects.
제 9 항에 있어서,
상기 추적부는,
상기 식별된 이동 객체의 개수와 추적 객체의 개수에 따라 캠시프트 알고리즘을 수행하여 상기 추적하고자 하는 객체의 위치를 탐색하고, 상기 탐색된 추적 객체의 위치에 칼만 필터를 이용하여 상기 영상에서 물체를 추적하는 것을 특징으로 하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치.
10. The method of claim 9,
The tracking unit includes:
A camshift algorithm is performed according to the number of the identified moving objects and the number of tracking objects to search for the position of the object to be tracked, and the object is tracked using the Kalman filter Wherein the moving object is a moving object.
제 10 항에 있어서,
상기 추적부는,
상기 추적하고자 하는 객체의 개수가 상기 식별된 이동 객체의 개수보다 많을 경우, 상기 칼만 필터를 이용하여 추적 객체의 위치가 영상의 경계 영역에 존재하면 해당 추적 객체를 삭제하며, 상기 추적 객체의 위치가 영상의 내부에 존재하면 해당 추적 객체의 위치를 추정하여 탐색 윈도우를 갱신하는 것을 특징으로 하는 이동 물체를 추적하는 장치.
11. The method of claim 10,
The tracking unit includes:
Wherein if the number of the objects to be tracked is greater than the number of the identified moving objects, the tracking object is deleted if the position of the tracking object exists in the boundary region of the image using the Kalman filter, And updates the search window by estimating the position of the tracked object if it exists inside the image.
제 10 항에 있어서,
상기 추적부는,
상기 식별된 이동 객체의 개수가 상기 추적하고자 하는 객체의 개수보다 많을 경우, 상기 물체 추적에 이용되는 않은 이동 객체를 상기 추적 객체로 등록하는 단계를 더 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치.
11. The method of claim 10,
The tracking unit includes:
And registering, as the tracking object, a moving object not used for tracking the object, when the number of the identified moving objects is larger than the number of the objects to be tracked. Device.
제 9 항에 있어서,
상기 식별부는,
상기 추출된 하나 이상의 움직임 영역에 라벨을 각각 부여하고, 상기 부여된 라벨 중에서 근접한 라벨을 포함하는 움직임 영역들끼리 그룹화하여 하나 이상의 움직임 영역 그룹을 생성하며, 상기 하나 이상의 움직임 영역 그룹을 라벨 병합 기법을 이용하여 하나 이상의 이동 객체를 식별하되,
상기 라벨이 부여된 움직임 영역 중 소정의 크기를 넘지 못하는 라벨은 버림으로써, 의미 없는 영역을 삭제하는 단계를 더 포함하는 영상 감시 시스템에서 다중 이동 물체를 추적하는 장치.
10. The method of claim 9,
Wherein,
And labeling the at least one motion area group by a label merging technique. The method of claim 1, wherein the at least one motion area group includes at least one of a plurality of labels, To identify one or more moving objects,
Further comprising deleting a label that does not exceed a predetermined size of the label-attached movement area, thereby deleting the meaningless area.
삭제delete
KR20140043041A 2014-04-10 2014-04-10 Apparatus and method for tracking multiple moving objects in video surveillance system KR101508310B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20140043041A KR101508310B1 (en) 2014-04-10 2014-04-10 Apparatus and method for tracking multiple moving objects in video surveillance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20140043041A KR101508310B1 (en) 2014-04-10 2014-04-10 Apparatus and method for tracking multiple moving objects in video surveillance system

Publications (1)

Publication Number Publication Date
KR101508310B1 true KR101508310B1 (en) 2015-04-07

Family

ID=53032347

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20140043041A KR101508310B1 (en) 2014-04-10 2014-04-10 Apparatus and method for tracking multiple moving objects in video surveillance system

Country Status (1)

Country Link
KR (1) KR101508310B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101731243B1 (en) * 2015-12-15 2017-04-28 군산대학교 산학협력단 A video surveillance apparatus for identification and tracking multiple moving objects with similar colors and method thereof
KR101764845B1 (en) * 2015-06-08 2017-08-03 군산대학교 산학협력단 A video surveillance apparatus for removing overlap and tracking multiple moving objects and method thereof
WO2017142311A1 (en) * 2016-02-17 2017-08-24 광주과학기술원 Multi-object tracking system and multi-object tracking method using same
KR101789520B1 (en) 2015-12-21 2017-10-26 한국과학기술연구원 Device and method for tracking group-based multiple object
KR101868103B1 (en) * 2017-07-12 2018-06-18 군산대학교 산학협력단 A video surveillance apparatus for identification and tracking multiple moving objects and method thereof
CN111986236A (en) * 2020-09-01 2020-11-24 安徽炬视科技有限公司 Anti-occlusion target tracking algorithm based on online learning
KR20210067016A (en) * 2019-11-29 2021-06-08 군산대학교산학협력단 Method for object tracking using extended control of search window and object tracking system thereof
KR20210133562A (en) * 2020-04-29 2021-11-08 군산대학교산학협력단 Method for multiple moving object tracking using similarity between probability distributions and object tracking system thereof

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Nguyen, Hoang, and Bir Bhanu. "Tracking multiple objects in non-stationary video." Proceedings of the 11th Annual conference on Genetic and evolutionary computation. ACM, 2009. *
Sun, Kai, and Shi-rong LIU. "Combined algorithm with modified Camshift and Kalman Filter for multi-object tracking [J]." Information and Control 1 (2009): 004. *
Sun, Kai, and Shi-rong LIU. "Combined algorithm with modified Camshift and Kalman Filter for multi-object tracking [J]." Information and Control 1 (2009): 004.*
김대영, 박재완, 이칠우, "CAMshift 기법과 칼만 필터를 결합한 객체 추적 시스템", 한국멀티미디어학회논문지 제16권 제5호 (2013년 5월) pp.619-628. *
이우주, 이배호, "환경변화에 강인한 다중 객체 탐지 및 추적 시스템", 전자공학회논문지, vol.46, no.6, pp.88-94, 2009년 11월. *
이우주, 이배호, "환경변화에 강인한 다중 객체 탐지 및 추적 시스템", 전자공학회논문지, vol.46, no.6, pp.88-94, 2009년 11월.*

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101764845B1 (en) * 2015-06-08 2017-08-03 군산대학교 산학협력단 A video surveillance apparatus for removing overlap and tracking multiple moving objects and method thereof
KR101731243B1 (en) * 2015-12-15 2017-04-28 군산대학교 산학협력단 A video surveillance apparatus for identification and tracking multiple moving objects with similar colors and method thereof
KR101789520B1 (en) 2015-12-21 2017-10-26 한국과학기술연구원 Device and method for tracking group-based multiple object
WO2017142311A1 (en) * 2016-02-17 2017-08-24 광주과학기술원 Multi-object tracking system and multi-object tracking method using same
KR101868103B1 (en) * 2017-07-12 2018-06-18 군산대학교 산학협력단 A video surveillance apparatus for identification and tracking multiple moving objects and method thereof
KR20210067016A (en) * 2019-11-29 2021-06-08 군산대학교산학협력단 Method for object tracking using extended control of search window and object tracking system thereof
KR102335755B1 (en) * 2019-11-29 2021-12-06 군산대학교 산학협력단 Method for object tracking using extended control of search window and object tracking system thereof
KR20210133562A (en) * 2020-04-29 2021-11-08 군산대학교산학협력단 Method for multiple moving object tracking using similarity between probability distributions and object tracking system thereof
KR102370228B1 (en) 2020-04-29 2022-03-04 군산대학교 산학협력단 Method for multiple moving object tracking using similarity between probability distributions and object tracking system thereof
CN111986236A (en) * 2020-09-01 2020-11-24 安徽炬视科技有限公司 Anti-occlusion target tracking algorithm based on online learning

Similar Documents

Publication Publication Date Title
KR101508310B1 (en) Apparatus and method for tracking multiple moving objects in video surveillance system
JP6018674B2 (en) System and method for subject re-identification
Chen et al. A real-time vision system for nighttime vehicle detection and traffic surveillance
US9213901B2 (en) Robust and computationally efficient video-based object tracking in regularized motion environments
KR101764845B1 (en) A video surveillance apparatus for removing overlap and tracking multiple moving objects and method thereof
Asmaa et al. Road traffic density estimation using microscopic and macroscopic parameters
Shukla et al. Moving object tracking of vehicle detection: a concise review
Bewley et al. Online self-supervised multi-instance segmentation of dynamic objects
Hashemzadeh et al. Combining keypoint-based and segment-based features for counting people in crowded scenes
Kim et al. Combined shape and feature-based video analysis and its application to non-rigid object tracking
KR101868103B1 (en) A video surveillance apparatus for identification and tracking multiple moving objects and method thereof
Zang et al. Object classification and tracking in video surveillance
Mekonnen et al. Comparative evaluations of selected tracking-by-detection approaches
Wang et al. Spatiotemporal group context for pedestrian counting
Clapés et al. Multi-modal user identification and object recognition surveillance system
Al-Ariny et al. An efficient vehicle counting method using mask r-cnn
CN111382637A (en) Pedestrian detection tracking method, device, terminal equipment and medium
Lacabex et al. Lightweight tracking-by-detection system for multiple pedestrian targets
KR20090093119A (en) Multiple Information Fusion Method for Moving Object Tracking
Nalepa et al. Real-time people counting from depth images
Jaiswal et al. Survey paper on various techniques of recognition and tracking
Hussien Detection and tracking system of moving objects based on MATLAB
Wu et al. Background subtraction by difference clustering
Hu et al. Efficient human detection in crowded environment
KR101342018B1 (en) Real-time Object Recognition and Tracking Method Using Representative Feature, and Apparatus Thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190122

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200130

Year of fee payment: 6