KR101394473B1 - Method for detecting moving object and surveillance system thereof - Google Patents

Method for detecting moving object and surveillance system thereof Download PDF

Info

Publication number
KR101394473B1
KR101394473B1 KR1020090006274A KR20090006274A KR101394473B1 KR 101394473 B1 KR101394473 B1 KR 101394473B1 KR 1020090006274 A KR1020090006274 A KR 1020090006274A KR 20090006274 A KR20090006274 A KR 20090006274A KR 101394473 B1 KR101394473 B1 KR 101394473B1
Authority
KR
South Korea
Prior art keywords
image
input image
foreground
input
background
Prior art date
Application number
KR1020090006274A
Other languages
Korean (ko)
Other versions
KR20100086839A (en
Inventor
백영민
최진영
Original Assignee
서울대학교산학협력단
삼성테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단, 삼성테크윈 주식회사 filed Critical 서울대학교산학협력단
Priority to KR1020090006274A priority Critical patent/KR101394473B1/en
Publication of KR20100086839A publication Critical patent/KR20100086839A/en
Application granted granted Critical
Publication of KR101394473B1 publication Critical patent/KR101394473B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은, 일정한 시간 간격마다 영상이 입력되는 감시 시스템에서 상기 영상을 전경과 배경으로 판별하는 이동 물체 탐지 방법에 있어서, (a) 상기 감시 시스템에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 이용하여 n번째 배경 영상을 생성하는 단계와, (b) 상기 n번째 입력 영상의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여 초기 전경 맵을 설정하는 단계와, (c) 상기 초기 전경 맵에 인접한 영역을 추가 전경 후보 영역으로 설정하고 상기 추가 전경 후보 영역에 속하는 픽셀이 상기 전경에 하는 속하게 될 확률을 구하여 추가 전경 맵을 설정하는 단계를 구비하는 이동 물체 탐지 방법 및 그 감시 시스템을 제공한다. The present invention relates to a moving object detection method for discriminating an image as foreground and background in a surveillance system in which an image is input at regular time intervals, the method comprising the steps of: (a) Generating a transform matrix from the input image and generating an n-th background image using the transformation matrix; (b) obtaining a probability that a pixel of the n-th input image belongs to the n-th background image, (C) setting an area adjacent to the initial foreground map as an additional foreground candidate area and setting an additional foreground map by obtaining a probability that a pixel belonging to the additional foreground candidate area belongs to the foreground A moving object detection method and a monitoring system thereof are provided.

Description

이동 물체 탐지 방법 및 그 감시 시스템{Method for detecting moving object and surveillance system thereof}TECHNICAL FIELD [0001] The present invention relates to a moving object detection method,

본 발명은 이동 물체 탐지 방법 및 그 감시 시스템에 관한 것으로서, 보다 상세하게는 팬틸트 카메라에 의해 촬영된 영상에서 이동 물체를 탐지할 수 있는 이동 물체 탐지 방법 및 그 감시 시스템에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a moving object detection method and a monitoring system thereof, and more particularly, to a moving object detection method and a monitoring system thereof capable of detecting moving objects in an image photographed by a pan / tilt camera.

본 발명은 지식경제부의 군집지능을 이용한 사회안전 로봇 개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제번호: 0148-2007011, 과제명: 강인적응형 영상감시 알고리즘].The present invention is derived from a research carried out as a part of the social safety robot development project using the cluster intelligence of the Ministry of Knowledge Economy [assignment number: 0148-2007011, title: Robust adaptive video surveillance algorithm].

종래의 이동 물체를 탐지하는 기법은 대부분의 고정 카메라에 적용되어 많이 사용되어 왔다. 카메라가 고정되어 있는 경우 이동 물체 탐지 알고리즘은 카메라의 특성을 이용해서, 고정되어 있는 배경을 모델링하고 입력 영상에서 배경 영역을 제거하는 방법이 주로 사용되었다. 대표적으로 배경 모델링에 가장 많이 사용되는 방법은 가우시안 혼합 모델(Gaussian Mixture Model)로서, 픽셀별로 다수의 가우시안 분포를 갖는 배경의 확률을 모델링한다. 고정 카메라에서는 물체 탐지 속도가 빠르고 비교적 정확한 픽셀 단위 배경 모델링 방식이 이용되었다. Conventional moving object detection techniques have been applied to most fixed cameras and have been widely used. When the camera is fixed, the moving object detection algorithm is mainly used to model the fixed background and remove the background area from the input image using the characteristics of the camera. Typically, the most commonly used method for background modeling is the Gaussian Mixture Model, which models the probability of a background with multiple Gaussian distributions per pixel. Fixed cameras use a pixel-based background modeling method with fast object detection speed and relatively accurate pixel-unit background.

또한, 팬틸트 카메라에서도 입력된 영상에서 물체를 탐지하기 위해 픽셀 단위 배경 모델링 방식을 채택하였다. 그러나, 픽셀 단위 배경 모델링 방식은 카메라가 비추고 있는 배경의 위치가 변하지 않는 다는 것을 가정한다. 따라서 카메라 자체가 바람에 의해 미세하기 흔들리는 등의 실제 응용되는 감시 환경에서는 배경의 모서리 영역이 움직임으로 탐지되는 문제점이 있다. In addition, a pixel - by - pixel background modeling method is adopted to detect objects in input images. However, the pixel-based background modeling method assumes that the position of the background illuminated by the camera does not change. Therefore, there is a problem that the edge area of the background is detected as a motion in a practical application surveillance environment where the camera itself is slightly shaken by the wind.

특히, 카메라가 고정되지 않은 환경에서 이러한 픽셀 단위 배경 모델링은 영상의 변환 과정에서 발생할 수 있는 오차 때문에 다음과 같은 세 가지 문제가 발생할 수 있다. 먼저 배경 모서리 탐지 문제로서 배경 영상과 현재 영상과의 부정합으로 인해 발생하는 문제이다. 동일한 색상을 갖는 배경 물체의 내부는 큰 영향이 없지만, 배경 물체의 경계면이 되는 모서리 부분은 모델 자체가 변할 수 있다. 실제로 변환 행렬은 영상이 2차원이라는 가정이 필요하며, 실제 카메라를 통한 입력 영상은 3차원 모델이 2차원으로 투영된 영상이기 때문에, 시차에 따른 오차도 발생할 수 있다. 이러한 문제로 인해 배경의 모서리 영역이 이동 물체로 탐지되는 문제가 발생한다. In particular, in the environment where the camera is not fixed, such pixel-based background modeling may cause the following three problems due to errors that may occur in the image conversion process. First, it is a problem caused by mismatch between background image and current image as background edge detection problem. The inside of a background object having the same color does not have a great influence, but a corner portion that becomes a boundary surface of a background object can change the model itself. In fact, it is necessary to assume that the image is a two-dimensional image. In fact, since an input image through a camera is a two-dimensional image of a three-dimensional model, errors due to parallax may occur. Such a problem causes a problem that the edge area of the background is detected as a moving object.

둘째로 동적인 배경에서 노이즈 발생 문제이다. 이는 배경에는 흔들리는 나뭇가지나 회전하는 선풍기 등 실제 배경임에도 불구하고, 동적으로 움직이는 배경이 존재한다. 가우시안 혼합 모델에서는 배경 모델을 다수 생성하여 이러한 문제를 해결하지만, 각 픽셀별로 필요한 모델의 개수를 알 수 없기 때문에 이러한 가정에 어긋나는 경우가 많다. 따라서 분수와 같은 동적인 요소가 많은 환경에서는 동적인 배경을 이동 물체로 탐지하는 경우가 발생한다. Second, it is a matter of noise generation in dynamic background. This is a dynamic background, even though it is a real background, such as shaking branches or rotating fans in the background. In the Gaussian mixture model, a number of background models are generated to solve this problem. However, since the number of models required for each pixel is not known, many cases are not satisfied. Therefore, in an environment with many dynamic elements such as fractions, a dynamic background may be detected as a moving object.

셋째로 유사한 색상의 물체 탐지 오류 문제이다. 배경 모델을 흑백으로 생성했을 경우, 화면상의 색상값의 평균을 구해서 명암도로 나타나기 때문에, 전혀 다른 색상이라도 동일한 명암도로 나타날 수 있다. 따라서 실제 배경과 다른 색의 물체가 나타나도 탐지하지 못하는 경우가 발생한다. 배경 모델이 칼라 모델인 경우라도 유사한 색상의 물체가 나타난 경우에 해당 물체를 탐지하지 못하는 경우가 발생한다.Third, similar color object detection error problem. When a background model is created in black and white, the average of the color values on the screen is obtained, and the color intensity is represented by the intensity. Therefore, even different colors can be displayed with the same intensity. Therefore, even if an object of a different color than the actual background appears, it may not be detected. Even if the background model is a color model, when an object of a similar color appears, the object may not be detected.

본 발명의 주된 목적은 팬틸트 카메라와 같은 감시 시스템의 입력 영상에서 이동 물체를 탐지할 수 있는 이동 물체 탐지 방법 및 그 감시 시스템을 제공하는 것을 목적으로 한다.The main object of the present invention is to provide a moving object detection method and a monitoring system thereof capable of detecting moving objects in an input image of a surveillance system such as a pan / tilt camera.

본 발명의 일 실시예에 관한 이동 물체 탐지 방법은, 일정한 시간 간격마다 영상이 입력되는 감시 시스템에서 상기 영상을 전경과 배경으로 판별하는 이동 물체 탐지 방법에 있어서, (a) 상기 감시 시스템에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 이용하여 n번째 배경 영상을 생성하는 단계와, (b) 상기 n번째 입력 영상의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여 초기 전경 맵을 설정하는 단계와, (c) 상기 초기 전경 맵에 인접한 영역을 추가 전경 후보 영역으로 설정하고 상기 추가 전경 후보 영역에 속하는 픽셀이 상기 전경에 속하게 될 확률을 구하여 추가 전경 맵을 설정하는 단계를 구비한다.A moving object detection method according to an embodiment of the present invention is a moving object detection method for discriminating the image as foreground and background in a surveillance system in which an image is input at regular time intervals, the method comprising: (a) Generating an n-th background image using the transform matrix, and (b) generating a transform matrix from the n-th input image and the n-1-th input image, (C) setting a region adjacent to the initial foreground map as an additional foreground candidate region, and determining a probability that a pixel belonging to the additional foreground candidate region belongs to the foreground region And setting an additional foreground map.

본 발명에 있어서, 상기 (a) 단계는, (a1) 상기 감시 시스템에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상에서 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 상기 변환 행렬을 생성하는 단계와, (a2) 상기 변환 행렬에 의해 상기 n번째 입력 영상의 좌표계에 맞도록 n-1번째 배경 영상을 변환하는 단계와, (a3) 상기 변환된 n-1번째 배경 영상에서의 미지정 영역을 상기 n번째 입력 영 상으로 복원하여 상기 n번째 배경 영상을 생성하는 단계를 구비할 수 있다.In the present invention, the step (a) includes the steps of: (a1) calculating a difference between the n-th input image and the (n-1) -th input image in the n- (A2) converting an (n-1) -th background image to fit the coordinate system of the n-th input image by the transformation matrix, and (a3) And generating the n-th background image by restoring the undetermined region in the n-th input image to the n-th input image.

본 발명에 있어서, 상기 (a) 단계는 상기 n번째 입력 영상과 상기 n-1번째 입력 영상에서 국소 특징점(local feature)을 추출하여 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 대응점을 구함으로써 상기 변환 행렬을 생성할 수 있다.In the present invention, the step (a) extracts a local feature point from the n-th input image and the (n-1) -th input image, To generate the transformation matrix.

본 발명에 있어서, 상기 (b) 단계는, (b1) 상기 n번째 입력 영상의 각각의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하는 단계와, (b2) 상기 n번째 입력 영상의 픽셀들 중 상기 n번째 배경 영상의 픽셀에 속하게 될 확률이 낮은 픽셀들을 초기 전경 맵으로 설정하는 단계를 구비할 수 있다.(B1) calculating a probability that each pixel of the n-th input image belongs to the n-th background image; (b2) calculating a probability that each pixel of the n-th input image belongs to the n-th background image; And setting the pixels having low probability of belonging to the pixels of the n-th background image as the initial foreground map.

본 발명에 있어서, 상기 (b1) 단계는, (b11) 상기 n번째 입력 영상 중 일부를 제1 비교 영역으로 설정하는 단계와, (b12) 상기 제1 비교 영역에 속하는 픽셀들에 대하여 r, g, b, x, y를 구성 성분으로 갖는 제1 벡터를 생성하는 단계와, (b13) 상기 n번째 배경 영상 중 상기 제1 비교 영역에 대응되는 제2 비교 영역을 설정하는 단계와, (b14) 상기 제2 비교 영역에 속하는 픽셀들에 대하여 r, g, b, x, y를 구성 성분으로 갖는 제2 벡터를 생성하는 단계와, (b15) 상기 제2 벡터들로 이루어진 배경 벡터 공간을 생성하는 단계와, (b16) 상기 제1 벡터를 상기 배경 벡터 공간에 대하여 커널 밀도 추정(Kernel density estimation)을 수행하여 상기 제1 비교 영역에 속하는 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구할 수 있다. (여기서, r, g, b는 상기 픽셀의 색상값이며, x, y는 상기 픽셀의 좌표임.)In the present invention, the step (b1) includes the steps of: (b11) setting a part of the n-th input image as a first comparison area; and (b12) (b13) setting a second comparison area corresponding to the first comparison area among the n-th background image, (b14) setting a second comparison area corresponding to the first comparison area, Generating a second vector having r, g, b, x, and y as components of pixels belonging to the second comparison region; and (b15) generating a background vector space composed of the second vectors (B16) Kernel density estimation is performed on the background vector space of the first vector to determine a probability that a pixel belonging to the first comparison area belongs to the n-th background image . (Where r, g, and b are the color values of the pixel, and x and y are the coordinates of the pixel).

본 발명에 있어서, 상기 (c) 단계는, (c1) 상기 초기 전경 맵에 인접한 영역 을 상기 추가 전경 후보 영역으로 설정하는 단계와, (c2) 상기 추가 전경 후보 영역에 속하는 각각의 픽셀들이 상기 전경에 속하게 될 확률을 구하는 단계와, (c3) 상기 추가 전경 후보 영역의 픽셀들 중 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정하는 단계를 구비할 수 있다.In the present invention, the step (c) further includes the steps of: (c1) setting an area adjacent to the initial foreground map as the additional foreground candidate area; (c2) (C3) setting a pixel having a high probability of belonging to the foreground among the pixels of the additional foreground candidate region as an additional foreground map.

본 발명에 있어서, 상기 (c2) 단계는, (c21) 상기 추가 전경 후보 영역에 속하는 픽셀들에 대하여 r, g, b, x, y를 구성 성분으로 하는 전경 벡터를 생성하는 단계와, (c22) 상기 전경 벡터들로 이루어진 전경 벡터 공간을 생성하는 단계와, (c23) 상기 전경 벡터 공간에 대하여 커널 밀도 추정을 수행하여 상기 픽셀이 상기 전경에 속하게 될 확률을 구하는 단계를 구비할 수 있다.In the present invention, the step (c2) includes the steps of: (c21) generating a foreground vector having r, g, b, x, and y as components of pixels belonging to the additional foreground candidate area; Generating a foreground vector space including the foreground vectors; and (c23) performing a kernel density estimation on the foreground vector space to obtain a probability that the pixel belongs to the foreground.

본 발명에 있어서, 상기 (c3) 단계는 상기 추가 전경 후보 영역의 픽셀들이 상기 전경에 속하게 될 확률과 상기 배경에 속하게 될 확률을 비교하여 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정하는 단계를 구비할 수 있다.In the present invention, the step (c3) compares the probability that the pixels of the additional foreground candidate area belong to the foreground and the probability of belonging to the background, and sets pixels having a high probability of belonging to the foreground as an additional foreground map The method comprising the steps of:

본 발명의 일 실시예에 따른 감시 시스템은, 일정한 시간 간격마다 입력되는 영상에 대하여 전경과 배경을 판별하는 감시 시스템에 있어서, 입력 영상을 입력받는 영상 입력부와, 상기 영상 입력부에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 이용하여 n번째 배경 영상을 생성하는 배경 영상 생성부와, 상기 n번째 입력 영상의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여 초기 전경 맵을 설정하는 초기 전경 맵 생성부와, 상기 초기 전경 맵에 인접한 영역을 추가 전경 후보 영역으로 설정하고 상기 추가 전경 후보 영역에 속하는 픽셀이 상기 전경에 속하게 될 확률을 구하여 추가 전경 맵을 설정하는 추가 전경 맵 생성부를 구비할 수 있다.The surveillance system according to an embodiment of the present invention is a surveillance system for distinguishing foreground and background from images input at regular time intervals. The surveillance system includes an image input unit for receiving an input image, A background image generation unit that generates a transformation matrix from the input image and the (n-1) th input image and generates an n-th background image using the transformation matrix; An initial foreground map generator for setting an initial foreground map and a region adjacent to the initial foreground map as an additional foreground candidate region and determining a probability that a pixel belonging to the additional foreground candidate region belongs to the foreground, And an additional foreground map generator for setting a foreground map.

본 발명에 있어서, 상기 배경 영상 생성부는, 상기 영상 입력부에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상에서 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 상기 변환 행렬을 생성하고, 상기 변환 행렬에 의해 상기 n번째 입력 영상의 좌표계에 맞도록 n-1번째 배경 영상을 변환하며, 상기 변환된 n-1번째 배경 영상에서의 미지정 영역을 상기 n번째 입력 영상으로 복원하여 상기 n번째 배경 영상을 생성할 수 있다.In the present invention, the background image generation unit may generate the transformation matrix between the n-th input image and the (n-1) -th input image in the n-th input image and the (n-1) -th input image input by the image input unit Th background image so as to fit the coordinate system of the n-th input image by the transformation matrix, restoring the unspecified area in the transformed n-1-th background image into the n-th input image, an n-th background image can be generated.

본 발명에 있어서, 상기 배경 영상 생성부는, 상기 n번째 입력 영상과 상기 n-1번째 입력 영상에서 국소 특징점(local feature)을 추출하여 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 대응점을 구함으로써 상기 변환 행렬을 생성할 수 있다.In the present invention, the background image generation unit may extract a local feature point from the n-th input image and the (n-1) -th input image, and output a local feature point corresponding to the n-th input image and the To generate the transformation matrix.

본 발명에 있어서, 상기 초기 전경 맵 생성부는, 상기 n번째 입력 영상의 각각의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여, 상기 n번째 입력 영상의 픽셀들 중 상기 n번째 배경 영상의 픽셀에 속하게 될 확률이 낮은 픽셀들을 초기 전경 맵으로 설정할 수 있다.In the present invention, the initial foreground map generator may calculate a probability that each pixel of the n-th input image belongs to the n-th background image, Can be set as the initial foreground map.

본 발명에 있어서, 상기 추가 전경 맵 생성부는, 상기 초기 전경 맵에 인접한 영역을 상기 추가 전경 후보 영역으로 설정하고, 상기 추가 전경 후보 영역에 속하는 각각의 픽셀들이 상기 전경에 속하게 될 확률을 구하여, 상기 추가 전경 후보 영역의 픽셀들 중 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으 로 설정할 수 있다.In the present invention, the additional foreground map generator sets an area adjacent to the initial foreground map as the additional foreground candidate area, calculates a probability that each of the pixels belonging to the additional foreground candidate area belongs to the foreground, Pixels having a high probability of belonging to the foreground among the pixels in the additional foreground candidate region can be set as an additional foreground map.

본 발명에 있어서, 상기 추가 전경 맵 생성부는, 상기 추가 전경 후보 영역의 픽셀들이 상기 전경에 속하게 될 확률과 상기 배경에 속하게 될 확률을 비교하여 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정할 수 있다.In the present invention, the additional foreground map generator compares the probability that the pixels of the additional foreground candidate area belong to the foreground and the probability that the pixels of the additional foreground candidate area belong to the background, Can be set.

상기와 같이 이루어진 본 발명의 이동 물체 탐지 방법 및 그 감시 시스템은 동적인 배경에서의 노이즈를 감소시키며, 유사한 색상의 물체를 잘못 탐지하는 것을 방지할 수 있다. The moving object detection method and the monitoring system of the present invention as described above reduce noise in a dynamic background and can prevent false detection of an object of a similar color.

이하, 첨부된 도면에 도시된 본 발명의 실시예를 참조하여 본 발명을 상세히 설명한다. Hereinafter, the present invention will be described in detail with reference to embodiments of the present invention shown in the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 이동 물체 탐지 방법의 흐름도를 나타낸다. 상기 이동 물체 탐지 방법은 도 9의 감시 시스템(200)에 의해 구현될 수 있다. FIG. 1 shows a flowchart of a moving object detection method according to an embodiment of the present invention. The moving object detection method can be implemented by the monitoring system 200 of FIG.

도 1을 참조하면, 본 발명의 일 실시예에 따른 이동 물체 탐지 방법은 입력 영상 입력단계(S110), 배경 영상 생성 단계(S120), 초기 전경 맵 생성 단계(S130), 및 추가 전경 맵 생성(S140)를 구비할 수 있다. Referring to FIG. 1, a moving object detection method according to an embodiment of the present invention includes an input image input step S110, a background image generation step S120, an initial foreground map generation step S130, S140).

입력 영상 입력단계(S110)는 감시 대상이 되는 감시 영역에 대한 입력 영상을 입력받는다. 입력 영상은 설정된 시간 간격에 따라 입력되는 프레임 영상일 수 있다. The input image input step S110 receives the input image for the surveillance region to be monitored. The input image may be a frame image input according to the set time interval.

배경 영상 생성 단계(S120)는 상기 감시 시스템에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 이용하여 n번째 배경 영상을 생성할 수 있다. 배경 영상 생성 단계(S120)는 변환 행렬 생성 단계(S121), 변환 행렬에 의한 배경 영상 변환 단계(S122), 및 배경 영상 복원 단계(S123)를 구비할 수 있다.The background image generation step S120 may generate a transformation matrix from the n-th input image and the (n-1) -th input image input by the monitoring system, and generate an n-th background image using the transformation matrix. The background image generation step S120 may include a transformation matrix generation step S121, a background image transformation step S122 using a transformation matrix, and a background image restoration step S123.

변환 행렬 생성 단계(S121)에서는 상기 감시 시스템에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상에서 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 상기 변환 행렬을 생성한다. 상세하게는, 변환 행렬 생성 단계(S121)에서는 상기 n번째 입력 영상과 상기 n-1번째 입력 영상에서 국소 특징점(local feature)을 추출하여 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 대응점을 구함으로써 상기 변환 행렬을 생성한다.In the transformation matrix generation step S121, the transformation matrix between the n-th input image and the (n-1) -th input image is generated from the n-th input image and the (n-1) -th input image input by the monitoring system. In more detail, in the transform matrix generation step S121, a local feature point is extracted from the n-th input image and the (n-1) -th input image, and the local feature point is extracted from the n-th input image and the And the transformation matrix is generated by obtaining corresponding points.

변환 행렬에 의한 배경 영상 변환 단계(S122)는 상기 변환 행렬에 의해 상기 n번째 입력 영상의 좌표계에 맞도록 n-1번째 배경 영상을 변환한다. The background image transformation step S122 of the transformation matrix transforms the (n-1) th background image to fit the coordinate system of the n-th input image by the transformation matrix.

본 발명의 일 실시예에와 같이 팬틸트 카메라를 구비한 감시 시스템은 팬틸트 카메라가 이동하면서 영상을 촬영하므로 n번째 입력 영상과 n-1번째 입력 영상은 좌표계가 서로 상이하며 따라서 n-1번째 입력 영상을 도대로 생성된 n-1번째 배경 영상과 n번째 입력 영상은 서로 좌표계가 다르므로 서로 비교가 불가능하다. 그러므로, 변환 행렬에 의한 배경 영상 변환 단계(S122)에서는 변환 행렬에 의해 상기 n번째 입력 영상의 좌표계에 맞도록 n-1번째 배경 영상을 변환한다.As in the embodiment of the present invention, the surveillance system equipped with the pan / tilt camera captures an image while moving the pan / tilt camera, so that the coordinate system of the n-th input image and the n-1th input image are different from each other, The n-1th background image and the n-th input image generated based on the input image are not mutually comparable because their coordinate systems are different from each other. Therefore, in the background image conversion step S122 by the transformation matrix, the (n-1) th background image is transformed according to the coordinate system of the n-th input image by the transformation matrix.

배경 영상 복원 단계(S123)는 상기 변환된 n-1번째 배경 영상에서의 미지영 역을 상기 n번째 입력 영상으로 복원하여 상기 n번째 배경 영상을 생성한다. The background image reconstruction step S123 reconstructs the n-th input image of the transformed n-1th background image to generate the n-th background image.

도 5는 배경 영상을 생성하는 과정을 단계별로 나타내는 사진이다. 도 5의 (a)는 n-1번째 배경 영상이며, 도 5의 (b)는 n번째 입력 영상이다. 본 발명의 감시 시스템은 오른쪽에서 왼쪽 방향으로 이동하면서 영상을 촬영하므로 도 5의 (a) 및 (b)에 도시된 바와 같이 n번째 입력 영상과 n-1번째 배경 영상은 차이가 있다. 도 5의 (c)는 상기 변환 행렬에 의해 변환된 n-1번째 배경 영상이다. 상기 변경 행렬은 n번째 입력 영상의 좌표계에 맞도록 영상을 변환시키므로 도 5의 (c)에 도시된 바와 같이 미지정 영역(110)이 발생한다. 미지정 영역(110)은 본 발명의 감시 시스템이 이동함에 따라 발생한 것이다. 배경 영상 복원 단계(S123)는 미지정 영역(10)을 상기 n번째 입력 영상으로 복원한다. 도 5의 (d)는 미지정 영역(110)이 복원된 배경 영상이다. 배경 영상 복원 단계(S123)에서는 도 5의 (c)의 변환된 n-1번째 배경 영상과 도 5의 (b)의 n번째 입력 영상을 비교하며 n번째 입력 영상에서 미지정 영역(110)에 해당하는 영역을 변환된 n-1번째 배경 영상에 갱신하여 도 5의 (d)에서와 같이 배경 영상을 복원한다. 도 5의 (d)의 복원된 배경 영상은 n번째 입력 영상과 비교되는 n번째 배경 영상이 된다. 5 is a photograph showing the process of generating a background image step by step. FIG. 5A shows an n-1th background image, and FIG. 5B shows an nth input image. Since the surveillance system of the present invention captures an image while moving from right to left, there is a difference between the n-th input image and the (n-1) -th background image as shown in FIGS. 5A and 5B. FIG. 5C shows the (n-1) th background image converted by the transformation matrix. The change matrix transforms the image to fit the coordinate system of the n-th input image, so that the unregulated region 110 occurs as shown in FIG. 5 (c). The undefined area 110 is generated as the monitoring system of the present invention moves. The background image reconstruction step S123 reconstructs the unidentified area 10 into the n-th input image. 5D is a background image in which the undefined area 110 is restored. In the background image restoring step S123, the converted n-1th background image of FIG. 5C and the nth input image of FIG. 5B are compared, and the nth input image is restored to the unknown region 110 (N-1) th background image to restore the background image as shown in FIG. 5 (d). The restored background image of FIG. 5 (d) becomes the n-th background image which is compared with the n-th input image.

초기 전경 맵 생성 단계(S130)는 상기 n번째 입력 영상의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여 초기 전경 맵을 설정한다. 초기 전경 맵 생성 단계(S130)는 제1 비교 영역 설정 단계(S131), 제1 벡터 생성 단계(S132), 제2 비교 영역 설정 단계(S133), 제2 벡터 생성 단계(S134), 배경 벡터 공간 생성 단계(S135), 배경 영상에 속하게 될 확률 연산 단계(S136), 및 초기 전경 맵 생성 단 계(S137)를 구비할 수 있다. The initial foreground map generation step S130 sets the initial foreground map by calculating the probability that the pixel of the n-th input image belongs to the n-th background image. The initial foreground map generation step S130 includes a first comparison area setting step S131, a first vector generating step S132, a second comparison area setting step S133, a second vector generating step S134, A generation step S135, a probability calculation step S136 to belong to the background image, and an initial foreground map generation step S137.

제1 비교 영역 설정 단계(S131)는 상기 n번째 입력 영상 중 일부를 제1 비교 영역으로 설정한다. 도 6은 n번째 입력 영상(101)에서 설정된 제1 비교 영역(103)을 나타낸다. 도 6을 참조하면, 제1 비교 영역(103)은 n번째 입력 영상(101)의 임의의 픽셀(102)을 포함하며 상기 임의의 픽셀(102) 주변의 픽셀들을 포함하는 영역이다. The first comparison area setting step S131 sets a part of the n-th input image as a first comparison area. 6 shows the first comparison area 103 set in the n-th input image 101. In FIG. Referring to FIG. 6, the first comparison area 103 includes an arbitrary pixel 102 of the n-th input image 101 and is a region including pixels around the arbitrary pixel 102.

제1 벡터 생성 단계(S132)는 상기 제1 비교 영역에 속하는 픽셀들에 대하여 r, g, b, x, y를 구성 성분으로 갖는 제1 벡터(

Figure 112009004910445-pat00001
)를 생성한다. 상기 제1 벡터(
Figure 112009004910445-pat00002
)는 다음 수학식 1과 같이 정의된다. The first vector generating step (S132) may include generating a first vector having r, g, b, x, and y as components of the pixels belonging to the first comparison area
Figure 112009004910445-pat00001
). The first vector (
Figure 112009004910445-pat00002
) Is defined by the following equation (1).

Figure 112009004910445-pat00003
Figure 112009004910445-pat00003

여기서, r, g, b는 각각 픽셀의 색상값이며, x, y는 픽셀의 위치이다.Here, r, g, and b are the color values of the respective pixels, and x and y are the positions of the pixels.

제2 비교 영역 설정 단계(S133)는 상기 n번째 배경 영상 중 상기 제1 비교 영역에 대응되는 제2 비교 영역을 설정한다. 즉, 제2 비교 영역 설정 단계(S133)는 상기 제1 비교 영역과 동일한 위치를 갖는 영역을 상기 n번째 배경 영상에서 검색하여 제 비교 영역을 설정한다. 상기 n번째 배경 영상과 상기 n번째 입력 영상은 동일한 좌표계를 가지고 있으므로 상기 제1 비교 영역에 대응되는 상기 제2 비교 영역을 상기 n번째 배경 영상에서 설정할 수 있다. The second comparison area setting step S133 sets a second comparison area corresponding to the first comparison area among the n-th background images. That is, the second comparison area setting step (S133) searches the n-th background image for the area having the same position as the first comparison area to set the comparison area. Since the n-th background image and the n-th input image have the same coordinate system, the second comparison region corresponding to the first comparison region can be set in the n-th background image.

제2 벡터 생성 단계(S134)는 제2 비교 영역에 속하는 픽셀들에 대하여 r, g, b, x, y를 구성 성분으로 갖는 제2 벡터(

Figure 112009004910445-pat00004
)를 생성한다. 상기 제2 벡터(
Figure 112009004910445-pat00005
)는 다음 수학식 2과 같이 정의된다 The second vector generation step S134 includes a second vector having r, g, b, x, and y as components of the pixels belonging to the second comparison area
Figure 112009004910445-pat00004
). The second vector (
Figure 112009004910445-pat00005
) Is defined as the following equation (2)

Figure 112009004910445-pat00006
Figure 112009004910445-pat00006

배경 벡터 공간 생성 단계(S135)는 상기 제2 비교 영역에 속하는 픽셀들 각각을 나타내는 제2 벡터들(

Figure 112009004910445-pat00007
)로 이루어진 배경 벡터 공간(
Figure 112009004910445-pat00008
)을 생성한다. 배경 벡터 공간(
Figure 112009004910445-pat00009
)은 다음 수학식 2와 같이 정의된다 The background vector space generation step S135 may include generating second vectors (e.g.,
Figure 112009004910445-pat00007
) ≪ / RTI >
Figure 112009004910445-pat00008
). Background Vector Space (
Figure 112009004910445-pat00009
) Is defined by the following equation (2)

Figure 112009004910445-pat00010
Figure 112009004910445-pat00010

배경 영상에 속하게 될 확률 연산 단계(S136)는 제1 벡터(

Figure 112009004910445-pat00011
)를 배경 벡터 공간(
Figure 112009004910445-pat00012
)에 대하여 커널 밀도 추정(Kernel density estimation)을 수행하여 상기 제1 비교 영역에 속하는 픽셀들이 상기 n번째 배경 영상에 속하게 될 확률을 구한다. 상기 픽셀이 상기 n번째 배경 영상에 속하게 될 확률은 다음 수학식 4에 의해 결정된다. The probability calculation step (S136) of belonging to the background image is performed using the first vector
Figure 112009004910445-pat00011
) As background vector space (
Figure 112009004910445-pat00012
) To determine the probability that pixels belonging to the first comparison area belong to the n-th background image. The probability that the pixel belongs to the n-th background image is determined by the following equation (4).

Figure 112009004910445-pat00013
Figure 112009004910445-pat00013

여기서,

Figure 112009004910445-pat00014
은 배경 벡터 공간이며,
Figure 112009004910445-pat00015
는 시간 t에 확률을 계산할 i번째 픽셀의 배경 벡터이며, N은 상기 비교 영역에 속하는 픽셀들의 개수이다.
Figure 112009004910445-pat00016
는 배경 벡터 공간이 주어진 경우 픽셀이 배경에 속하게 될 확률을 의미한다. here,
Figure 112009004910445-pat00014
Is a background vector space,
Figure 112009004910445-pat00015
Is the background vector of the ith pixel to calculate the probability at time t, and N is the number of pixels belonging to the comparison area.
Figure 112009004910445-pat00016
Means the probability that a pixel will belong to the background if the background vector space is given.

초기 전경 맵 생성 단계(S137)는 상기 n번째 입력 영상에 속하는 픽셀 중 상기 n번째 배경 영상의 픽셀에 속하게 될 확률이 낮은 픽셀들을 초기 전경 맵으로 설정한다. 초기 전경 맵 생성 단계(S137)는 배경 영상에 속하게 될 확률 연산 단계(S136)에서 구한 확률이 임계치(threshold) 이하가 되는 경우 상기 픽셀은 배경이 아닌 전경을 판단하며, 이와 같이 전경으로 판단된 픽셀들이 이루는 영역을 초기 전경 맵으로 설정한다. In the initial foreground map generation step S137, pixels having low probability of belonging to the pixel of the n-th background image among the pixels belonging to the n-th input image are set as the initial foreground map. In the initial foreground map generation step S137, when the probability obtained in the probability calculation step S136 to be included in the background image becomes less than or equal to the threshold value, the pixel determines the foreground, not the background, As an initial foreground map.

초기 전경 맵(

Figure 112009004910445-pat00017
)은 다음 수학식 5에 의해 결정된다. Initial foreground map (
Figure 112009004910445-pat00017
) Is determined by the following equation (5).

Figure 112009004910445-pat00018
Figure 112009004910445-pat00018

여기서,τB는 픽셀이 배경 영상에 속하게 되는 임계치이다. 픽셀이 배경에 속하게 될 확률(

Figure 112009004910445-pat00019
)이 임계치(τB) 이하인 경우에는 상기 픽셀은 초기 전경 맵에 해당하며, 그렇지 않은 경우에는 상기 픽셀은 초기 전경 맵에 해당하지 않다. Here, τ B is a threshold at which the pixel belongs to the background image. The probability that the pixel will belong to the background (
Figure 112009004910445-pat00019
Is less than or equal to the threshold value? B , the pixel corresponds to the initial foreground map, otherwise the pixel does not correspond to the initial foreground map.

초기 전경 맵 생성 후 추가 전경 맵을 생성한다(S140). 추가 전경 맵 생성 단계(S140)는 상기 초기 전경 맵에 인접한 영역을 추가 전경 후보 영역으로 설정하고 상기 추가 전경 후보 영역에 속하는 픽셀이 상기 전경에 속하게 될 확률을 구하여 추가 전경 맵을 설정한다. 추가 전경 맵 생성 단계(S140)는 추가 전경 후보 영역 설정 단계(S141), 전경 벡터 생성 단계(S142), 전경 벡터 공간 생성 단계(S143), 전경에 속할 확률 연산 단계(S144), 추가 전경 맵 생성 단계(S145)를 구비할 수 있다. After generating the initial foreground map, an additional foreground map is generated (S140). The additional foreground map generation step S140 sets an area adjacent to the initial foreground map as an additional foreground candidate area and sets an additional foreground map by obtaining a probability that a pixel belonging to the additional foreground candidate area belongs to the foreground. The additional foreground map generation step S140 includes an additional foreground candidate area setting step S141, a foreground vector generating step S142, a foreground vector space generating step S143, a probability calculation step S144 belonging to foreground, Step S145 may be included.

추가 전경 후보 영역 설정 단계(S141)는 상기 n번째 입력 영상에서 상기 초기 전경 맵에 인접한 영역을 추가 전경 후보 영역으로 설정한다. 도 7은 초기 전경 맵과 추가 전경 후보 영역이 설정된 입력 영상을 도시한다. 도 7을 참조하면, 입력 영상(101)은 S110 내지 S130 단계에 의해 초기 전경 맵(105a, 105b)이 설정될 수 있다. 이에 대해, 추가 전경 후보 영역 설정 단계(S141)에서는 초기 전경 맵(105a, 105b)에 인접한 영역에 대해 추가 전경 후보 영역(106, 107, 108)을 설정한다. The additional foreground candidate area setting step S141 sets an area adjacent to the initial foreground map as the additional foreground candidate area in the n-th input image. 7 shows an input image in which an initial foreground map and an additional foreground candidate area are set. Referring to FIG. 7, the initial foreground maps 105a and 105b can be set in steps S110 to S130 of the input image 101. FIG. On the other hand, in the additional foreground candidate area setting step S141, the additional foreground candidate areas 106, 107, and 108 are set for the area adjacent to the initial foreground maps 105a and 105b.

전경 벡터 생성 단계(S142)는 상기 추가 전경 후보 영역에 속하는 픽셀들에 대하여 r, g, b, x, y를 구성 성분으로 하는 전경 벡터(

Figure 112009004910445-pat00020
)를 생성한다. 상기 전경 벡터(
Figure 112009004910445-pat00021
)는 다음 수학식 6과 같이 정의된다. The foreground vector generating step S142 is a step of generating foreground vectors (r, g, b, x, y) for the pixels belonging to the additional foreground candidate region
Figure 112009004910445-pat00020
). The foreground vector (
Figure 112009004910445-pat00021
) Is defined by the following equation (6).

Figure 112009004910445-pat00022
Figure 112009004910445-pat00022

여기서, r, g, b는 각각 픽셀의 색상값이며, x, y는 픽셀의 위치이다.Here, r, g, and b are the color values of the respective pixels, and x and y are the positions of the pixels.

전경 벡터 공간 생성 단계(S143)는 상기 추가 전경 후보 영역에 속하는 픽셀들 각각을 나타내는 전경 벡터들(

Figure 112009004910445-pat00023
)로 구성된 전경 벡터 공간(
Figure 112009004910445-pat00024
)을 생성한다. 전경 벡터 공간(
Figure 112009004910445-pat00025
)은 다음 수학식 7에 의해 결정된다. The foreground vector space generation step S143 may include generating foreground vectors (e.g.,
Figure 112009004910445-pat00023
) In the foreground vector space (
Figure 112009004910445-pat00024
). Foreground vector space (
Figure 112009004910445-pat00025
) Is determined by the following equation (7).

Figure 112009004910445-pat00026
Figure 112009004910445-pat00026

전경에 속할 확률 연산 단계(S144)는 추가 전경 후보 영역에 속하는 픽셀의 전경 벡터를 전경 벡터 공간(

Figure 112009004910445-pat00027
)에 대하여 커널 밀도 추정을 수행하여 상기 추가 전경 후보 영역에 속하는 픽셀들이 전경에 속하게 될 확률을 구한다. 상기 픽셀들이 전경에 속하게 될 확률은 다음 수학식 8에 의해 결정된다. The probability calculation step (S144) of belonging to the foreground is a step of calculating the foreground vector of the pixel belonging to the additional foreground candidate area as the foreground vector space
Figure 112009004910445-pat00027
) To obtain the probability that the pixels belonging to the additional foreground candidate region will belong to the foreground. The probability that the pixels belong to the foreground is determined by the following equation (8).

Figure 112009004910445-pat00028
Figure 112009004910445-pat00028

여기서,

Figure 112009004910445-pat00029
는 시간 t에 확률을 계산할 i번째 픽셀의 전경 벡터이며,
Figure 112009004910445-pat00030
는 전경 벡터 공간이 주어진 경우 픽셀이 전경에 속하게 될 확률을 의미한다. here,
Figure 112009004910445-pat00029
Is the foreground vector of the ith pixel to calculate the probability at time t,
Figure 112009004910445-pat00030
Represents the probability that a pixel will belong to the foreground if the foreground vector space is given.

추가 전경 맵 생성 단계(S145)는 상기 추가 전경 후보 영역의 픽셀들 중 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정한다. 상세하게는 추가 전경 맵 생성 단계(S145)는 상기 추가 전경 후보 영역의 픽셀들이 상기 전경에 속하게 될 확률과 상기 배경에 속하게 될 확률을 비교하여 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정한다. 추가 전경 맵(

Figure 112014004310850-pat00031
)은 다음 수학식 9에 의해 결정된다. The additional foreground map generation step S145 sets pixels having a high probability of belonging to the foreground among the pixels of the additional foreground candidate region as an additional foreground map. More specifically, the additional foreground map generation step S145 compares the probability that the pixels of the additional foreground candidate area belong to the foreground and the probability that the pixels of the additional foreground candidate area belong to the background, Setting. Additional Foreground Maps (
Figure 112014004310850-pat00031
) Is determined by the following equation (9).

Figure 112009004910445-pat00032
Figure 112009004910445-pat00032

즉, 추가 전경 맵 생성 단계(S145)에서는 추가 전경 후보 영역에 속하는 픽셀이 배경에 속하는 확률(

Figure 112009004910445-pat00033
) 보다 전경에 속하는 확 률(
Figure 112009004910445-pat00034
)에 가중치(ωF)를 곱한 값(
Figure 112009004910445-pat00035
)보다 작은 경우 전경을 판별하며 전경으로 판별된 픽셀들을 추가 전경 맵으로 생성한다. That is, in the additional foreground map generation step S145, the probability that a pixel belonging to the additional foreground candidate area belongs to the background
Figure 112009004910445-pat00033
) Probability that belongs to the foreground (
Figure 112009004910445-pat00034
) By the weight (? F ) (
Figure 112009004910445-pat00035
), The foreground is discriminated and pixels discriminated as foreground are generated as an additional foreground map.

상기와 같이 이동 물체에 대해 초기 전경 맵을 생성하고 초기 전경 맵과 인접한 영역에 대하여 추가 전경 맵을 생성함으로써 배경 영상과 현재 영상의 부정합으로 인한 배경 모서리 탐지의 오류를 해소할 수 있으며, 흔들리는 나뭇가지와 같은 동적인 배경을 이동 물체로 탐지하는 오류를 해결할 수 있다. As described above, an initial foreground map is generated for a moving object and an additional foreground map is generated for an area adjacent to the initial foreground map, thereby eliminating errors of background corner detection due to inconsistency between the background image and the current image. Can be resolved by detecting a moving background such as a moving background.

또한, 변환 행렬에 의해 배경 영상을 변환한 후 입력 영상으로 배경 영상을 복원함으로써 변환 행렬의 오차 및 영상의 노이즈로 인하여 발생할 수 있는 탐지의 오류를 최소화할 수 있다. In addition, the background image is transformed by the transform matrix, and then the background image is restored as the input image, thereby minimizing errors in detection errors due to errors of the transformation matrix and image noise.

도 8은 본 발명의 일 실시예에 따른 감시 시스템의 물체 탐지를 나타내는 사진들이다. 도 8의 (a), (b), 및 (c)에서 오른쪽 영상은 입력 영상이며, 중간 영상은 배경 영상이며, 왼쪽 영상은 탐지 결과 영상이다. 또한, 도 8의 (a), (b), 및 (c) 각각은 n번째 영상, n+1번째 영상, n+2번째 영상이다. 즉, 도 8의 (a)에서 오른쪽 영상은 n번째 입력 영상이며, 중간 영상은 n번째 배경 영상이고, 왼쪽 영상은 n번째 입력 영상에서 탐지된 초기 전경 맵과 추가 전경 맵을 나타내는 영상이다. 도 8의 (b)에서 오른쪽 영상은 n+1번째 입력 영상이며, 중간 영상은 n+1번째 배경 영상이고, 왼쪽 영상은 n+1번째 입력 영상에서 탐지된 초기 전경 맵과 추가 전경 맵을 나타내는 영상이다. 도 8의 (c)는 오른쪽 영상은 n+2번째 입력 영상이며, 중간 영상은 n+2번째 배경 영상이고, 왼쪽 영상은 n+2번째 입력 영상에서 탐지된 초 기 전경 맵과 추가 전경 맵을 나타내는 영상이다. 도 8의 (a), (b), 및 (c)의 입력 영상은 본 발명의 일 실시예에 따른 감시 시스템이 왼쪽에서 오른쪽으로 이동하면서 촬영한 영상이다. 8 is a photograph showing an object detection of a surveillance system according to an embodiment of the present invention. 8 (a), 8 (b), and 8 (c), the right image is the input image, the intermediate image is the background image, and the left image is the detection result image. 8A, 8B, and 8C are the n-th image, the n + 1-th image, and the n + 2-th image, respectively. That is, in FIG. 8A, the right image is the n-th input image, the intermediate image is the n-th background image, and the left image is an image showing the initial foreground map and the additional foreground map detected in the n-th input image. In FIG. 8B, the right image is the (n + 1) th input image, the intermediate image is the (n + 1) th background image, and the left image is the initial foreground map and the additional foreground map detected in the It is a video. 8 (c), the right image is the (n + 2) th input image, the intermediate image is the (n + 2) th background image, and the left image is the initial foreground map and the additional foreground map detected in the . 8 (a), 8 (b), and 8 (c) are images taken while moving the surveillance system according to the embodiment of the present invention from left to right.

도 8의 (a)를 참조하면, n번째 배경 영상과는 달리 n번째 입력 영상에서는 물체(201)가 촬영된다. 이 경우 본 발명의 일 실시예에 따른 물체 탐지 방법에서는 상술한 바와 같이 초기 전경 맵 생성 단계(S130)에서 n번째 입력 영상에 속하는 픽셀들이 n번째 배경 영상에 속하게 될 확률을 구하며, 배경 영상에 속하게 될 확률이 임계치보다 낮은 픽셀들을 초기 전경 맵(202)으로 설정한다. 그 후, 추가 전경 맵 생성 단계(S140)에서 초기 전경 맵(202)에 인접한 영역을 추가 전경 후보 영역으로 설정하고 추가 전경 후보 영역에 속하는 픽셀들이 전경에 속하게 될 확률을 구하며, 배경에 속하게 될 확률보다 전경에 속하게 될 확률이 더 큰 픽셀들을 추가 전경 맵(203)으로 설정한다. 도 8의 (a)에서 왼쪽에 있는 영상을 보면, 이동하는 물체(201)에 대해 초기 전경 맵(202)과 추가 전경 맵(203)이 표시됨을 확인할 수 있다. Referring to FIG. 8 (a), unlike the n-th background image, the object 201 is captured in the n-th input image. In this case, in the object detection method according to the embodiment of the present invention, as described above, in the initial foreground map generation step (S130), the probability that the pixels belonging to the nth input image belongs to the nth background image is obtained, Pixels with probability lower than the threshold value to the initial foreground map 202. Thereafter, in the additional foreground map generation step S140, an area adjacent to the initial foreground map 202 is set as an additional foreground candidate area, the probability that the pixels belonging to the additional foreground candidate area belongs to the foreground, Pixels with a larger probability of belonging to the foreground are set to the additional foreground map 203. [ 8 (a), it can be seen that the initial foreground map 202 and the additional foreground map 203 are displayed with respect to the moving object 201. FIG.

도 8의 (b)를 참조하면, n+1번째 배경 영상은 n번째 입력 영상과 n번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 n번째 배경 영상을 변환하며, 본 발명의 감시 시스템이 이동하여 촬영하여 발생하는 상기 변환된 배경 영상의 미지영역은 n+1번째 입력 영상에 의해 복원되어 n+1번째 배경 영상이 생성된다. m+1번째 배경 영상이 생성된 후에는, 도 8의 (a)에 관하여 설명한 바와 같이 초기 전경 맵(202)과 추가 전경 맵(203)을 설정한다. Referring to FIG. 8B, the (n + 1) -th background image generates a transformation matrix from the n-th input image and the n-th input image, transforms the transformation matrix to the n-th background image, Is transformed by the (n + 1) -th input image to generate the (n + 1) -th background image. After the (m + 1) th background image is generated, the initial foreground map 202 and the foreground map 203 are set as described with reference to Fig. 8 (a).

도 9는 본 발명의 일 실시예에 따른 감시 시스템에 관한 개략적인 블럭도이다. Figure 9 is a schematic block diagram of a surveillance system in accordance with an embodiment of the present invention.

도 9를 참조하면, 본 발명의 일 실시예에 따른 감시 시스템은 도 1에 도시된 물체 탐지 방법에 의하여 제어될 수 있다. 따라서, 도 1에 도시된 물체 탐지 방법에서와 동일한 사항에 대해서는 이를 참조하고, 자세한 설명이 생략될 수 있다. Referring to FIG. 9, a monitoring system according to an embodiment of the present invention can be controlled by the object detection method shown in FIG. Therefore, the same items as those in the object detection method shown in FIG. 1 will be referred to, and a detailed description may be omitted.

본 발명의 일 실시예에 따른 감시 시스템(400)은 영상 입력부(401), 배경 영상 생성부(402), 초기 전경 맵 생성부(403), 및 추가 전경 맵 생성부(404)를 구비할 수 있다. The surveillance system 400 according to an exemplary embodiment of the present invention may include an image input unit 401, a background image generation unit 402, an initial foreground map generation unit 403, and an additional foreground map generation unit 404 have.

영상 입력부(401)는 감시 대상이 되는 감시 영역에 대한 입력 영상을 입력받는다. 입력 영상은 설정된 시간 간격에 따라 입력되는 프레임 영상일 수 있다. The video input unit 401 receives an input video for the surveillance region to be monitored. The input image may be a frame image input according to the set time interval.

배경 영상 생성부(402)는 영상 입력부(101)에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 이용하여 n번째 배경 영상을 생성할 수 있다. 배경 영상 생성부(402)는 영상 입력부(401)에 의해 n번째 입력 영상과 n-1번째 입력 영상에서 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 상기 변환 행렬을 생성하고, 상기 변환 행렬에 의해 상기 n번째 입력 영상의 좌표계에 맞도록 n-1번째 배경 영상을 변환하며, 상기 변환된 n-1번째 배경 영상에서의 미지정 영역을 상기 n번째 입력 영상으로 복원하여 상기 n번째 배경 영상을 생성할 수 있다. 상세하게는 배경 영상 생성부(402)는 상기 n번째 입력 영상과 상기 n-1번째 입력 영상에서 국소 특징점(local feature)을 추출하여 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 대응점을 구함으로 써 상기 변환 행렬을 생성할 수 있다. The background image generation unit 402 generates a transformation matrix from the n-th input image and the (n-1) -th input image input by the image input unit 101 and generates an n-th background image using the transformation matrix . The background image generation unit 402 generates the transformation matrix between the n-th input image and the (n-1) -th input image in the n-th input image and the (n-1) -th input image by the image input unit 401, Th background image so as to fit the coordinate system of the n-th input image by the transformation matrix, restores the unspecified area in the converted n-1th background image into the n-th input image, Images can be generated. In more detail, the background image generating unit 402 extracts local feature points from the n-th input image and the (n-1) -th input image, and outputs a local feature point corresponding to the n-th input image and the The transformation matrix can be generated.

초기 전경 맵 생성부(403)는 상기 n번째 입력 영상의 각각의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여, 상기 n번째 입력 영상의 픽셀들 중 상기 n번째 배경 영상의 픽셀에 속하게 될 확률이 낮은 픽셀들을 초기 전경 맵으로 설정할 수 있다. The initial foreground map generation unit 403 calculates the probability that each pixel of the n-th input image belongs to the n-th background image and belongs to the pixel of the n-th background image among the pixels of the n-th input image Pixels with low probability can be set as the initial foreground map.

추가 전경 맵 생성부(404)는 상기 초기 전경 맵에 인접한 영역을 상기 추가 전경 후보 영역으로 설정하고, 상기 추가 전경 후보 영역에 속하는 각각의 픽셀들이 상기 전경에 속하게 될 확률을 구하여, 상기 추가 전경 후보 영역의 픽셀들 중 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정할 수 있다. 보다 상세하게는 추가 전경 맵 생성부(404)는 상기 추가 전경 후보 영역의 픽셀들이 상기 전경에 속하게 될 확률과 상기 배경에 속하게 될 확률을 비교하여 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정할 수 있다. The additional foreground map generating unit 404 sets an area adjacent to the initial foreground map as the additional foreground candidate area and obtains the probability that each of the pixels belonging to the additional foreground candidate area will belong to the foreground, Pixels having a high probability of belonging to the foreground among the pixels of the area can be set as an additional foreground map. More specifically, the additional foreground map generator 404 compares the probability that the pixels of the additional foreground candidate area belong to the foreground and the probability that the pixels of the additional foreground candidate area belong to the background, .

본 발명은 상술한 실시형태 및 첨부된 도면에 의해 한정되는 것이 아니고, 첨부된 청구범위에 의해 한정하고자 하며, 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 형태의 치환, 변형 및 변경이 가능하다는 것은 당 기술분야의 통상의 지식을 가진 자에게 자명할 것이다. It is intended that the present invention not be limited by the foregoing embodiments and the accompanying drawings, but rather by the appended claims, and that various changes, substitutions, and alterations can be made hereto without departing from the spirit of the invention as defined in the appended claims. It will be apparent to those skilled in the art that changes may be made.

도 1은 본 발명의 일 실시예에 따른 이동 물체 탐지 방법의 흐름도를 나타낸다.FIG. 1 shows a flowchart of a moving object detection method according to an embodiment of the present invention.

도 2는 도 1의 배경 영상 생성 단계의 상세한 흐름도를 나타낸다. FIG. 2 shows a detailed flowchart of the background image generation step of FIG.

도 3은 도 1의 초기 전경 맵 생성 단계의 상세한 흐름도를 나타낸다.FIG. 3 shows a detailed flowchart of the initial foreground map generation step of FIG.

도 4는 도 1의 추가 전경 맵 생성 단계의 상세한 흐름도를 나타낸다.4 shows a detailed flowchart of the additional foreground map generation step of FIG.

도 5는 배경 영상을 생성하는 과정을 단계별로 나타내는 사진이다.5 is a photograph showing the process of generating a background image step by step.

도 6은 n번째 입력 영상에서 설정된 제1 비교 영역을 나타낸다. 6 shows a first comparison area set in the n-th input image.

도 7은 초기 전경 맵과 추가 전경 후보 영역이 설정된 입력 영상을 도시한다. 7 shows an input image in which an initial foreground map and an additional foreground candidate area are set.

도 8은 본 발명의 일 실시예에 따른 감시 시스템의 물체 탐지를 나타내는 사진들이다.8 is a photograph showing an object detection of a surveillance system according to an embodiment of the present invention.

도 9는 본 발명의 일 실시예에 따른 감시 시스템을 나타내는 블럭도이다.9 is a block diagram illustrating a surveillance system in accordance with an embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명>Description of the Related Art

101: 입력 영상 102: 픽셀101: input image 102: pixel

103: 제1 비교 영역 105a, 105b: 초기 전경 맵103: first comparison area 105a, 105b: initial foreground map

106, 107, 108: 추가 전경 맵 110: 미지정 영역106, 107, 108: additional foreground map 110: unspecified area

Claims (14)

일정한 시간 간격마다 영상이 입력되는 감시 시스템에서 상기 영상을 전경과 배경으로 판별하는 이동 물체 탐지 방법에 있어서, A moving object detection method for discriminating the image as foreground and background in a surveillance system in which an image is input at regular time intervals, (a) 상기 감시 시스템에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 이용하여 n번째 배경 영상을 생성하는 단계;(a) generating a transformation matrix from an n-th input image and an (n-1) -th input image input by the monitoring system, and generating an n-th background image using the transformation matrix; (b) 상기 n번째 입력 영상의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여 초기 전경 맵을 설정하는 단계;(b) setting an initial foreground map by obtaining a probability that a pixel of the n-th input image belongs to the n-th background image; (c) 상기 초기 전경 맵에 인접한 영역을 추가 전경 후보 영역으로 설정하고 상기 추가 전경 후보 영역에 속하는 픽셀이 상기 전경에 속하게 될 확률을 구하여 추가 전경 맵을 설정하는 단계;를 구비하는 것을 특징으로 하는 물체 탐지 방법.(c) setting an area adjacent to the initial foreground map as an additional foreground candidate area, and determining a probability that a pixel belonging to the additional foreground candidate area belongs to the foreground, and setting an additional foreground map Object detection method. 청구항 2은(는) 설정등록료 납부시 포기되었습니다.Claim 2 has been abandoned due to the setting registration fee. 제1항에 있어서,The method according to claim 1, 상기 (a) 단계는,The step (a) (a1) 상기 감시 시스템에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상에서 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 상기 변환 행렬을 생성하는 단계;(a1) generating the transformation matrix between the n-th input image and the (n-1) -th input image in the n-th input image and the (n-1) -th input image input by the monitoring system; (a2) 상기 변환 행렬에 의해 상기 n번째 입력 영상의 좌표계에 맞도록 n-1번째 배경 영상을 변환하는 단계; 및(a2) transforming the (n-1) th background image to fit the coordinate system of the n-th input image by the transformation matrix; And 청구항 3은(는) 설정등록료 납부시 포기되었습니다.Claim 3 has been abandoned due to the setting registration fee. 제1항에 있어서,The method according to claim 1, 상기 (a) 단계는 상기 n번째 입력 영상과 상기 n-1번째 입력 영상에서 국소 특징점(local feature)을 추출하여 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 대응점을 구함으로써 상기 변환 행렬을 생성하는 것을 특징으로 하는 물체 탐지 방법.(A) extracting local feature points from the n-th input image and the (n-1) -th input image to obtain corresponding points between the n-th input image and the (n-1) -th input image, And a matrix is generated. 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 일정한 시간 간격마다 입력되는 영상에 대하여 전경과 배경을 판별하는 감시 시스템에 있어서,A surveillance system for discriminating foreground and background from images input at regular time intervals, 입력 영상을 입력받는 영상 입력부;A video input unit receiving an input video; 상기 영상 입력부에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 이용하여 n번째 배경 영상을 생성하는 배경 영상 생성부;A background image generation unit for generating a transformation matrix from an n-th input image and an (n-1) -th input image input by the image input unit and generating an n-th background image using the transformation matrix; 상기 n번째 입력 영상의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여 초기 전경 맵을 설정하는 초기 전경 맵 생성부; 및An initial foreground map generator configured to determine a probability that a pixel of the n-th input image belongs to the n-th background image to set an initial foreground map; And 상기 초기 전경 맵에 인접한 영역을 추가 전경 후보 영역으로 설정하고 상기 추가 전경 후보 영역에 속하는 픽셀이 상기 전경에 속하게 될 확률을 구하여 추가 전경 맵을 설정하는 추가 전경 맵 생성부;를 구비하는 것을 특징으로 하는 감시 시스템.And an additional foreground map generator configured to set an area adjacent to the initial foreground map as an additional foreground candidate area and obtain a probability that a pixel belonging to the additional foreground candidate area belongs to the foreground to set an additional foreground map. Surveillance system. 청구항 10은(는) 설정등록료 납부시 포기되었습니다.Claim 10 has been abandoned due to the setting registration fee. 제9항에 있어서,10. The method of claim 9, 상기 배경 영상 생성부는, 상기 영상 입력부에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상에서 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 상기 변환 행렬을 생성하고, 상기 변환 행렬에 의해 상기 n번째 입력 영상의 좌표계에 맞도록 n-1번째 배경 영상을 변환하며, 상기 변환된 n-1번째 배경 영상에서의 미지정 영역을 상기 n번째 입력 영상으로 복원하여 상기 n번째 배경 영상을 생성하는 것을 특징으로 하는 감시 시스템.The background image generation unit generates the transformation matrix between the n-th input image and the (n-1) -th input image in the n-th input image and the (n-1) -th input image input by the image input unit, Th background image so as to correspond to the coordinate system of the n-th input image, and restores the unspecified area in the converted n-1th background image into the n-th input image, The monitoring system comprising: 청구항 11은(는) 설정등록료 납부시 포기되었습니다.Claim 11 has been abandoned due to the set registration fee. 상기 배경 영상 생성부는, 상기 n번째 입력 영상과 상기 n-1번째 입력 영상에서 국소 특징점(local feature)을 추출하여 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 대응점을 구함으로써 상기 변환 행렬을 생성하는 것을 특징으로 하는 감시 시스템.The background image generation unit extracts a local feature point from the n-th input image and the (n-1) -th input image to obtain a corresponding point between the n-th input image and the n-1-th input image, And generates a matrix. 삭제delete 삭제delete 삭제delete
KR1020090006274A 2009-01-23 2009-01-23 Method for detecting moving object and surveillance system thereof KR101394473B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090006274A KR101394473B1 (en) 2009-01-23 2009-01-23 Method for detecting moving object and surveillance system thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090006274A KR101394473B1 (en) 2009-01-23 2009-01-23 Method for detecting moving object and surveillance system thereof

Publications (2)

Publication Number Publication Date
KR20100086839A KR20100086839A (en) 2010-08-02
KR101394473B1 true KR101394473B1 (en) 2014-05-13

Family

ID=42753813

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090006274A KR101394473B1 (en) 2009-01-23 2009-01-23 Method for detecting moving object and surveillance system thereof

Country Status (1)

Country Link
KR (1) KR101394473B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101197417B1 (en) 2010-09-06 2012-11-05 주식회사 동희산업 Displacement diagnosis sensor of brake pedal having stop lamp switch function
KR101468861B1 (en) * 2013-04-10 2014-12-04 서울대학교산학협력단 Active attentional sampling method for accelerating foreground detection from video, and computer-readable recording medium for the same
KR101272645B1 (en) * 2013-04-24 2013-06-10 (주)나인정보시스템 Detection apparatus and method for objects in the image using spatio-temporal gaussian mixture background model
KR101519444B1 (en) * 2013-10-02 2015-05-12 숭실대학교산학협력단 Security Monitoring System Using The Image Transformation And Control Method Thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005122094A1 (en) * 2004-06-14 2005-12-22 Agency For Science, Technology And Research Method for detecting desired objects in a highly dynamic environment by a monitoring system
KR20060033752A (en) * 2006-03-07 2006-04-19 (주)나인정보시스템 Manless supervision system of illegal parking/standing by image detection and the method thereof
KR100834550B1 (en) * 2007-12-17 2008-06-02 (주)동화이엔지 Detecting method at automatic police enforcement system of illegal-stopping and parking vehicle and system thereof
KR20080062520A (en) * 2006-12-29 2008-07-03 아주대학교산학협력단 The extraction method of moving object and the apparatus thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005122094A1 (en) * 2004-06-14 2005-12-22 Agency For Science, Technology And Research Method for detecting desired objects in a highly dynamic environment by a monitoring system
KR20060033752A (en) * 2006-03-07 2006-04-19 (주)나인정보시스템 Manless supervision system of illegal parking/standing by image detection and the method thereof
KR20080062520A (en) * 2006-12-29 2008-07-03 아주대학교산학협력단 The extraction method of moving object and the apparatus thereof
KR100834550B1 (en) * 2007-12-17 2008-06-02 (주)동화이엔지 Detecting method at automatic police enforcement system of illegal-stopping and parking vehicle and system thereof

Also Published As

Publication number Publication date
KR20100086839A (en) 2010-08-02

Similar Documents

Publication Publication Date Title
CN109598794B (en) Construction method of three-dimensional GIS dynamic model
JP4429298B2 (en) Object number detection device and object number detection method
Schoenberg et al. Segmentation of dense range information in complex urban scenes
Desa et al. Image subtraction for real time moving object extraction
JP6397379B2 (en) CHANGE AREA DETECTION DEVICE, METHOD, AND PROGRAM
EP3346445A1 (en) Methods and devices for extracting an object from a video sequence
US20230104196A1 (en) Device and a Method for Processing Data Sequences Using a Convolutional Neural Network
KR101394473B1 (en) Method for detecting moving object and surveillance system thereof
JP2021068056A (en) On-road obstacle detecting device, on-road obstacle detecting method, and on-road obstacle detecting program
CN108876807B (en) Real-time satellite-borne satellite image moving object detection tracking method
Zhang et al. An optical flow based moving objects detection algorithm for the UAV
JP4918615B2 (en) Object number detection device and object number detection method
JP4201958B2 (en) Moving image object extraction device
Li et al. Fast visual tracking using motion saliency in video
CN109087378A (en) Image processing method and system
Shafiee et al. Model-based tracking: Temporal conditional random fields
Kalsotra et al. Morphological based moving object detection with background subtraction method
JP2009205695A (en) Apparatus and method for detecting the number of objects
Abello et al. A graph-based method for joint instance segmentation of point clouds and image sequences
Zhou et al. Improving video segmentation by fusing depth cues and the ViBe algorithm
JP2021033374A (en) Object recognition device, object recognition method, and object recognition program
de Blois et al. Learning of image dehazing models for segmentation tasks
Babu et al. Development and performance evaluation of enhanced image dehazing method using deep learning networks
CN111476821B (en) Target tracking method based on online learning
CN117173104B (en) Low-altitude unmanned aerial vehicle image change detection method and system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180425

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190425

Year of fee payment: 6