KR101394473B1 - Method for detecting moving object and surveillance system thereof - Google Patents
Method for detecting moving object and surveillance system thereof Download PDFInfo
- Publication number
- KR101394473B1 KR101394473B1 KR1020090006274A KR20090006274A KR101394473B1 KR 101394473 B1 KR101394473 B1 KR 101394473B1 KR 1020090006274 A KR1020090006274 A KR 1020090006274A KR 20090006274 A KR20090006274 A KR 20090006274A KR 101394473 B1 KR101394473 B1 KR 101394473B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- input image
- foreground
- input
- background
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
본 발명은, 일정한 시간 간격마다 영상이 입력되는 감시 시스템에서 상기 영상을 전경과 배경으로 판별하는 이동 물체 탐지 방법에 있어서, (a) 상기 감시 시스템에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 이용하여 n번째 배경 영상을 생성하는 단계와, (b) 상기 n번째 입력 영상의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여 초기 전경 맵을 설정하는 단계와, (c) 상기 초기 전경 맵에 인접한 영역을 추가 전경 후보 영역으로 설정하고 상기 추가 전경 후보 영역에 속하는 픽셀이 상기 전경에 하는 속하게 될 확률을 구하여 추가 전경 맵을 설정하는 단계를 구비하는 이동 물체 탐지 방법 및 그 감시 시스템을 제공한다. The present invention relates to a moving object detection method for discriminating an image as foreground and background in a surveillance system in which an image is input at regular time intervals, the method comprising the steps of: (a) Generating a transform matrix from the input image and generating an n-th background image using the transformation matrix; (b) obtaining a probability that a pixel of the n-th input image belongs to the n-th background image, (C) setting an area adjacent to the initial foreground map as an additional foreground candidate area and setting an additional foreground map by obtaining a probability that a pixel belonging to the additional foreground candidate area belongs to the foreground A moving object detection method and a monitoring system thereof are provided.
Description
본 발명은 이동 물체 탐지 방법 및 그 감시 시스템에 관한 것으로서, 보다 상세하게는 팬틸트 카메라에 의해 촬영된 영상에서 이동 물체를 탐지할 수 있는 이동 물체 탐지 방법 및 그 감시 시스템에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a moving object detection method and a monitoring system thereof, and more particularly, to a moving object detection method and a monitoring system thereof capable of detecting moving objects in an image photographed by a pan / tilt camera.
본 발명은 지식경제부의 군집지능을 이용한 사회안전 로봇 개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제번호: 0148-2007011, 과제명: 강인적응형 영상감시 알고리즘].The present invention is derived from a research carried out as a part of the social safety robot development project using the cluster intelligence of the Ministry of Knowledge Economy [assignment number: 0148-2007011, title: Robust adaptive video surveillance algorithm].
종래의 이동 물체를 탐지하는 기법은 대부분의 고정 카메라에 적용되어 많이 사용되어 왔다. 카메라가 고정되어 있는 경우 이동 물체 탐지 알고리즘은 카메라의 특성을 이용해서, 고정되어 있는 배경을 모델링하고 입력 영상에서 배경 영역을 제거하는 방법이 주로 사용되었다. 대표적으로 배경 모델링에 가장 많이 사용되는 방법은 가우시안 혼합 모델(Gaussian Mixture Model)로서, 픽셀별로 다수의 가우시안 분포를 갖는 배경의 확률을 모델링한다. 고정 카메라에서는 물체 탐지 속도가 빠르고 비교적 정확한 픽셀 단위 배경 모델링 방식이 이용되었다. Conventional moving object detection techniques have been applied to most fixed cameras and have been widely used. When the camera is fixed, the moving object detection algorithm is mainly used to model the fixed background and remove the background area from the input image using the characteristics of the camera. Typically, the most commonly used method for background modeling is the Gaussian Mixture Model, which models the probability of a background with multiple Gaussian distributions per pixel. Fixed cameras use a pixel-based background modeling method with fast object detection speed and relatively accurate pixel-unit background.
또한, 팬틸트 카메라에서도 입력된 영상에서 물체를 탐지하기 위해 픽셀 단위 배경 모델링 방식을 채택하였다. 그러나, 픽셀 단위 배경 모델링 방식은 카메라가 비추고 있는 배경의 위치가 변하지 않는 다는 것을 가정한다. 따라서 카메라 자체가 바람에 의해 미세하기 흔들리는 등의 실제 응용되는 감시 환경에서는 배경의 모서리 영역이 움직임으로 탐지되는 문제점이 있다. In addition, a pixel - by - pixel background modeling method is adopted to detect objects in input images. However, the pixel-based background modeling method assumes that the position of the background illuminated by the camera does not change. Therefore, there is a problem that the edge area of the background is detected as a motion in a practical application surveillance environment where the camera itself is slightly shaken by the wind.
특히, 카메라가 고정되지 않은 환경에서 이러한 픽셀 단위 배경 모델링은 영상의 변환 과정에서 발생할 수 있는 오차 때문에 다음과 같은 세 가지 문제가 발생할 수 있다. 먼저 배경 모서리 탐지 문제로서 배경 영상과 현재 영상과의 부정합으로 인해 발생하는 문제이다. 동일한 색상을 갖는 배경 물체의 내부는 큰 영향이 없지만, 배경 물체의 경계면이 되는 모서리 부분은 모델 자체가 변할 수 있다. 실제로 변환 행렬은 영상이 2차원이라는 가정이 필요하며, 실제 카메라를 통한 입력 영상은 3차원 모델이 2차원으로 투영된 영상이기 때문에, 시차에 따른 오차도 발생할 수 있다. 이러한 문제로 인해 배경의 모서리 영역이 이동 물체로 탐지되는 문제가 발생한다. In particular, in the environment where the camera is not fixed, such pixel-based background modeling may cause the following three problems due to errors that may occur in the image conversion process. First, it is a problem caused by mismatch between background image and current image as background edge detection problem. The inside of a background object having the same color does not have a great influence, but a corner portion that becomes a boundary surface of a background object can change the model itself. In fact, it is necessary to assume that the image is a two-dimensional image. In fact, since an input image through a camera is a two-dimensional image of a three-dimensional model, errors due to parallax may occur. Such a problem causes a problem that the edge area of the background is detected as a moving object.
둘째로 동적인 배경에서 노이즈 발생 문제이다. 이는 배경에는 흔들리는 나뭇가지나 회전하는 선풍기 등 실제 배경임에도 불구하고, 동적으로 움직이는 배경이 존재한다. 가우시안 혼합 모델에서는 배경 모델을 다수 생성하여 이러한 문제를 해결하지만, 각 픽셀별로 필요한 모델의 개수를 알 수 없기 때문에 이러한 가정에 어긋나는 경우가 많다. 따라서 분수와 같은 동적인 요소가 많은 환경에서는 동적인 배경을 이동 물체로 탐지하는 경우가 발생한다. Second, it is a matter of noise generation in dynamic background. This is a dynamic background, even though it is a real background, such as shaking branches or rotating fans in the background. In the Gaussian mixture model, a number of background models are generated to solve this problem. However, since the number of models required for each pixel is not known, many cases are not satisfied. Therefore, in an environment with many dynamic elements such as fractions, a dynamic background may be detected as a moving object.
셋째로 유사한 색상의 물체 탐지 오류 문제이다. 배경 모델을 흑백으로 생성했을 경우, 화면상의 색상값의 평균을 구해서 명암도로 나타나기 때문에, 전혀 다른 색상이라도 동일한 명암도로 나타날 수 있다. 따라서 실제 배경과 다른 색의 물체가 나타나도 탐지하지 못하는 경우가 발생한다. 배경 모델이 칼라 모델인 경우라도 유사한 색상의 물체가 나타난 경우에 해당 물체를 탐지하지 못하는 경우가 발생한다.Third, similar color object detection error problem. When a background model is created in black and white, the average of the color values on the screen is obtained, and the color intensity is represented by the intensity. Therefore, even different colors can be displayed with the same intensity. Therefore, even if an object of a different color than the actual background appears, it may not be detected. Even if the background model is a color model, when an object of a similar color appears, the object may not be detected.
본 발명의 주된 목적은 팬틸트 카메라와 같은 감시 시스템의 입력 영상에서 이동 물체를 탐지할 수 있는 이동 물체 탐지 방법 및 그 감시 시스템을 제공하는 것을 목적으로 한다.The main object of the present invention is to provide a moving object detection method and a monitoring system thereof capable of detecting moving objects in an input image of a surveillance system such as a pan / tilt camera.
본 발명의 일 실시예에 관한 이동 물체 탐지 방법은, 일정한 시간 간격마다 영상이 입력되는 감시 시스템에서 상기 영상을 전경과 배경으로 판별하는 이동 물체 탐지 방법에 있어서, (a) 상기 감시 시스템에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 이용하여 n번째 배경 영상을 생성하는 단계와, (b) 상기 n번째 입력 영상의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여 초기 전경 맵을 설정하는 단계와, (c) 상기 초기 전경 맵에 인접한 영역을 추가 전경 후보 영역으로 설정하고 상기 추가 전경 후보 영역에 속하는 픽셀이 상기 전경에 속하게 될 확률을 구하여 추가 전경 맵을 설정하는 단계를 구비한다.A moving object detection method according to an embodiment of the present invention is a moving object detection method for discriminating the image as foreground and background in a surveillance system in which an image is input at regular time intervals, the method comprising: (a) Generating an n-th background image using the transform matrix, and (b) generating a transform matrix from the n-th input image and the n-1-th input image, (C) setting a region adjacent to the initial foreground map as an additional foreground candidate region, and determining a probability that a pixel belonging to the additional foreground candidate region belongs to the foreground region And setting an additional foreground map.
본 발명에 있어서, 상기 (a) 단계는, (a1) 상기 감시 시스템에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상에서 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 상기 변환 행렬을 생성하는 단계와, (a2) 상기 변환 행렬에 의해 상기 n번째 입력 영상의 좌표계에 맞도록 n-1번째 배경 영상을 변환하는 단계와, (a3) 상기 변환된 n-1번째 배경 영상에서의 미지정 영역을 상기 n번째 입력 영 상으로 복원하여 상기 n번째 배경 영상을 생성하는 단계를 구비할 수 있다.In the present invention, the step (a) includes the steps of: (a1) calculating a difference between the n-th input image and the (n-1) -th input image in the n- (A2) converting an (n-1) -th background image to fit the coordinate system of the n-th input image by the transformation matrix, and (a3) And generating the n-th background image by restoring the undetermined region in the n-th input image to the n-th input image.
본 발명에 있어서, 상기 (a) 단계는 상기 n번째 입력 영상과 상기 n-1번째 입력 영상에서 국소 특징점(local feature)을 추출하여 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 대응점을 구함으로써 상기 변환 행렬을 생성할 수 있다.In the present invention, the step (a) extracts a local feature point from the n-th input image and the (n-1) -th input image, To generate the transformation matrix.
본 발명에 있어서, 상기 (b) 단계는, (b1) 상기 n번째 입력 영상의 각각의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하는 단계와, (b2) 상기 n번째 입력 영상의 픽셀들 중 상기 n번째 배경 영상의 픽셀에 속하게 될 확률이 낮은 픽셀들을 초기 전경 맵으로 설정하는 단계를 구비할 수 있다.(B1) calculating a probability that each pixel of the n-th input image belongs to the n-th background image; (b2) calculating a probability that each pixel of the n-th input image belongs to the n-th background image; And setting the pixels having low probability of belonging to the pixels of the n-th background image as the initial foreground map.
본 발명에 있어서, 상기 (b1) 단계는, (b11) 상기 n번째 입력 영상 중 일부를 제1 비교 영역으로 설정하는 단계와, (b12) 상기 제1 비교 영역에 속하는 픽셀들에 대하여 r, g, b, x, y를 구성 성분으로 갖는 제1 벡터를 생성하는 단계와, (b13) 상기 n번째 배경 영상 중 상기 제1 비교 영역에 대응되는 제2 비교 영역을 설정하는 단계와, (b14) 상기 제2 비교 영역에 속하는 픽셀들에 대하여 r, g, b, x, y를 구성 성분으로 갖는 제2 벡터를 생성하는 단계와, (b15) 상기 제2 벡터들로 이루어진 배경 벡터 공간을 생성하는 단계와, (b16) 상기 제1 벡터를 상기 배경 벡터 공간에 대하여 커널 밀도 추정(Kernel density estimation)을 수행하여 상기 제1 비교 영역에 속하는 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구할 수 있다. (여기서, r, g, b는 상기 픽셀의 색상값이며, x, y는 상기 픽셀의 좌표임.)In the present invention, the step (b1) includes the steps of: (b11) setting a part of the n-th input image as a first comparison area; and (b12) (b13) setting a second comparison area corresponding to the first comparison area among the n-th background image, (b14) setting a second comparison area corresponding to the first comparison area, Generating a second vector having r, g, b, x, and y as components of pixels belonging to the second comparison region; and (b15) generating a background vector space composed of the second vectors (B16) Kernel density estimation is performed on the background vector space of the first vector to determine a probability that a pixel belonging to the first comparison area belongs to the n-th background image . (Where r, g, and b are the color values of the pixel, and x and y are the coordinates of the pixel).
본 발명에 있어서, 상기 (c) 단계는, (c1) 상기 초기 전경 맵에 인접한 영역 을 상기 추가 전경 후보 영역으로 설정하는 단계와, (c2) 상기 추가 전경 후보 영역에 속하는 각각의 픽셀들이 상기 전경에 속하게 될 확률을 구하는 단계와, (c3) 상기 추가 전경 후보 영역의 픽셀들 중 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정하는 단계를 구비할 수 있다.In the present invention, the step (c) further includes the steps of: (c1) setting an area adjacent to the initial foreground map as the additional foreground candidate area; (c2) (C3) setting a pixel having a high probability of belonging to the foreground among the pixels of the additional foreground candidate region as an additional foreground map.
본 발명에 있어서, 상기 (c2) 단계는, (c21) 상기 추가 전경 후보 영역에 속하는 픽셀들에 대하여 r, g, b, x, y를 구성 성분으로 하는 전경 벡터를 생성하는 단계와, (c22) 상기 전경 벡터들로 이루어진 전경 벡터 공간을 생성하는 단계와, (c23) 상기 전경 벡터 공간에 대하여 커널 밀도 추정을 수행하여 상기 픽셀이 상기 전경에 속하게 될 확률을 구하는 단계를 구비할 수 있다.In the present invention, the step (c2) includes the steps of: (c21) generating a foreground vector having r, g, b, x, and y as components of pixels belonging to the additional foreground candidate area; Generating a foreground vector space including the foreground vectors; and (c23) performing a kernel density estimation on the foreground vector space to obtain a probability that the pixel belongs to the foreground.
본 발명에 있어서, 상기 (c3) 단계는 상기 추가 전경 후보 영역의 픽셀들이 상기 전경에 속하게 될 확률과 상기 배경에 속하게 될 확률을 비교하여 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정하는 단계를 구비할 수 있다.In the present invention, the step (c3) compares the probability that the pixels of the additional foreground candidate area belong to the foreground and the probability of belonging to the background, and sets pixels having a high probability of belonging to the foreground as an additional foreground map The method comprising the steps of:
본 발명의 일 실시예에 따른 감시 시스템은, 일정한 시간 간격마다 입력되는 영상에 대하여 전경과 배경을 판별하는 감시 시스템에 있어서, 입력 영상을 입력받는 영상 입력부와, 상기 영상 입력부에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 이용하여 n번째 배경 영상을 생성하는 배경 영상 생성부와, 상기 n번째 입력 영상의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여 초기 전경 맵을 설정하는 초기 전경 맵 생성부와, 상기 초기 전경 맵에 인접한 영역을 추가 전경 후보 영역으로 설정하고 상기 추가 전경 후보 영역에 속하는 픽셀이 상기 전경에 속하게 될 확률을 구하여 추가 전경 맵을 설정하는 추가 전경 맵 생성부를 구비할 수 있다.The surveillance system according to an embodiment of the present invention is a surveillance system for distinguishing foreground and background from images input at regular time intervals. The surveillance system includes an image input unit for receiving an input image, A background image generation unit that generates a transformation matrix from the input image and the (n-1) th input image and generates an n-th background image using the transformation matrix; An initial foreground map generator for setting an initial foreground map and a region adjacent to the initial foreground map as an additional foreground candidate region and determining a probability that a pixel belonging to the additional foreground candidate region belongs to the foreground, And an additional foreground map generator for setting a foreground map.
본 발명에 있어서, 상기 배경 영상 생성부는, 상기 영상 입력부에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상에서 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 상기 변환 행렬을 생성하고, 상기 변환 행렬에 의해 상기 n번째 입력 영상의 좌표계에 맞도록 n-1번째 배경 영상을 변환하며, 상기 변환된 n-1번째 배경 영상에서의 미지정 영역을 상기 n번째 입력 영상으로 복원하여 상기 n번째 배경 영상을 생성할 수 있다.In the present invention, the background image generation unit may generate the transformation matrix between the n-th input image and the (n-1) -th input image in the n-th input image and the (n-1) -th input image input by the image input unit Th background image so as to fit the coordinate system of the n-th input image by the transformation matrix, restoring the unspecified area in the transformed n-1-th background image into the n-th input image, an n-th background image can be generated.
본 발명에 있어서, 상기 배경 영상 생성부는, 상기 n번째 입력 영상과 상기 n-1번째 입력 영상에서 국소 특징점(local feature)을 추출하여 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 대응점을 구함으로써 상기 변환 행렬을 생성할 수 있다.In the present invention, the background image generation unit may extract a local feature point from the n-th input image and the (n-1) -th input image, and output a local feature point corresponding to the n-th input image and the To generate the transformation matrix.
본 발명에 있어서, 상기 초기 전경 맵 생성부는, 상기 n번째 입력 영상의 각각의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여, 상기 n번째 입력 영상의 픽셀들 중 상기 n번째 배경 영상의 픽셀에 속하게 될 확률이 낮은 픽셀들을 초기 전경 맵으로 설정할 수 있다.In the present invention, the initial foreground map generator may calculate a probability that each pixel of the n-th input image belongs to the n-th background image, Can be set as the initial foreground map.
본 발명에 있어서, 상기 추가 전경 맵 생성부는, 상기 초기 전경 맵에 인접한 영역을 상기 추가 전경 후보 영역으로 설정하고, 상기 추가 전경 후보 영역에 속하는 각각의 픽셀들이 상기 전경에 속하게 될 확률을 구하여, 상기 추가 전경 후보 영역의 픽셀들 중 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으 로 설정할 수 있다.In the present invention, the additional foreground map generator sets an area adjacent to the initial foreground map as the additional foreground candidate area, calculates a probability that each of the pixels belonging to the additional foreground candidate area belongs to the foreground, Pixels having a high probability of belonging to the foreground among the pixels in the additional foreground candidate region can be set as an additional foreground map.
본 발명에 있어서, 상기 추가 전경 맵 생성부는, 상기 추가 전경 후보 영역의 픽셀들이 상기 전경에 속하게 될 확률과 상기 배경에 속하게 될 확률을 비교하여 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정할 수 있다.In the present invention, the additional foreground map generator compares the probability that the pixels of the additional foreground candidate area belong to the foreground and the probability that the pixels of the additional foreground candidate area belong to the background, Can be set.
상기와 같이 이루어진 본 발명의 이동 물체 탐지 방법 및 그 감시 시스템은 동적인 배경에서의 노이즈를 감소시키며, 유사한 색상의 물체를 잘못 탐지하는 것을 방지할 수 있다. The moving object detection method and the monitoring system of the present invention as described above reduce noise in a dynamic background and can prevent false detection of an object of a similar color.
이하, 첨부된 도면에 도시된 본 발명의 실시예를 참조하여 본 발명을 상세히 설명한다. Hereinafter, the present invention will be described in detail with reference to embodiments of the present invention shown in the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 이동 물체 탐지 방법의 흐름도를 나타낸다. 상기 이동 물체 탐지 방법은 도 9의 감시 시스템(200)에 의해 구현될 수 있다. FIG. 1 shows a flowchart of a moving object detection method according to an embodiment of the present invention. The moving object detection method can be implemented by the monitoring system 200 of FIG.
도 1을 참조하면, 본 발명의 일 실시예에 따른 이동 물체 탐지 방법은 입력 영상 입력단계(S110), 배경 영상 생성 단계(S120), 초기 전경 맵 생성 단계(S130), 및 추가 전경 맵 생성(S140)를 구비할 수 있다. Referring to FIG. 1, a moving object detection method according to an embodiment of the present invention includes an input image input step S110, a background image generation step S120, an initial foreground map generation step S130, S140).
입력 영상 입력단계(S110)는 감시 대상이 되는 감시 영역에 대한 입력 영상을 입력받는다. 입력 영상은 설정된 시간 간격에 따라 입력되는 프레임 영상일 수 있다. The input image input step S110 receives the input image for the surveillance region to be monitored. The input image may be a frame image input according to the set time interval.
배경 영상 생성 단계(S120)는 상기 감시 시스템에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 이용하여 n번째 배경 영상을 생성할 수 있다. 배경 영상 생성 단계(S120)는 변환 행렬 생성 단계(S121), 변환 행렬에 의한 배경 영상 변환 단계(S122), 및 배경 영상 복원 단계(S123)를 구비할 수 있다.The background image generation step S120 may generate a transformation matrix from the n-th input image and the (n-1) -th input image input by the monitoring system, and generate an n-th background image using the transformation matrix. The background image generation step S120 may include a transformation matrix generation step S121, a background image transformation step S122 using a transformation matrix, and a background image restoration step S123.
변환 행렬 생성 단계(S121)에서는 상기 감시 시스템에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상에서 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 상기 변환 행렬을 생성한다. 상세하게는, 변환 행렬 생성 단계(S121)에서는 상기 n번째 입력 영상과 상기 n-1번째 입력 영상에서 국소 특징점(local feature)을 추출하여 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 대응점을 구함으로써 상기 변환 행렬을 생성한다.In the transformation matrix generation step S121, the transformation matrix between the n-th input image and the (n-1) -th input image is generated from the n-th input image and the (n-1) -th input image input by the monitoring system. In more detail, in the transform matrix generation step S121, a local feature point is extracted from the n-th input image and the (n-1) -th input image, and the local feature point is extracted from the n-th input image and the And the transformation matrix is generated by obtaining corresponding points.
변환 행렬에 의한 배경 영상 변환 단계(S122)는 상기 변환 행렬에 의해 상기 n번째 입력 영상의 좌표계에 맞도록 n-1번째 배경 영상을 변환한다. The background image transformation step S122 of the transformation matrix transforms the (n-1) th background image to fit the coordinate system of the n-th input image by the transformation matrix.
본 발명의 일 실시예에와 같이 팬틸트 카메라를 구비한 감시 시스템은 팬틸트 카메라가 이동하면서 영상을 촬영하므로 n번째 입력 영상과 n-1번째 입력 영상은 좌표계가 서로 상이하며 따라서 n-1번째 입력 영상을 도대로 생성된 n-1번째 배경 영상과 n번째 입력 영상은 서로 좌표계가 다르므로 서로 비교가 불가능하다. 그러므로, 변환 행렬에 의한 배경 영상 변환 단계(S122)에서는 변환 행렬에 의해 상기 n번째 입력 영상의 좌표계에 맞도록 n-1번째 배경 영상을 변환한다.As in the embodiment of the present invention, the surveillance system equipped with the pan / tilt camera captures an image while moving the pan / tilt camera, so that the coordinate system of the n-th input image and the n-1th input image are different from each other, The n-1th background image and the n-th input image generated based on the input image are not mutually comparable because their coordinate systems are different from each other. Therefore, in the background image conversion step S122 by the transformation matrix, the (n-1) th background image is transformed according to the coordinate system of the n-th input image by the transformation matrix.
배경 영상 복원 단계(S123)는 상기 변환된 n-1번째 배경 영상에서의 미지영 역을 상기 n번째 입력 영상으로 복원하여 상기 n번째 배경 영상을 생성한다. The background image reconstruction step S123 reconstructs the n-th input image of the transformed n-1th background image to generate the n-th background image.
도 5는 배경 영상을 생성하는 과정을 단계별로 나타내는 사진이다. 도 5의 (a)는 n-1번째 배경 영상이며, 도 5의 (b)는 n번째 입력 영상이다. 본 발명의 감시 시스템은 오른쪽에서 왼쪽 방향으로 이동하면서 영상을 촬영하므로 도 5의 (a) 및 (b)에 도시된 바와 같이 n번째 입력 영상과 n-1번째 배경 영상은 차이가 있다. 도 5의 (c)는 상기 변환 행렬에 의해 변환된 n-1번째 배경 영상이다. 상기 변경 행렬은 n번째 입력 영상의 좌표계에 맞도록 영상을 변환시키므로 도 5의 (c)에 도시된 바와 같이 미지정 영역(110)이 발생한다. 미지정 영역(110)은 본 발명의 감시 시스템이 이동함에 따라 발생한 것이다. 배경 영상 복원 단계(S123)는 미지정 영역(10)을 상기 n번째 입력 영상으로 복원한다. 도 5의 (d)는 미지정 영역(110)이 복원된 배경 영상이다. 배경 영상 복원 단계(S123)에서는 도 5의 (c)의 변환된 n-1번째 배경 영상과 도 5의 (b)의 n번째 입력 영상을 비교하며 n번째 입력 영상에서 미지정 영역(110)에 해당하는 영역을 변환된 n-1번째 배경 영상에 갱신하여 도 5의 (d)에서와 같이 배경 영상을 복원한다. 도 5의 (d)의 복원된 배경 영상은 n번째 입력 영상과 비교되는 n번째 배경 영상이 된다. 5 is a photograph showing the process of generating a background image step by step. FIG. 5A shows an n-1th background image, and FIG. 5B shows an nth input image. Since the surveillance system of the present invention captures an image while moving from right to left, there is a difference between the n-th input image and the (n-1) -th background image as shown in FIGS. 5A and 5B. FIG. 5C shows the (n-1) th background image converted by the transformation matrix. The change matrix transforms the image to fit the coordinate system of the n-th input image, so that the
초기 전경 맵 생성 단계(S130)는 상기 n번째 입력 영상의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여 초기 전경 맵을 설정한다. 초기 전경 맵 생성 단계(S130)는 제1 비교 영역 설정 단계(S131), 제1 벡터 생성 단계(S132), 제2 비교 영역 설정 단계(S133), 제2 벡터 생성 단계(S134), 배경 벡터 공간 생성 단계(S135), 배경 영상에 속하게 될 확률 연산 단계(S136), 및 초기 전경 맵 생성 단 계(S137)를 구비할 수 있다. The initial foreground map generation step S130 sets the initial foreground map by calculating the probability that the pixel of the n-th input image belongs to the n-th background image. The initial foreground map generation step S130 includes a first comparison area setting step S131, a first vector generating step S132, a second comparison area setting step S133, a second vector generating step S134, A generation step S135, a probability calculation step S136 to belong to the background image, and an initial foreground map generation step S137.
제1 비교 영역 설정 단계(S131)는 상기 n번째 입력 영상 중 일부를 제1 비교 영역으로 설정한다. 도 6은 n번째 입력 영상(101)에서 설정된 제1 비교 영역(103)을 나타낸다. 도 6을 참조하면, 제1 비교 영역(103)은 n번째 입력 영상(101)의 임의의 픽셀(102)을 포함하며 상기 임의의 픽셀(102) 주변의 픽셀들을 포함하는 영역이다. The first comparison area setting step S131 sets a part of the n-th input image as a first comparison area. 6 shows the
제1 벡터 생성 단계(S132)는 상기 제1 비교 영역에 속하는 픽셀들에 대하여 r, g, b, x, y를 구성 성분으로 갖는 제1 벡터()를 생성한다. 상기 제1 벡터()는 다음 수학식 1과 같이 정의된다. The first vector generating step (S132) may include generating a first vector having r, g, b, x, and y as components of the pixels belonging to the first comparison area ). The first vector ( ) Is defined by the following equation (1).
여기서, r, g, b는 각각 픽셀의 색상값이며, x, y는 픽셀의 위치이다.Here, r, g, and b are the color values of the respective pixels, and x and y are the positions of the pixels.
제2 비교 영역 설정 단계(S133)는 상기 n번째 배경 영상 중 상기 제1 비교 영역에 대응되는 제2 비교 영역을 설정한다. 즉, 제2 비교 영역 설정 단계(S133)는 상기 제1 비교 영역과 동일한 위치를 갖는 영역을 상기 n번째 배경 영상에서 검색하여 제 비교 영역을 설정한다. 상기 n번째 배경 영상과 상기 n번째 입력 영상은 동일한 좌표계를 가지고 있으므로 상기 제1 비교 영역에 대응되는 상기 제2 비교 영역을 상기 n번째 배경 영상에서 설정할 수 있다. The second comparison area setting step S133 sets a second comparison area corresponding to the first comparison area among the n-th background images. That is, the second comparison area setting step (S133) searches the n-th background image for the area having the same position as the first comparison area to set the comparison area. Since the n-th background image and the n-th input image have the same coordinate system, the second comparison region corresponding to the first comparison region can be set in the n-th background image.
제2 벡터 생성 단계(S134)는 제2 비교 영역에 속하는 픽셀들에 대하여 r, g, b, x, y를 구성 성분으로 갖는 제2 벡터()를 생성한다. 상기 제2 벡터()는 다음 수학식 2과 같이 정의된다 The second vector generation step S134 includes a second vector having r, g, b, x, and y as components of the pixels belonging to the second comparison area ). The second vector ( ) Is defined as the following equation (2)
배경 벡터 공간 생성 단계(S135)는 상기 제2 비교 영역에 속하는 픽셀들 각각을 나타내는 제2 벡터들()로 이루어진 배경 벡터 공간()을 생성한다. 배경 벡터 공간()은 다음 수학식 2와 같이 정의된다 The background vector space generation step S135 may include generating second vectors (e.g., ) ≪ / RTI > ). Background Vector Space ( ) Is defined by the following equation (2)
배경 영상에 속하게 될 확률 연산 단계(S136)는 제1 벡터()를 배경 벡터 공간()에 대하여 커널 밀도 추정(Kernel density estimation)을 수행하여 상기 제1 비교 영역에 속하는 픽셀들이 상기 n번째 배경 영상에 속하게 될 확률을 구한다. 상기 픽셀이 상기 n번째 배경 영상에 속하게 될 확률은 다음 수학식 4에 의해 결정된다. The probability calculation step (S136) of belonging to the background image is performed using the first vector ) As background vector space ( ) To determine the probability that pixels belonging to the first comparison area belong to the n-th background image. The probability that the pixel belongs to the n-th background image is determined by the following equation (4).
여기서, 은 배경 벡터 공간이며, 는 시간 t에 확률을 계산할 i번째 픽셀의 배경 벡터이며, N은 상기 비교 영역에 속하는 픽셀들의 개수이다. 는 배경 벡터 공간이 주어진 경우 픽셀이 배경에 속하게 될 확률을 의미한다. here, Is a background vector space, Is the background vector of the ith pixel to calculate the probability at time t, and N is the number of pixels belonging to the comparison area. Means the probability that a pixel will belong to the background if the background vector space is given.
초기 전경 맵 생성 단계(S137)는 상기 n번째 입력 영상에 속하는 픽셀 중 상기 n번째 배경 영상의 픽셀에 속하게 될 확률이 낮은 픽셀들을 초기 전경 맵으로 설정한다. 초기 전경 맵 생성 단계(S137)는 배경 영상에 속하게 될 확률 연산 단계(S136)에서 구한 확률이 임계치(threshold) 이하가 되는 경우 상기 픽셀은 배경이 아닌 전경을 판단하며, 이와 같이 전경으로 판단된 픽셀들이 이루는 영역을 초기 전경 맵으로 설정한다. In the initial foreground map generation step S137, pixels having low probability of belonging to the pixel of the n-th background image among the pixels belonging to the n-th input image are set as the initial foreground map. In the initial foreground map generation step S137, when the probability obtained in the probability calculation step S136 to be included in the background image becomes less than or equal to the threshold value, the pixel determines the foreground, not the background, As an initial foreground map.
초기 전경 맵()은 다음 수학식 5에 의해 결정된다. Initial foreground map ( ) Is determined by the following equation (5).
여기서,τB는 픽셀이 배경 영상에 속하게 되는 임계치이다. 픽셀이 배경에 속하게 될 확률()이 임계치(τB) 이하인 경우에는 상기 픽셀은 초기 전경 맵에 해당하며, 그렇지 않은 경우에는 상기 픽셀은 초기 전경 맵에 해당하지 않다. Here, τ B is a threshold at which the pixel belongs to the background image. The probability that the pixel will belong to the background ( Is less than or equal to the threshold value? B , the pixel corresponds to the initial foreground map, otherwise the pixel does not correspond to the initial foreground map.
초기 전경 맵 생성 후 추가 전경 맵을 생성한다(S140). 추가 전경 맵 생성 단계(S140)는 상기 초기 전경 맵에 인접한 영역을 추가 전경 후보 영역으로 설정하고 상기 추가 전경 후보 영역에 속하는 픽셀이 상기 전경에 속하게 될 확률을 구하여 추가 전경 맵을 설정한다. 추가 전경 맵 생성 단계(S140)는 추가 전경 후보 영역 설정 단계(S141), 전경 벡터 생성 단계(S142), 전경 벡터 공간 생성 단계(S143), 전경에 속할 확률 연산 단계(S144), 추가 전경 맵 생성 단계(S145)를 구비할 수 있다. After generating the initial foreground map, an additional foreground map is generated (S140). The additional foreground map generation step S140 sets an area adjacent to the initial foreground map as an additional foreground candidate area and sets an additional foreground map by obtaining a probability that a pixel belonging to the additional foreground candidate area belongs to the foreground. The additional foreground map generation step S140 includes an additional foreground candidate area setting step S141, a foreground vector generating step S142, a foreground vector space generating step S143, a probability calculation step S144 belonging to foreground, Step S145 may be included.
추가 전경 후보 영역 설정 단계(S141)는 상기 n번째 입력 영상에서 상기 초기 전경 맵에 인접한 영역을 추가 전경 후보 영역으로 설정한다. 도 7은 초기 전경 맵과 추가 전경 후보 영역이 설정된 입력 영상을 도시한다. 도 7을 참조하면, 입력 영상(101)은 S110 내지 S130 단계에 의해 초기 전경 맵(105a, 105b)이 설정될 수 있다. 이에 대해, 추가 전경 후보 영역 설정 단계(S141)에서는 초기 전경 맵(105a, 105b)에 인접한 영역에 대해 추가 전경 후보 영역(106, 107, 108)을 설정한다. The additional foreground candidate area setting step S141 sets an area adjacent to the initial foreground map as the additional foreground candidate area in the n-th input image. 7 shows an input image in which an initial foreground map and an additional foreground candidate area are set. Referring to FIG. 7, the initial foreground maps 105a and 105b can be set in steps S110 to S130 of the
전경 벡터 생성 단계(S142)는 상기 추가 전경 후보 영역에 속하는 픽셀들에 대하여 r, g, b, x, y를 구성 성분으로 하는 전경 벡터()를 생성한다. 상기 전경 벡터()는 다음 수학식 6과 같이 정의된다. The foreground vector generating step S142 is a step of generating foreground vectors (r, g, b, x, y) for the pixels belonging to the additional foreground candidate region ). The foreground vector ( ) Is defined by the following equation (6).
여기서, r, g, b는 각각 픽셀의 색상값이며, x, y는 픽셀의 위치이다.Here, r, g, and b are the color values of the respective pixels, and x and y are the positions of the pixels.
전경 벡터 공간 생성 단계(S143)는 상기 추가 전경 후보 영역에 속하는 픽셀들 각각을 나타내는 전경 벡터들()로 구성된 전경 벡터 공간()을 생성한다. 전경 벡터 공간()은 다음 수학식 7에 의해 결정된다. The foreground vector space generation step S143 may include generating foreground vectors (e.g., ) In the foreground vector space ( ). Foreground vector space ( ) Is determined by the following equation (7).
전경에 속할 확률 연산 단계(S144)는 추가 전경 후보 영역에 속하는 픽셀의 전경 벡터를 전경 벡터 공간()에 대하여 커널 밀도 추정을 수행하여 상기 추가 전경 후보 영역에 속하는 픽셀들이 전경에 속하게 될 확률을 구한다. 상기 픽셀들이 전경에 속하게 될 확률은 다음 수학식 8에 의해 결정된다. The probability calculation step (S144) of belonging to the foreground is a step of calculating the foreground vector of the pixel belonging to the additional foreground candidate area as the foreground vector space ) To obtain the probability that the pixels belonging to the additional foreground candidate region will belong to the foreground. The probability that the pixels belong to the foreground is determined by the following equation (8).
여기서, 는 시간 t에 확률을 계산할 i번째 픽셀의 전경 벡터이며, 는 전경 벡터 공간이 주어진 경우 픽셀이 전경에 속하게 될 확률을 의미한다. here, Is the foreground vector of the ith pixel to calculate the probability at time t, Represents the probability that a pixel will belong to the foreground if the foreground vector space is given.
추가 전경 맵 생성 단계(S145)는 상기 추가 전경 후보 영역의 픽셀들 중 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정한다. 상세하게는 추가 전경 맵 생성 단계(S145)는 상기 추가 전경 후보 영역의 픽셀들이 상기 전경에 속하게 될 확률과 상기 배경에 속하게 될 확률을 비교하여 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정한다. 추가 전경 맵()은 다음 수학식 9에 의해 결정된다. The additional foreground map generation step S145 sets pixels having a high probability of belonging to the foreground among the pixels of the additional foreground candidate region as an additional foreground map. More specifically, the additional foreground map generation step S145 compares the probability that the pixels of the additional foreground candidate area belong to the foreground and the probability that the pixels of the additional foreground candidate area belong to the background, Setting. Additional Foreground Maps ( ) Is determined by the following equation (9).
즉, 추가 전경 맵 생성 단계(S145)에서는 추가 전경 후보 영역에 속하는 픽셀이 배경에 속하는 확률() 보다 전경에 속하는 확 률()에 가중치(ωF)를 곱한 값()보다 작은 경우 전경을 판별하며 전경으로 판별된 픽셀들을 추가 전경 맵으로 생성한다. That is, in the additional foreground map generation step S145, the probability that a pixel belonging to the additional foreground candidate area belongs to the background ) Probability that belongs to the foreground ( ) By the weight (? F ) ( ), The foreground is discriminated and pixels discriminated as foreground are generated as an additional foreground map.
상기와 같이 이동 물체에 대해 초기 전경 맵을 생성하고 초기 전경 맵과 인접한 영역에 대하여 추가 전경 맵을 생성함으로써 배경 영상과 현재 영상의 부정합으로 인한 배경 모서리 탐지의 오류를 해소할 수 있으며, 흔들리는 나뭇가지와 같은 동적인 배경을 이동 물체로 탐지하는 오류를 해결할 수 있다. As described above, an initial foreground map is generated for a moving object and an additional foreground map is generated for an area adjacent to the initial foreground map, thereby eliminating errors of background corner detection due to inconsistency between the background image and the current image. Can be resolved by detecting a moving background such as a moving background.
또한, 변환 행렬에 의해 배경 영상을 변환한 후 입력 영상으로 배경 영상을 복원함으로써 변환 행렬의 오차 및 영상의 노이즈로 인하여 발생할 수 있는 탐지의 오류를 최소화할 수 있다. In addition, the background image is transformed by the transform matrix, and then the background image is restored as the input image, thereby minimizing errors in detection errors due to errors of the transformation matrix and image noise.
도 8은 본 발명의 일 실시예에 따른 감시 시스템의 물체 탐지를 나타내는 사진들이다. 도 8의 (a), (b), 및 (c)에서 오른쪽 영상은 입력 영상이며, 중간 영상은 배경 영상이며, 왼쪽 영상은 탐지 결과 영상이다. 또한, 도 8의 (a), (b), 및 (c) 각각은 n번째 영상, n+1번째 영상, n+2번째 영상이다. 즉, 도 8의 (a)에서 오른쪽 영상은 n번째 입력 영상이며, 중간 영상은 n번째 배경 영상이고, 왼쪽 영상은 n번째 입력 영상에서 탐지된 초기 전경 맵과 추가 전경 맵을 나타내는 영상이다. 도 8의 (b)에서 오른쪽 영상은 n+1번째 입력 영상이며, 중간 영상은 n+1번째 배경 영상이고, 왼쪽 영상은 n+1번째 입력 영상에서 탐지된 초기 전경 맵과 추가 전경 맵을 나타내는 영상이다. 도 8의 (c)는 오른쪽 영상은 n+2번째 입력 영상이며, 중간 영상은 n+2번째 배경 영상이고, 왼쪽 영상은 n+2번째 입력 영상에서 탐지된 초 기 전경 맵과 추가 전경 맵을 나타내는 영상이다. 도 8의 (a), (b), 및 (c)의 입력 영상은 본 발명의 일 실시예에 따른 감시 시스템이 왼쪽에서 오른쪽으로 이동하면서 촬영한 영상이다. 8 is a photograph showing an object detection of a surveillance system according to an embodiment of the present invention. 8 (a), 8 (b), and 8 (c), the right image is the input image, the intermediate image is the background image, and the left image is the detection result image. 8A, 8B, and 8C are the n-th image, the n + 1-th image, and the n + 2-th image, respectively. That is, in FIG. 8A, the right image is the n-th input image, the intermediate image is the n-th background image, and the left image is an image showing the initial foreground map and the additional foreground map detected in the n-th input image. In FIG. 8B, the right image is the (n + 1) th input image, the intermediate image is the (n + 1) th background image, and the left image is the initial foreground map and the additional foreground map detected in the It is a video. 8 (c), the right image is the (n + 2) th input image, the intermediate image is the (n + 2) th background image, and the left image is the initial foreground map and the additional foreground map detected in the . 8 (a), 8 (b), and 8 (c) are images taken while moving the surveillance system according to the embodiment of the present invention from left to right.
도 8의 (a)를 참조하면, n번째 배경 영상과는 달리 n번째 입력 영상에서는 물체(201)가 촬영된다. 이 경우 본 발명의 일 실시예에 따른 물체 탐지 방법에서는 상술한 바와 같이 초기 전경 맵 생성 단계(S130)에서 n번째 입력 영상에 속하는 픽셀들이 n번째 배경 영상에 속하게 될 확률을 구하며, 배경 영상에 속하게 될 확률이 임계치보다 낮은 픽셀들을 초기 전경 맵(202)으로 설정한다. 그 후, 추가 전경 맵 생성 단계(S140)에서 초기 전경 맵(202)에 인접한 영역을 추가 전경 후보 영역으로 설정하고 추가 전경 후보 영역에 속하는 픽셀들이 전경에 속하게 될 확률을 구하며, 배경에 속하게 될 확률보다 전경에 속하게 될 확률이 더 큰 픽셀들을 추가 전경 맵(203)으로 설정한다. 도 8의 (a)에서 왼쪽에 있는 영상을 보면, 이동하는 물체(201)에 대해 초기 전경 맵(202)과 추가 전경 맵(203)이 표시됨을 확인할 수 있다. Referring to FIG. 8 (a), unlike the n-th background image, the
도 8의 (b)를 참조하면, n+1번째 배경 영상은 n번째 입력 영상과 n번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 n번째 배경 영상을 변환하며, 본 발명의 감시 시스템이 이동하여 촬영하여 발생하는 상기 변환된 배경 영상의 미지영역은 n+1번째 입력 영상에 의해 복원되어 n+1번째 배경 영상이 생성된다. m+1번째 배경 영상이 생성된 후에는, 도 8의 (a)에 관하여 설명한 바와 같이 초기 전경 맵(202)과 추가 전경 맵(203)을 설정한다. Referring to FIG. 8B, the (n + 1) -th background image generates a transformation matrix from the n-th input image and the n-th input image, transforms the transformation matrix to the n-th background image, Is transformed by the (n + 1) -th input image to generate the (n + 1) -th background image. After the (m + 1) th background image is generated, the
도 9는 본 발명의 일 실시예에 따른 감시 시스템에 관한 개략적인 블럭도이다. Figure 9 is a schematic block diagram of a surveillance system in accordance with an embodiment of the present invention.
도 9를 참조하면, 본 발명의 일 실시예에 따른 감시 시스템은 도 1에 도시된 물체 탐지 방법에 의하여 제어될 수 있다. 따라서, 도 1에 도시된 물체 탐지 방법에서와 동일한 사항에 대해서는 이를 참조하고, 자세한 설명이 생략될 수 있다. Referring to FIG. 9, a monitoring system according to an embodiment of the present invention can be controlled by the object detection method shown in FIG. Therefore, the same items as those in the object detection method shown in FIG. 1 will be referred to, and a detailed description may be omitted.
본 발명의 일 실시예에 따른 감시 시스템(400)은 영상 입력부(401), 배경 영상 생성부(402), 초기 전경 맵 생성부(403), 및 추가 전경 맵 생성부(404)를 구비할 수 있다. The
영상 입력부(401)는 감시 대상이 되는 감시 영역에 대한 입력 영상을 입력받는다. 입력 영상은 설정된 시간 간격에 따라 입력되는 프레임 영상일 수 있다. The
배경 영상 생성부(402)는 영상 입력부(101)에 의해 입력되는 n번째 입력 영상과 n-1번째 입력 영상으로부터 변환 행렬을 생성하고, 상기 변환 행렬을 이용하여 n번째 배경 영상을 생성할 수 있다. 배경 영상 생성부(402)는 영상 입력부(401)에 의해 n번째 입력 영상과 n-1번째 입력 영상에서 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 상기 변환 행렬을 생성하고, 상기 변환 행렬에 의해 상기 n번째 입력 영상의 좌표계에 맞도록 n-1번째 배경 영상을 변환하며, 상기 변환된 n-1번째 배경 영상에서의 미지정 영역을 상기 n번째 입력 영상으로 복원하여 상기 n번째 배경 영상을 생성할 수 있다. 상세하게는 배경 영상 생성부(402)는 상기 n번째 입력 영상과 상기 n-1번째 입력 영상에서 국소 특징점(local feature)을 추출하여 상기 n번째 입력 영상과 상기 n-1번째 입력 영상 사이의 대응점을 구함으로 써 상기 변환 행렬을 생성할 수 있다. The background
초기 전경 맵 생성부(403)는 상기 n번째 입력 영상의 각각의 픽셀이 상기 n번째 배경 영상에 속하게 될 확률을 구하여, 상기 n번째 입력 영상의 픽셀들 중 상기 n번째 배경 영상의 픽셀에 속하게 될 확률이 낮은 픽셀들을 초기 전경 맵으로 설정할 수 있다. The initial foreground
추가 전경 맵 생성부(404)는 상기 초기 전경 맵에 인접한 영역을 상기 추가 전경 후보 영역으로 설정하고, 상기 추가 전경 후보 영역에 속하는 각각의 픽셀들이 상기 전경에 속하게 될 확률을 구하여, 상기 추가 전경 후보 영역의 픽셀들 중 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정할 수 있다. 보다 상세하게는 추가 전경 맵 생성부(404)는 상기 추가 전경 후보 영역의 픽셀들이 상기 전경에 속하게 될 확률과 상기 배경에 속하게 될 확률을 비교하여 상기 전경에 속하게 될 확률이 높은 픽셀들을 추가 전경 맵으로 설정할 수 있다. The additional foreground
본 발명은 상술한 실시형태 및 첨부된 도면에 의해 한정되는 것이 아니고, 첨부된 청구범위에 의해 한정하고자 하며, 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 형태의 치환, 변형 및 변경이 가능하다는 것은 당 기술분야의 통상의 지식을 가진 자에게 자명할 것이다. It is intended that the present invention not be limited by the foregoing embodiments and the accompanying drawings, but rather by the appended claims, and that various changes, substitutions, and alterations can be made hereto without departing from the spirit of the invention as defined in the appended claims. It will be apparent to those skilled in the art that changes may be made.
도 1은 본 발명의 일 실시예에 따른 이동 물체 탐지 방법의 흐름도를 나타낸다.FIG. 1 shows a flowchart of a moving object detection method according to an embodiment of the present invention.
도 2는 도 1의 배경 영상 생성 단계의 상세한 흐름도를 나타낸다. FIG. 2 shows a detailed flowchart of the background image generation step of FIG.
도 3은 도 1의 초기 전경 맵 생성 단계의 상세한 흐름도를 나타낸다.FIG. 3 shows a detailed flowchart of the initial foreground map generation step of FIG.
도 4는 도 1의 추가 전경 맵 생성 단계의 상세한 흐름도를 나타낸다.4 shows a detailed flowchart of the additional foreground map generation step of FIG.
도 5는 배경 영상을 생성하는 과정을 단계별로 나타내는 사진이다.5 is a photograph showing the process of generating a background image step by step.
도 6은 n번째 입력 영상에서 설정된 제1 비교 영역을 나타낸다. 6 shows a first comparison area set in the n-th input image.
도 7은 초기 전경 맵과 추가 전경 후보 영역이 설정된 입력 영상을 도시한다. 7 shows an input image in which an initial foreground map and an additional foreground candidate area are set.
도 8은 본 발명의 일 실시예에 따른 감시 시스템의 물체 탐지를 나타내는 사진들이다.8 is a photograph showing an object detection of a surveillance system according to an embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따른 감시 시스템을 나타내는 블럭도이다.9 is a block diagram illustrating a surveillance system in accordance with an embodiment of the present invention.
<도면의 주요부분에 대한 부호의 설명>Description of the Related Art
101: 입력 영상 102: 픽셀101: input image 102: pixel
103: 제1 비교 영역 105a, 105b: 초기 전경 맵103:
106, 107, 108: 추가 전경 맵 110: 미지정 영역106, 107, 108: additional foreground map 110: unspecified area
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090006274A KR101394473B1 (en) | 2009-01-23 | 2009-01-23 | Method for detecting moving object and surveillance system thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090006274A KR101394473B1 (en) | 2009-01-23 | 2009-01-23 | Method for detecting moving object and surveillance system thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100086839A KR20100086839A (en) | 2010-08-02 |
KR101394473B1 true KR101394473B1 (en) | 2014-05-13 |
Family
ID=42753813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090006274A KR101394473B1 (en) | 2009-01-23 | 2009-01-23 | Method for detecting moving object and surveillance system thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101394473B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101197417B1 (en) | 2010-09-06 | 2012-11-05 | 주식회사 동희산업 | Displacement diagnosis sensor of brake pedal having stop lamp switch function |
KR101468861B1 (en) * | 2013-04-10 | 2014-12-04 | 서울대학교산학협력단 | Active attentional sampling method for accelerating foreground detection from video, and computer-readable recording medium for the same |
KR101272645B1 (en) * | 2013-04-24 | 2013-06-10 | (주)나인정보시스템 | Detection apparatus and method for objects in the image using spatio-temporal gaussian mixture background model |
KR101519444B1 (en) * | 2013-10-02 | 2015-05-12 | 숭실대학교산학협력단 | Security Monitoring System Using The Image Transformation And Control Method Thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005122094A1 (en) * | 2004-06-14 | 2005-12-22 | Agency For Science, Technology And Research | Method for detecting desired objects in a highly dynamic environment by a monitoring system |
KR20060033752A (en) * | 2006-03-07 | 2006-04-19 | (주)나인정보시스템 | Manless supervision system of illegal parking/standing by image detection and the method thereof |
KR100834550B1 (en) * | 2007-12-17 | 2008-06-02 | (주)동화이엔지 | Detecting method at automatic police enforcement system of illegal-stopping and parking vehicle and system thereof |
KR20080062520A (en) * | 2006-12-29 | 2008-07-03 | 아주대학교산학협력단 | The extraction method of moving object and the apparatus thereof |
-
2009
- 2009-01-23 KR KR1020090006274A patent/KR101394473B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005122094A1 (en) * | 2004-06-14 | 2005-12-22 | Agency For Science, Technology And Research | Method for detecting desired objects in a highly dynamic environment by a monitoring system |
KR20060033752A (en) * | 2006-03-07 | 2006-04-19 | (주)나인정보시스템 | Manless supervision system of illegal parking/standing by image detection and the method thereof |
KR20080062520A (en) * | 2006-12-29 | 2008-07-03 | 아주대학교산학협력단 | The extraction method of moving object and the apparatus thereof |
KR100834550B1 (en) * | 2007-12-17 | 2008-06-02 | (주)동화이엔지 | Detecting method at automatic police enforcement system of illegal-stopping and parking vehicle and system thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20100086839A (en) | 2010-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109598794B (en) | Construction method of three-dimensional GIS dynamic model | |
JP4429298B2 (en) | Object number detection device and object number detection method | |
Schoenberg et al. | Segmentation of dense range information in complex urban scenes | |
Desa et al. | Image subtraction for real time moving object extraction | |
JP6397379B2 (en) | CHANGE AREA DETECTION DEVICE, METHOD, AND PROGRAM | |
EP3346445A1 (en) | Methods and devices for extracting an object from a video sequence | |
US20230104196A1 (en) | Device and a Method for Processing Data Sequences Using a Convolutional Neural Network | |
KR101394473B1 (en) | Method for detecting moving object and surveillance system thereof | |
JP2021068056A (en) | On-road obstacle detecting device, on-road obstacle detecting method, and on-road obstacle detecting program | |
CN108876807B (en) | Real-time satellite-borne satellite image moving object detection tracking method | |
Zhang et al. | An optical flow based moving objects detection algorithm for the UAV | |
JP4918615B2 (en) | Object number detection device and object number detection method | |
JP4201958B2 (en) | Moving image object extraction device | |
Li et al. | Fast visual tracking using motion saliency in video | |
CN109087378A (en) | Image processing method and system | |
Shafiee et al. | Model-based tracking: Temporal conditional random fields | |
Kalsotra et al. | Morphological based moving object detection with background subtraction method | |
JP2009205695A (en) | Apparatus and method for detecting the number of objects | |
Abello et al. | A graph-based method for joint instance segmentation of point clouds and image sequences | |
Zhou et al. | Improving video segmentation by fusing depth cues and the ViBe algorithm | |
JP2021033374A (en) | Object recognition device, object recognition method, and object recognition program | |
de Blois et al. | Learning of image dehazing models for segmentation tasks | |
Babu et al. | Development and performance evaluation of enhanced image dehazing method using deep learning networks | |
CN111476821B (en) | Target tracking method based on online learning | |
CN117173104B (en) | Low-altitude unmanned aerial vehicle image change detection method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180425 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190425 Year of fee payment: 6 |