KR101438451B1 - Method of providing fast detection of moving objects from non-stationary camera video by dual-mode SGM, and computer-readable recording medium for the same - Google Patents

Method of providing fast detection of moving objects from non-stationary camera video by dual-mode SGM, and computer-readable recording medium for the same Download PDF

Info

Publication number
KR101438451B1
KR101438451B1 KR1020130042470A KR20130042470A KR101438451B1 KR 101438451 B1 KR101438451 B1 KR 101438451B1 KR 1020130042470 A KR1020130042470 A KR 1020130042470A KR 20130042470 A KR20130042470 A KR 20130042470A KR 101438451 B1 KR101438451 B1 KR 101438451B1
Authority
KR
South Korea
Prior art keywords
background model
model
sgm
background
grid
Prior art date
Application number
KR1020130042470A
Other languages
Korean (ko)
Inventor
이광무
윤기민
정하욱
김수완
장형진
최진영
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020130042470A priority Critical patent/KR101438451B1/en
Application granted granted Critical
Publication of KR101438451B1 publication Critical patent/KR101438451B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a technique for fast detecting a moving object from a video obtained by a non-stationary camera and, more specifically, to a technique for fast detecting a moving object from a video obtained by a non-stationary camera by compensating for the movement of the camera through model combination with respect to a video obtained by the non-stationary camera, preventing damage to a background model induced by foreground pixels and noise using a dual-mode single Gaussian model (SGM), and reducing complexity with the application of a background model based on grid. According to the present invention, a moving object can be accurately detected by preventing damage to the background model induced by foreground pixels and noise using the dual-mode SGM and allowing the background model to properly learn a change in the background. Further, complexity can be significantly reduced and a level of detection performance similar to other conventional algorithms can be achieved by applying a model in a grid unit while reducing the error of detection results considering an error in compensating for the movement of the camera.

Description

비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체{Method of providing fast detection of moving objects from non-stationary camera video by dual-mode SGM, and computer-readable recording medium for the same}TECHNICAL FIELD The present invention relates to a dual-mode SGM-based high-speed moving object detection method for non-stationary camera images and a computer-readable recording medium therefor. medium for the same}

본 발명은 비고정 카메라의 영상으로부터 이동체를 고속으로 탐지하는 기술에 관한 것이다. 더욱 상세하게는, 본 발명은 비고정 카메라의 영상에 대해 모델 혼합을 통해 카메라의 움직임을 보상하고 이중모드 SGM(단일 가우시안 모델)에 의해 배경 모델이 전경 픽셀 및 잡음에 의해 손상되는 것을 방지하며 그리드 기반으로 배경 모델을 적용하여 연산량을 감소시킴으로써 비고정 카메라의 영상으로부터 이동체를 고속으로 탐지하는 기술에 관한 것이다.
The present invention relates to a technique for detecting a moving object at a high speed from an image of an unfixed camera. More specifically, the present invention compensates camera movement through model mixing for images of non-stationary cameras, prevents background models from being corrupted by foreground pixels and noise by a dual mode SGM (single Gaussian model) And to a technique for detecting a moving object at a high speed from an image of a non-fixed camera by reducing a calculation amount by applying a background model based on the background model.

카메라에서 획득한 영상으로 이동체(moving objects)를 검출하는 기능은 컴퓨터 비전이나 영상감시 등의 분야에서 중요하게 인식되어 왔으며, 그에 따라 다양한 알고리즘이 개발되어 왔다.The ability to detect moving objects from images acquired by cameras has been recognized in the fields of computer vision and video surveillance, and various algorithms have been developed accordingly.

하지만 종래에 이루어진 이동체 검출방법은 대부분 고정 카메라에서 얻은 영상에서 이동체를 검출하는 기술에 관한 것이다(C. Stauffer and W. Grimson. "Adaptive background mixture models for real-time tracking," In Computer Vision and Pattern Recognition, 1999 IEEE Computer Society Conference; A. Elgammal et al. "Background and foreground modeling using nonparametric kernel density for visual surveillance," In Proceedings of the IEEE, 2002; T. Ko, S. Soatto, and D. Estrin. "Warping background subtraction," In The Twenty-Third IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2010; Y. Sheikh and M. Shah. "Bayesian modeling of dynamic scenes for object detection," PAMI 2005).However, the conventional moving object detection method mostly relates to a technique for detecting a moving object in an image obtained from a fixed camera (C. Stauffer and W. Grimson. "Adaptive background mixture models for real-time tracking," In Computer Vision and Pattern Recognition "Proceedings of the IEEE, 2002, T. Ko, S. Soatto, and D. Estrin." Warping, IEEE Trans. Background subtraction, "In the Twenty-Third IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2010, Y. Sheikh and M. Shah." Bayesian modeling of dynamic scenes for object detection, "PAMI 2005).

한편, 최근들어 PTZ(Pan Tilt Zoom) 카메라와 같은 비고정 카메라가 활발하게 적용되고 있다. 비고정 카메라는 넓은 범위를 효과적으로 감시할 수 있고 특정 물체를 추적하면서 촬영할 수 있는 기능을 갖추고 있어 보급이 급격하게 늘어나는 추세이다. 하지만 비고정 카메라는 카메라 자체의 움직임으로 인하여 고정형 카메라에서는 발생하지 않았던 다양한 영상 효과가 부가적으로 발생하며, 이로 인해 기존의 이동체 검출기법이 제대로 동작하지 않는다.Meanwhile, recently, non-fixed cameras such as a PTZ (Pan Tilt Zoom) camera have been actively applied. Non-fixed cameras are able to effectively monitor a wide range and have the ability to shoot while tracking specific objects. However, due to the movement of the camera itself, the non-stationary camera additionally generates various image effects which have not occurred in the fixed camera, and thus the existing moving object detection technique does not operate properly.

그에 따라 비고정 카메라에서 획득한 영상으로부터 이동체를 검출하는 기술에 대해서도 종래로 많은 방법론이 제안되었다. 하지만, 기존에 제안된 기법들은 지나치게 많은 연산량을 요구하는 것이어서 실제 현장에서 실시간 용도로 사용하기에는 적합하지 않았다.Accordingly, many conventional methodologies have been proposed for detecting a moving object from an image obtained by a non-fixed camera. However, the proposed schemes require too much computational complexity and are not suitable for real-time use in real-world applications.

예컨대 G. Georgiadis et al. "Actionable saliency detection: Independent motion detection without independent motion estimation," In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 2012의 경우에는 MATLAB 시뮬레이션에서 한 프레임당 30 내지 60초 가량이 걸릴 정도로 연산량이 많다. Y. Sheikh et al. "Background subtraction for freely moving cameras," In ICCV 2009에서 제안된 방법 역시 프레임당 2.6초 이상이 소요될 정도로 연산량은 상당하였다.See, for example, G. Georgiadis et al. In the case of "Motion estimation with independent motion estimation," In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 2012, it takes about 30 to 60 seconds per frame in MATLAB simulation. Y. Sheikh et al. "The method proposed by In ICCV 2009 was also significant enough to take 2.6 seconds or more per frame.

또한 S. Kwak et al. "Generalized background subtraction based on hybrid inference by belief propagation and bayesian filtering," In Computer Vision (ICCV), 2011 IEEE International Conference에 제안된 방법은 검출 성능은 우수하나 최적화 과정이 복잡할 뿐만 아니라 세밀한 옵티컬 플로우(optical flow) 연산으로 인해 연산량이 과다하였다.S. Kwak et al. The method proposed in the 2011 IEEE International Conference on Incom- vision Vision (ICCV), which has excellent detection performance but is complicated in the optimization process as well as optical flow ) Operation.

그에 따라, 이러한 종래의 기술은 일반적으로 오프라인에서는 우수한 결과를 보이지만 실시간 분야에 적용하는 것은 불가능하다.Accordingly, these conventional techniques generally exhibit excellent results in the off-line, but are not applicable to real-time applications.

S. Kim et al. "Detection of moving objects with a moving camera using non-panoramic background model," Machine Vision and Applications(이하 "Kim 논문")과 J. Kim et al. "Fast moving object detection with non-stationary background," Multimedia Tools and Applications, 2012.에서 제시된 방법들은 어느정도 실시간으로 적용할 수 있는 정도의 신속성을 보였다다. 하지만 고성능의 PC에서만 실시간성이 보장되며 스마트폰이나 엠베디드에서는 실시간으로 결과를 얻는 것이 사실상 불가능하였다.S. Kim et al. "Detection of Moving Objects with a Moving Camera Using a Non-Panoramic Background Model," Machine Vision and Applications (hereafter, "the paper") and J. Kim et al. The methods presented in "Fast moving object detection with non-stationary background," Multimedia Tools and Applications, 2012. have shown the speed to be applied in some real time. However, real-time performance is ensured only in high-performance PCs, and it is virtually impossible to obtain results in real time on a smartphone or embedded device.

한편, 고정 카메라의 경우 매우 적은 연산량을 보장하는 O. Barnich and M. Van Droogenbroeck. "ViBe: A universal background subtraction algorithm for video sequences," IEEE Transactions on Image Processing, 2011(이하 "Barnich 논문")의 방법론이 존재한다. 하지만 이는 오로지 고정형 카메라에서만 효과적으로 적용할 수 있는 이론이며 비고정 카메라에 적용할 경우에는 많은 연산량 증가와 함께 성능이 현격하게 하락하는 문제점이 있다.On the other hand, O. Barnich and M. Van Droogenbroeck, which guarantee very low computational complexity for fixed cameras. There is a methodology of " ViBe: A universal background subtraction algorithm for video sequences, "IEEE Transactions on Image Processing, 2011 (hereinafter" Barnich paper "). However, this is a theory that can be effectively applied only to a fixed type camera, and when applied to a non-fixed type camera, there is a problem in that the performance is remarkably decreased with an increase in the calculation amount.

[관련기술문헌][Related Technical Literature]

1. 감시용 디지털 비디오 레코더에서의 움직임검출 영역 자동설정 장치 및 방법(특허출원 10-2004-0068862호)1. Apparatus and method for automatically setting a motion detection area in a digital video recorder for surveillance (Patent Application No. 10-2004-0068862)

2. 팬-틸트-줌 카메라 및 그 카메라의 객체 검출방법(특허출원 10-2010-0043805호)2. Pan-tilt-zoom camera and object detection method of the camera (patent application 10-2010-0043805)

본 발명의 목적은 비고정 카메라의 영상에 대해 모델 혼합을 통해 카메라의 움직임을 보상하고 이중모드 SGM에 의해 배경 모델이 전경 픽셀 및 잡음에 의해 손상되는 것을 방지하며 그리드 기반으로 배경 모델을 적용하여 연산량을 감소시킴으로써 비고정 카메라의 영상으로부터 이동체를 고속으로 탐지할 수 있는 기술을 제공하는 것이다.
It is an object of the present invention to compensate camera movement through model mixing for an image of an unfixed camera, to prevent the background model from being damaged by foreground pixels and noise by the dual mode SGM, And to provide a technique capable of detecting a moving object at a high speed from an image of a non-fixed camera.

이러한 과제를 달성하기 위한 본 발명에 따른 비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 방법은, 평균, 분산, 에이지를 갖는 개별적인 두 개의 단일 가우시안 모델을 배경 모델로서 사용하여 어패런트 배경모델과 캔디더트 배경모델로 이루어지는 이중모드 SGM을 설정하는 제 1 단계; 비고정 카메라의 입력 영상을 복수의 그리드 영역으로 분할하는 제 2 단계; 그 분할된 그리드 별로 배경 움직임의 이동 방향을 예측하고 그에 대응하여 인접 그리드 영역에 대해 이전 시간에 설정된 배경 모델을 혼합함으로써 입력 영상에 대해 카메라 움직임을 보상하는 제 3 단계; 카메라 움직임이 보상된 그리드 영역별로 이중모드 SGM을 적용하는 제 4 단계; 입력 영상에 대해 이중모드 SGM의 적합도를 검토하여 검토 결과에 따라 어패런트 배경모델과 캔디더트 배경모델 중의 어느 하나에 대해 선택적으로 입력 영상의 학습을 시행하는 제 5 단계; 배경 모델의 에이지에 기초하여 이중모드 SGM의 어패런트 배경모델과 캔디더트 배경모델을 스왑하는 제 6 단계; 어패런트 배경모델로부터 비고정 카메라의 입력 영상으로부터 이동체를 검출하는 제 7 단계;를 포함하여 구성된다.In order to accomplish the above object, there is provided a dual-mode SGM-based moving object high-speed detection method for non-stationary camera images according to the present invention, which uses two separate single Gaussian models having mean, variance, and age as background models, A first step of setting a dual mode SGM including a candy dart background model; A second step of dividing the input image of the non-fixed camera into a plurality of grid areas; A third step of predicting a moving direction of the background motion for each of the divided grids and compensating the camera motion for the input image by mixing the background model set at the previous time with respect to the adjacent grid area; A fourth step of applying a dual mode SGM to each of the grid areas in which the camera movement is compensated; A fifth step of examining the suitability of the dual mode SGM for the input image and selectively learning the input image for either of the adapted background model and the candy dart background model according to the review result; A sixth step of swapping an ad-hoc background model and a candy dart background model of the dual mode SGM based on the age of the background model; And a seventh step of detecting a moving object from the input image of the non-fixed camera from the attached background model.

본 발명은, 입력 영상이 이중모드 SGM의 어패런트 배경모델과 캔디더트 배경모델의 전부에 대해 부적합하다고 판단되는 경우에는 캔디더트 배경모델을 삭제하고 입력 영상에 따라 캔디더트 배경모델을 새로 생성하여 신규로 학습을 전개하는 제 8 단계;를 더 포함하여 구성될 수 있다.When the input image is judged to be inadequate for both the background model of the dual mode SGM and the background of the candy dots, the candy dots background model is deleted and a candy dots background model is newly generated according to the input image. And an eighth step of expanding the learning to the second step.

본 발명에서 제 5 단계는, 입력 영상이 어패런트 배경모델에 대해 임계범위 이내의 오차를 갖는 경우에는 어패런트 배경모델이 적합한 것으로 판단하고 입력 영상의 학습을 어패런트 배경모델에 대해 시행하는 단계; 입력 영상이 어패런트 배경모델에 대해 임계범위를 초과하는 오차를 갖는 반면 캔디더트 배경모델에 대해서는 임계범위 이내의 오차를 갖는 경우에는 캔디더트 배경모델이 적합한 것으로 판단하고 입력 영상의 학습을 캔디더트 배경모델에 대해 시행하는 단계;를 포함하여 구성될 수 있다.If the input image has an error within a critical range with respect to the background model, it is determined that the background model is appropriate and the learning of the input image is performed on the background model. If the input image has an error exceeding the critical range for the background model of the apparant background, but the candidate background model has an error within the critical range, And performing the steps on the model.

또한, 본 발명에서 제 7 단계는 그리드의 픽셀에 대해 어패런트 배경모델의 중심으로부터의 거리가 임계범위 이내인지 여부를 다음의 수학식In addition, in the present invention, the seventh step determines whether or not the distance from the center of the appalant background model to the grid pixel is within the critical range by the following equation

Figure 112013033613532-pat00001
Figure 112013033613532-pat00001

(이때,

Figure 112013033613532-pat00002
는 미리 설정한 임계 파라미터)(At this time,
Figure 112013033613532-pat00002
Is a predetermined threshold parameter)

에 의해 판단하고, 판단 결과 임계범위 이상을 갖는 경우에 이동체에 속하는 것으로 검출하도록 구성될 수 있다.And, as a result of the determination, it can be configured to detect that it belongs to the mobile body when it has the threshold range or more.

또한, 본 발명에서 제 3 단계는, 그리드에 대해 호모그래피 행렬

Figure 112013033613532-pat00003
을 계산하여 배경 영상의 이동 방향을 예측하는 단계; 그 예측된 이동 방향에 따라 원근변환
Figure 112013033613532-pat00004
를 중심으로하는 움직임 보상 배경모델 영역
Figure 112013033613532-pat00005
를 획득하는 단계; 영역
Figure 112013033613532-pat00006
와 겹치는 그리드 그룹
Figure 112013033613532-pat00007
과의 겹침 면적을 반영하여 혼합 가중치
Figure 112013033613532-pat00008
(
Figure 112013033613532-pat00009
)를 계산하는 단계; 그리드에 대해 다음의 수학식In the third step of the present invention, a homography matrix for the grid
Figure 112013033613532-pat00003
And estimating a moving direction of the background image; According to the predicted moving direction,
Figure 112013033613532-pat00004
A motion compensation background model region
Figure 112013033613532-pat00005
; domain
Figure 112013033613532-pat00006
And overlapping grid groups
Figure 112013033613532-pat00007
Lt; RTI ID = 0.0 > weighted < / RTI &
Figure 112013033613532-pat00008
(
Figure 112013033613532-pat00009
); For the grid, the following equation

Figure 112013033613532-pat00010
Figure 112013033613532-pat00010

(이때, 혼합 가중치

Figure 112013033613532-pat00011
Figure 112013033613532-pat00012
의 조건을 만족함)(In this case,
Figure 112013033613532-pat00011
The
Figure 112013033613532-pat00012
Lt; / RTI >

에 따라 모델 혼합을 수행하여 비고정 카메라의 움직임에 따른 배경 영상의 이동을 보상하는 단계;를 포함하여 구성될 수 있다.And compensating the movement of the background image according to the movement of the non-fixed camera.

이때, 제 3 단계는, 움직임 보상 이후에 분산 값이 미리 설정한 임계치

Figure 112013033613532-pat00013
를 초과하는 경우에 다음의 수학식 At this time, in the third step, after the motion compensation,
Figure 112013033613532-pat00013
, The following equation

Figure 112013033613532-pat00014
Figure 112013033613532-pat00014

(이때,

Figure 112013033613532-pat00015
는 미리 설정된 감쇄 파라미터)(At this time,
Figure 112013033613532-pat00015
Is a predetermined attenuation parameter)

을 통해 배경 모델의 에이지를 감소시키는 단계;를 더 포함하여 구성될 수 있다.And decreasing the age of the background model through the background model.

또한, 본 발명에서 배경 모델을 구성하는 단일 가우시안 모델은 다음의 수학식In the present invention, the single Gaussian model constituting the background model is expressed by the following equation

Figure 112013033613532-pat00016
Figure 112013033613532-pat00016

Figure 112013033613532-pat00017
Figure 112013033613532-pat00017

(이때,

Figure 112013033613532-pat00018
는 그리드 i의 평균;
Figure 112013033613532-pat00019
는 그리드 i의 분산;
Figure 112013033613532-pat00020
는 그리드 i의 에이지;
Figure 112013033613532-pat00021
는 그리드 i의 픽셀 그룹;
Figure 112013033613532-pat00022
는 그리드 i의 픽셀 개수;
Figure 112013033613532-pat00023
는 픽셀 j의 픽셀 인텐시티)(At this time,
Figure 112013033613532-pat00018
The average of grid i;
Figure 112013033613532-pat00019
Is the variance of the grid i;
Figure 112013033613532-pat00020
The age of the grid i;
Figure 112013033613532-pat00021
A group of pixels of grid i;
Figure 112013033613532-pat00022
Is the number of pixels in grid i;
Figure 112013033613532-pat00023
Is the pixel intensity of pixel j)

에 따라 설정되는 것이 바람직하다.
As shown in FIG.

한편, 본 발명에 따른 컴퓨터로 판독가능한 기록매체는 이상과 같은 이중모드 SGM 기반의 이동체 고속 검출 방법을 실행하는 이동체 고속 검출 프로그램을 기록한 것이다.
On the other hand, the computer-readable recording medium according to the present invention records a moving object high speed detection program for executing the above-described dual mode SGM-based moving object high speed detection method.

본 발명에 따르면 이중모드 SGM를 통해 배경 모델이 전경 픽셀 및 잡음에 의해 손상되는 것을 방지하고 배경 모델이 배경 변화를 적절하게 학습할 수 있어 정확한 이동체 검출이 가능한 장점이 있다.According to the present invention, it is possible to prevent a background model from being damaged by foreground pixels and noise through the dual mode SGM, and the background model can appropriately learn a background change, thereby enabling accurate moving object detection.

본 발명에 따르면 카메라 움직임의 보상 오류를 감안하여 탐지 결과의 오차를 감소시키면서 그리드 단위로 모델을 적용할 수 있도록 하여 연산량은 획기적으로 감소시키면서도 탐지 성능에 있어서는 종래의 다른 알고리즘과 비슷한 정도의 성능을 나타내는 장점이 있다.According to the present invention, it is possible to apply the model in a grid unit while reducing the error of the detection result in consideration of the compensation error of the camera motion, thereby dramatically reducing the computation amount, and exhibiting a performance similar to that of other algorithms in detection performance There are advantages.

본 발명은 스마트폰 영상촬영이나 영상감시 등 다양한 분야에 양호하게 적용이 가능한데, 특히 영상감시 기술에서는 카메라 영상에서 이동체를 별도로 표시함으로써 영상감시를 보조할 수 있고, 스마트폰 영상촬영에서는 이동체를 식별하여 자동으로 초점을 맞출 수 있는 장점이 있다.
The present invention can be suitably applied to a variety of fields such as smartphone image capturing and video surveillance. Particularly, in the video surveillance technology, it is possible to assist the video surveillance by separately displaying the moving object from the camera image, It has the advantage of automatically focusing.

[도 1]은 본 발명에 따른 비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 알고리즘을 나타내는 전체 구조를 도시한 도면.
[도 2]는 본 발명에서 모델 혼합에 의해 카메라 움직임을 보상하는 개념을 나타내기 위한 도면.
[도 3]은 본 발명에 따른 듀얼모드 SGM의 개념을 일반적인 SGM과 비교하여 나타낸 도면.
[도 4]는 본 발명에 의한 실행 속도 향상을 나타내는 도면.
[도 5]는 본 발명에서 이중모드 SGM을 활용한 수행 결과에 따른 효과를 나타내는 도면.
[도 6]은 본 발명에서 모델 혼합을 통한 카메라 움직임 보상의 효과를 나타내는 도면.
[도 7]은 본 발명에 따른 고속 검출 알고리즘이 개인용컴퓨터에서 수행된 결과를 나타내는 도면.
[도 8]은 본 발명에 따른 고속 검출 알고리즘이 스마트폰에서 수행된 결과를 나타내는 도면.
1 shows an overall structure of a dual mode SGM based moving object high speed detection algorithm for a non-fixed camera image according to the present invention.
FIG. 2 is a diagram for illustrating a concept of compensating camera movement by model mixing in the present invention. FIG.
3 illustrates the concept of a dual mode SGM according to the present invention compared to a general SGM.
FIG. 4 is a diagram showing an execution speed improvement according to the present invention; FIG.
5 is a diagram illustrating an effect according to a result of performing a dual mode SGM in the present invention.
FIG. 6 is a diagram showing the effect of camera motion compensation through model mixing in the present invention. FIG.
7 is a diagram showing a result of a fast detection algorithm according to the present invention performed in a personal computer.
FIG. 8 is a diagram showing a result of a fast detection algorithm according to the present invention performed on a smartphone; FIG.

이하에서는 도면을 참조하여 본 발명을 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

[도 1]은 본 발명에 따른 비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 알고리즘을 나타내는 전체 구조를 나타낸 도면이다.1 is a diagram showing an overall structure of a dual mode SGM based moving object high speed detection algorithm for a non-fixed camera image according to the present invention.

먼저 본 발명에서 배경 모델을 위해 적용하는 SGM에 대해 살펴본다. 본 발명의 SGM은 평균, 분산, 에이지(age)를 반영한다. 본 발명에서는 연산량을 감소시키기 위해 입력 영상을 그리드 영역으로 분할하는데, 수학적 모델링에서는 편이상 그리드 사이즈를

Figure 112013033613532-pat00024
으로 가정한다. 시간 t에서 그리드 i의 픽셀 그룹을
Figure 112013033613532-pat00025
라 하고 해당 픽셀 그룹의 픽셀 개수를
Figure 112013033613532-pat00026
이라 하며 시간 t에서 픽셀 j의 픽셀 인텐시티(pixel intensity)를
Figure 112013033613532-pat00027
라 하면, 본 발명에서 해당 그리드(픽셀 그룹
Figure 112013033613532-pat00028
)에 적용되는 SGM 모델의 평균
Figure 112013033613532-pat00029
, 분산
Figure 112013033613532-pat00030
, 에이지
Figure 112013033613532-pat00031
는 다음의 [수학식 1]에 의해 업데이트된다.
First, the SGM applied to the background model will be described in the present invention. The SGM of the present invention reflects the mean, variance, and age. In the present invention, an input image is divided into grid areas in order to reduce the computation amount. In the mathematical modeling,
Figure 112013033613532-pat00024
. At time t, the group of pixels of grid i
Figure 112013033613532-pat00025
And the number of pixels of the pixel group
Figure 112013033613532-pat00026
And the pixel intensity of the pixel j at time t
Figure 112013033613532-pat00027
In the present invention,
Figure 112013033613532-pat00028
The average of the SGM models applied to
Figure 112013033613532-pat00029
, Dispersion
Figure 112013033613532-pat00030
, Age
Figure 112013033613532-pat00031
Is updated by the following equation (1).

Figure 112013033613532-pat00032
Figure 112013033613532-pat00032

이때,

Figure 112013033613532-pat00033
,
Figure 112013033613532-pat00034
,
Figure 112013033613532-pat00035
는 시간 (t-1)에서 모델 혼합을 통해 움직임 보상이 이루어진 SGM 모델을 나타낸다. 또한, [수학식 1]에서
Figure 112013033613532-pat00036
Figure 112013033613532-pat00037
는 다음의 [수학식 2]와 같이 정의된다.
At this time,
Figure 112013033613532-pat00033
,
Figure 112013033613532-pat00034
,
Figure 112013033613532-pat00035
Represents the SGM model in which motion compensation is performed through model mixing at time (t-1). Further, in Equation (1)
Figure 112013033613532-pat00036
Wow
Figure 112013033613532-pat00037
Is defined as the following equation (2).

Figure 112013033613532-pat00038
Figure 112013033613532-pat00038

이때, [수학식 2]는 본 발명에서 그리드 단위로 적용된다는 점을 감안하여 SGM 모델을 특화한 것이다. [수학식 2]에 따라

Figure 112013033613532-pat00039
Figure 112013033613532-pat00040
를 모델링함으로써 그리드 내의 일부 특이한 픽셀에 의해 배경 모델이 잘못 학습되는 현상을 방지할 수 있어 바람직한 결과를 얻을 수 있었다.Equation (2) is a specialization of the SGM model in view of the fact that the present invention is applied in a grid unit. According to Equation (2)
Figure 112013033613532-pat00039
Wow
Figure 112013033613532-pat00040
It is possible to prevent the background model from being mis-learned by some unusual pixels in the grid, so that a preferable result can be obtained.

또한, [수학식 1]에 따르면 에이지

Figure 112013033613532-pat00041
는 시간이 경과함에 따라 변화하게 되는데, 이를 통해 비고정 카메라의 입력 영상에 대해 카메라 움직임을 보상하는 과정에서 발생하는 보상 오류 및 일부 특이한 픽셀에 의해 배경 모델이 잘못된 영향을 미치는 것을 방지할 수 있다.
Further, according to Equation (1)
Figure 112013033613532-pat00041
The compensation error caused in compensating the camera motion for the input image of the non-fixed camera and the background model may be prevented from being erroneously influenced by some unusual pixels.

[도 1]을 참조하면, 본 발명에 따른 이동체 고속 검출 알고리즘의 전체 흐름을 살펴본다. 비고정 카메라의 영상이 입력되면(p1), 그 입력된 이미지를 바람직하게는 균일한 그리드 영역으로 분할하고 여기에 [도 2]에 도시된 것과 같은 모델 혼합을 적용하여 카메라 움직임을 보상한다(p2).Referring to FIG. 1, the overall flow of the moving object high-speed detection algorithm according to the present invention will be described. When an image of an unfixed camera is input (p1), the input image is preferably divided into uniform grid areas, and the camera motion is compensated by applying a model mixture as shown in Fig. 2 (p2 ).

즉, 비고정 카메라의 움직임에 의해 발생되는 영향을 보상하기 위해서 본 발명에서는 예측 움직임에 따라 선택된 인접 그리드 영역에 대해 이전 시간에서 획득되었던 배경 모델들을 혼합한다. 비고정 카메라 영상에서는 배경 부분의 픽셀도 시간에 따라 많이 변경되고 특히 본 발명에서는 픽셀 단위가 아닌 그리드 단위로 배경 모델을 적용함에 따라 대규모의 오류가 발생될 위험이 있는 바, 본 발명에서는 [도 2]를 참조하여 후술하는 바와 같은 모델 혼합을 통해 카메라 움직임을 비교적 정확하게 보상할 수 있다. That is, in order to compensate for the influence caused by the motion of the non-fixed camera, the present invention mixes the background models obtained at the previous time with respect to the adjacent grid area selected according to the prediction motion. In the non-fixed camera image, the pixels of the background part are also changed much in accordance with time. In particular, in the present invention, there is a risk that a large-scale error occurs due to the application of the background model in units of a grid, ], It is possible to compensate the camera movement relatively accurately through the model mixing as described below.

이후, 모델 혼합을 통해 카메라 움직임 보상이 수행된 입력 영상에 대해 위 분할된 그리드 영역별로 이중모드 SGM(Dual-Mode Sigle Gaussian Model)(p3)을 적용한다. 본 발명은 매 픽셀당 배경 모델을 적용하는 것이 아니라 그리드 단위로 배경 모델을 적용함으로써 연산량을 감소시킨다. [도 6]를 참조하여 후술하는 바와 같이 본 발명에서는 비고정 카메라 영상에 대해 모델 혼합을 통해 카메라 움직임을 보상하였기 때문에 그리드 단위로 배경 모델을 적용하더라도 양호한 결과를 얻을 수 있다.Then, a dual-mode Sigma Gaussian Model (SGM) (p3) is applied to the input image on which the camera motion compensation is performed through the mixture of the models. The present invention reduces the amount of computation by applying a background model in units of a grid instead of applying a background model per pixel. As described later with reference to FIG. 6, since the camera movement is compensated for the non-fixed camera image through model mixing, a good result can be obtained even when a background model is applied in a grid unit.

이러한 이중모드 SGM은 전술한 바와 같이 그리드 구조에 알맞게끔 모델링이 특화되었으며, 어패런트 배경모델(apparent backgroud model)(p3a)과 캔디더트 배경모델(candidate background model)(p3b)의 쌍으로 배경을 표현함으로써 배경이 잡음이나 전경 물체에 의하여 손상되는 것을 방지한다. [도 3]은 일반적인 SGM과의 비교를 통해 이중모드 SGM의 특성을 나타내는 도면이다. 이중모드 SGM을 나타내는 [도 3(b)]에서 실선은 어패런트 배경모델을 나타내고 점선은 캔디더트 배경모델을 나타낸다.This dual-mode SGM is modeled specifically for the grid structure as described above, and the background is represented by a pair of an apparent backgroud model (p3a) and a candidate background model (p3b). Thereby preventing the background from being damaged by noise or foreground objects. 3 is a diagram showing characteristics of a dual mode SGM through comparison with a general SGM. The solid line in Fig. 3 (b) showing the dual-mode SGM indicates an adherent background model and the dotted line indicates a candy dart background model.

한편, 본 발명에 따른 비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 방법은 상대적으로 단순한 모델이지만 각 모델 이미지에서의 픽셀 별 정보 관측에 대한 정보 관측 기억을 의미하는 에이지(age)를 가짐으로써 알맞은 학습율을 가변적으로 유지하며, 이에 따라 모델이 다루지 못하는 부분에서 발생하는 오류 또한 학습하는 특징을 갖는다.Meanwhile, the dual-mode SGM-based high-speed moving object detection method for non-stationary camera images according to the present invention is a relatively simple model, but has an age meaning information observation memory for information observation per pixel in each model image , Which keeps the correct learning rate variable and thus also learns errors that occur in areas that the model can not handle.

또한, 어패런트 배경모델(p3a)과 캔디더트 배경모델(p3b)에 대한 비교 및 스왑(compare & swap)(p4)을 수행한다. 입력 영상에 기초하여 배경 모델에 대한 학습을 시행할 때 두 모델을 비교하여 어느 모델이 더 적합한지에 따라 학습이 진행된다. 이중모드 SGM 중에서 에이지에 따라 어패런트 배경모델과 캔디던트 배경모델이 결정되는데, 바람직하게는 에이지가 큰 쪽이 어패런트 배경모델이 되고 에이지가 작은 쪽이 캔디더트 배경모델이 된다. 한편, 입력 영상에 대해 어패런트 배경모델과 캔디더트 배경모델 모두 부적합한 것으로 판단되는 경우에는 기존의 캔디더트 배경모델을 삭제하고 입력 영상에 따라 캔디더트 배경모델을 새로 생성하여 신규로 학습을 전개한다.Also, comparison and swap (p4) are performed on the ad-hoc background model (p3a) and the candy dart background model (p3b). When learning the background model based on the input image, the two models are compared and learning proceeds according to which model is more suitable. In the dual mode SGM, depending on the age, the appalant background model and the candy dent background model are determined. Preferably, the aged background is the apparent background model and the aged one is the candy dart background model. On the other hand, when it is judged that both the adherent background model and the candy dart background model are inappropriate for the input image, the existing candy dart background model is deleted, and a candy dart background model is newly generated according to the input image.

마지막으로, 이동체 검출 결과는 이중모드 SGM에서 어패런트 배경모델(p3a)로부터 획득한다(p5).
Finally, the moving object detection result is obtained from the attached background model p3a in the dual mode SGM (p5).

이하에서는 [도 1]을 중심으로 [도 2] 내지 [도 8]을 참조하여 본 발명에 따른 비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 방법에 대해서 구체적으로 살펴본다.Hereinafter, a dual mode SGM-based moving object high speed detection method for a non-fixed camera image according to the present invention will be described in detail with reference to FIG. 1 with reference to FIG. 2 to FIG.

[도 2]는 본 발명에서 모델 혼합에 의해 카메라 움직임을 보상(p2)하는 개념을 나타내기 위한 도면이다. 비고정 카메라의 움직임을 일반적인 좌표 변환을 수행하면 움직임 보상 시에 오차가 많이 발생하며, 영상 입력(p1)이 진행됨에 따라 이중모드 SGM이 점차로 부정확해지는 문제가 발생한다.FIG. 2 is a diagram for illustrating the concept of compensating camera movement (p2) by model mixing in the present invention. When the general coordinate transformation of the motion of the non-fixed camera is performed, a large error occurs in motion compensation, and the dual mode SGM gradually becomes inaccurate as the image input p1 progresses.

이에 따라 본 발명에서는 이전시간 t-1 및 현재시간 t에 해당하는 배경 움직임에 따른 예측 결과를 이용하여 인접 그리드 영역에 대해 이전 시간에 설정된 배경 모델을 혼합함으로써 카메라의 움직임을 보상한다.Accordingly, in the present invention, the motion of the camera is compensated by mixing the background model set at the previous time with respect to the adjacent grid area using the prediction result according to the background motion corresponding to the previous time t-1 and the current time t.

이하에서는 모델 혼합에 대해 좀더 구체적으로 살펴본다.Hereinafter, the model mixing will be described in more detail.

입력 영상을 분할한 개별 그리드에 대해 RANSAC [M. A. Fischler and R. C. Bolles, "Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography," Commun. ACM, 1981 참조]을 수행하여 호모그래피 행렬

Figure 112013033613532-pat00042
을 획득할 수 있는데, 이는 배경 영상의 이동 방향에 대응한다.For the individual grids in which the input image is divided, RANSAC [MA Fischler and RC Bolles, " Random sample consensus: a paradigm for model fitting with applications of image analysis and automated cartography, "Commun. ACM, < RTI ID = 0.0 > 1981)
Figure 112013033613532-pat00042
, Which corresponds to the moving direction of the background image.

특정 그리드

Figure 112013033613532-pat00043
의 센터를
Figure 112013033613532-pat00044
라 하면 [도 2]에 나타낸 센터
Figure 112013033613532-pat00045
의 이동은 원근변환(perspective transform)
Figure 112013033613532-pat00046
로 표시할 수 있다. 그에 따라, 별다른 사이즈 변화가 없다면 중심이
Figure 112013033613532-pat00047
Figure 112013033613532-pat00048
영역
Figure 112013033613532-pat00049
는 그리드
Figure 112013033613532-pat00050
와 관련하여 비고정 카메라의 움직임이 보상된 배경 모델(motion compensated background model)로 간주된다.Specific grid
Figure 112013033613532-pat00043
Center of
Figure 112013033613532-pat00044
The center shown in Fig. 2
Figure 112013033613532-pat00045
Is a perspective transform,
Figure 112013033613532-pat00046
As shown in FIG. Accordingly, if there is no change in size,
Figure 112013033613532-pat00047
sign
Figure 112013033613532-pat00048
domain
Figure 112013033613532-pat00049
The grid
Figure 112013033613532-pat00050
The motion of the non-fixed camera is regarded as a compensated background model.

[도 2]에 도시된 바와 같이 영역

Figure 112013033613532-pat00051
는 여러 그리드와 영역이 겹치는데, 모델 혼합을 시행할 때 이러한 겹침 영역의 면적에 비례하도록 혼합 가중치를 반영하는 것이 바람직하다. 영역
Figure 112013033613532-pat00052
와 겹치는 그리드의 그룹을
Figure 112013033613532-pat00053
라 하고 이들 그리드 그룹
Figure 112013033613532-pat00054
에 속하는 그리드에 대한 혼합 가중치를
Figure 112013033613532-pat00055
(
Figure 112013033613532-pat00056
)라 하면, 본 발명에서 바람직하게 적용할 수 있는 모델 혼합은 다음의 [수학식 3]과 같이 나타낼 수 있다.
As shown in FIG. 2,
Figure 112013033613532-pat00051
, It is desirable to reflect the mixed weights so as to be proportional to the area of the overlapping area when the model mixing is performed. domain
Figure 112013033613532-pat00052
And groups of overlapping grids
Figure 112013033613532-pat00053
These grid groups
Figure 112013033613532-pat00054
The mixed weights for the grids belonging to
Figure 112013033613532-pat00055
(
Figure 112013033613532-pat00056
), The model mixture that can be preferably applied in the present invention can be expressed by the following equation (3).

Figure 112013033613532-pat00057
Figure 112013033613532-pat00057

이때, 혼합 가중치

Figure 112013033613532-pat00058
에 대해서는 다음의 [수학식 4]를 설정한다.At this time,
Figure 112013033613532-pat00058
The following equation (4) is set.

Figure 112013033613532-pat00059
Figure 112013033613532-pat00059

한편, 위의 [수학식 3]에 따른 움직임 보상은 그리드의 에지 부분에 많은 변화가 있는 경우에 보상 이후에 분산 값이 부적절하게 크게 증가하는 오류가 발생할 수 있는 문제점이 있다. 그에 따라, 움직임 보상 이후에 분산 값이 미리 설정한 임계치

Figure 112013033613532-pat00060
를 초과(즉,
Figure 112013033613532-pat00061
)하는 경우에는 다음의 [수학식 5]에 따라 배경 모델의 에이지를 감소시키는 것이 바람직하다. 이처럼 에이지를 감소시킴으로써 배경 모델의 분산이 지나치게 증가하는 것을 방지할 수 있고, 이를 통해 에지 부근의 전경 이미지가 배경 모델에 영향을 미치지 않도록 해준다.
On the other hand, the motion compensation according to Equation (3) above has a problem that when the edge portion of the grid has many changes, an error that the dispersion value increases inappropriately after compensation may occur. Accordingly, after the motion compensation, the variance value is set to a predetermined threshold value
Figure 112013033613532-pat00060
(I.e.,
Figure 112013033613532-pat00061
), It is preferable to reduce the age of the background model according to the following equation (5). By reducing the age as described above, it is possible to prevent the background model from being excessively dispersed, thereby preventing the foreground image in the vicinity of the edge from affecting the background model.

Figure 112013033613532-pat00062
Figure 112013033613532-pat00062

(이때,

Figure 112013033613532-pat00063
는 미리 설정된 감쇄 파라미터)
(At this time,
Figure 112013033613532-pat00063
Is a predetermined attenuation parameter)

다음으로, 본 발명에서 채용하는 이중모드 SGM(p3)에 대해서 구체적으로 살펴본다. 전술한 바와 같이 입력 영상에 대해 모델 혼합에 따른 카메라 움직임 보상(p2)을 수행한 뒤, 각 그리드 별로 하나의 이중모드 SGM이 사용되는데, 본 발명에서 이중모드 SGM(p3)은 어패런트 배경모델(p3a) 및 캔디더트 배경모델(p3b)로 이루어진다.Next, the dual mode SGM (p3) employed in the present invention will be described in detail. After performing the camera motion compensation (p2) according to the model blending on the input image as described above, one dual mode SGM is used for each grid. In the present invention, the dual mode SGM (p3) p3a and a candy dart background model p3b.

이러한 이중모드 SGM 모델인 어패런트 배경모델(p3a)과 캔디더트 배경모델(p3b)의 각각은 일반적인 SGM 모델 학습법에 따라 학습을 수행하는데 평균 이미지, 분산 이미지, 에이지 이미지로써 표현된다. 이때, 이중모드 SGM을 구성하는 개별 SGM 모델은 픽셀별 정보관측에 대한 정보관측 기억을 의미하는 에이지를 사용한 학습은 가변 학습율로 학습이 진행된다. 이중모드 SGM 모델 중에서 에이지가 큰 쪽이 어패런트 배경모델(p3a)로 선택되고, 에이지가 작은 쪽이 캔디더트 배경모델(p3b)로 선택된다.Each of the dual mode SGM model (p3a) and the candy dart background model (p3b) performs learning according to a general SGM model learning method, and is expressed as an average image, a distributed image, and an age image. At this time, in the individual SGM model constituting the dual mode SGM, the learning using the age, which means information observation memory for the observation of the information per pixel, proceeds with the variable learning rate. In the dual mode SGM model, the larger age is selected as the background background model p3a and the smaller age is selected as the candi dart background model p3b.

배경 모델에 대하여 입력 영상을 사용하여 에이지를 이용한 학습을 진행할 때 어패런트 배경모델(p3a)과 캔디더트 배경모델(p3b)의 두 모델을 비교하여 어떤 모델에 더 알맞은지를 결정 후 학습이 진행된다. 입력 영상에 대해 어패런트 배경모델(p3a)과 캔디더트 배경모델(p3b) 모두 부적합한 것으로 판단되는 경우에는 기존의 캔디더트 배경모델(p3b)을 삭제하고 입력 영상에 따라 캔디더트 배경모델(p3b)을 새로 생성하여 신규로 학습을 전개한다.When we use the input image for the background model, we compare two models of the adherent background model (p3a) and the candy dart background model (p3b) to determine which model is more appropriate. If it is determined that both the background image model (p3a) and the background image model (p3b) are inappropriate for the input image, the existing background image model (p3b) is deleted and the background image (p3b) Create new and develop new learning.

일반적인 SGM과의 비교를 통해 이중모드 SGM의 특성을 나타내는 [도 3]을 참조하여 본 발명에서 채용하는 이중모드 SGM에 대해 좀더 살펴본다. [도 3(a)]의 일반적인 SGM을 참조하면 배경 모델에 전경(FG) 이미지가 포함되어 있는데, 학습률이 낮고 입력 영상이 간단한 경우라면 그럼에도 불구하고 별달리 문제없이 이동체를 검출할 수 있다. 하지만, 본 발명에서와 같이 비고정 카메라에서 제공되는 복잡한 입력 영상에 대해 이동체 검출을 고속으로 달성하기 위해 학습률을 높이는 경우에 [도 3(a)]의 일반적인 SGM을 적용하면 전경 이미지에 의해 배경 모델이 왜곡되는 문제가 심각해진다.The dual mode SGM employed in the present invention will be further described with reference to FIG. 3, which shows the characteristics of the dual mode SGM through comparison with a general SGM. Referring to the general SGM of FIG. 3 (a), a foreground (FG) image is included in the background model. However, if the learning rate is low and the input image is simple, the moving object can be detected without any problem. However, in the case of increasing the learning rate in order to achieve high-speed moving object detection on the complex input image provided by the non-fixed camera as in the present invention, when applying the general SGM of FIG. 3 (a) The problem of distortion becomes serious.

그에 따라 본 발명에서는 [도 3(b)]의 이중모드 SGM을 적용한다. [도 3(b)]를 참조하면 이중모드 SGM에서는 배경 모델에 전경 이미지가 거의 포함되어 있지 않으므로 상기한 문제점이 발생하지 않는다. 이중모드 SGM에서는 캔디더트 배경모델을 추가로 마련하였으며, 캔디더트 배경모델의 에이지가 어패런트 배경모델보다 작은 동안에는 입력 영상에 영향을 받지 않고 있다가, 에이지가 더 커지는 순간 이들 2개의 배경 모델에 대해 스왑이 일어난다.Accordingly, the dual mode SGM of FIG. 3 (b) is applied in the present invention. Referring to FIG. 3 (b), since the foreground image is hardly included in the background model in the dual mode SGM, the above problem does not occur. In the dual mode SGM, an additional candy dirt background model is provided. While the age of the candy dart background model is smaller than the background of the attached background, it is not influenced by the input image. When the age becomes larger, Swap occurs.

즉, 입력 영상의 해당 그리드에 대해 관측한 평균 이미지가 현재의 어패런트 배경모델과 비교할 때 임계범위 이내의 오차를 갖는 경우에는 해당 그리드의 입력 영상을 어패런트 배경모델에 적용하여 [수학식 1]에 따라 학습을 전개한다. 반대로, 입력 영상의 해당 그리드에 대해 관측한 평균 이미지가 현재의 어패런트 배경모델과 비교할 때 오차가 임계범위를 초과하는 반면 캔디더트 배경모델에 대해서는 임계범위 이내의 오차를 갖는 경우라면 해당 그리드의 입력 영상을 캔디더트 배경모델에 적용하여 [수학식 1]에 따라 학습을 전개한다. 이처럼 입력 영상의 해당 그리드에 대해 적합도에 기초하여 어패런트 배경모델과 캔디더트 배경모델의 어느 하나에 대해 선택적으로 모델 학습을 진행한다.That is, when the average image observed for the corresponding grid of the input image has an error within the critical range when compared with the current background image model, the input image of the corresponding grid is applied to the background background model, . On the contrary, if the average image observed for the corresponding grid of the input image exceeds the critical range when compared with the current appalant background model, if the candidate background model has an error within the critical range, The image is applied to the candy dart background model to develop learning according to [Equation 1]. In this way, the model learning is selectively performed on either the appalant background model or the candy dart background model based on the fitness for the corresponding grid of the input image.

한편, 입력 영상의 해당 그리드에 대해 관측한 평균 이미지가 현재의 어패런트 배경모델과 캔디더트 배경모델의 모두에 대해 오차가 임계범위를 초과하는 경우라면 기존의 캔디더트 배경모델을 삭제하고 현재의 입력 영상에 기초하여 캔디터드 배경모델을 신규로 생성한다.On the other hand, if the average image observed for the corresponding grid of the input image exceeds the threshold range for both the current appalant background model and the candy dots background model, the existing candy background background model is deleted and the current input A candy turtle background model is newly created based on the image.

[수학식 1]을 참조하면 모델 학습을 수행하면 에이지

Figure 112013033613532-pat00064
가 변화하게 된다. 본 발명에서는 학습 결과 캔디더트 배경모델의 에이지
Figure 112013033613532-pat00065
가 어패런트 배경모델의 에이지
Figure 112013033613532-pat00066
보다 크면 모델 스왑이 일어나며, 그에 따라 이전의 캔디더트 배경모델이 어패런트 배경모델로 설정되고 이전의 어패런트 배경모델이 캔디더트 배경모델로 설정된다. 바람직하게는, 캔디더트 배경모델은 모델 스왑 이후에는 초기화되어 새롭게 학습을 전개한다.
Referring to Equation (1), if model learning is performed,
Figure 112013033613532-pat00064
. In the present invention, learning result Candidate background model age
Figure 112013033613532-pat00065
Age of the apparel background model
Figure 112013033613532-pat00066
The model swap takes place so that the previous candy dots background model is set as an adherent background model and the previous adventure background model is set as a candy dots background model. Preferably, the Candy Dot background model is initialized after the model swap, and new learning is developed.

다음으로, 어패런트 배경모델(p3a)로부터 이동체 검출 결과를 획득하는 과정에 대해서 설명한다.Next, a process of acquiring moving object detection result from the attached background background model p3a will be described.

상기의 절차를 거쳐 배경 모델을 획득한 후에 본 발명에서는 중심으로부터 임계치 이상의 거리를 갖는 픽셀을 전경 픽셀(이동체)로 간주한다. 이론적으로 완벽하게 하려면 확률 계산을 수행해야 하지만, 확률 계산은 스퀘어루트 계산을 수행해야 하므로 엄청난 연산을 요구하기 때문에 실시간 적용에는 부적절하다. 그에 따라, 본 발명에서는 거리를 계산하여 전경 픽셀 여부를 판단하는 방식을 통해 연산량을 대폭 감소시켰는데, 실험적으로는 이러한 방식을 채택하더라도 이동체 검출성능은 부족하지 않았다.After acquiring the background model through the above procedure, in the present invention, a pixel having a distance equal to or greater than the threshold value from the center is regarded as a foreground pixel (moving object). To be perfectly theoretically, probability calculations must be performed, but probability calculations are inadequate for real-time applications because they require tremendous computation because they require square root calculations. Accordingly, in the present invention, the computation amount is greatly reduced by calculating the distance and determining whether pixels are foreground pixels. Experimentally, even if this method is adopted, the detection performance of the moving object is not insufficient.

수학적으로는 그리드 i의 각 픽셀 j에 대해 다음의 [수학식 6]을 만족하면 전경 픽셀로 분류한다. [수학식 6]을 참조하면 전경 검출에는 어패런트 배경모델만 사용하는데, 전술한 학습 과정을 감안하면 이를 통해 배경모델의 오염에 의해 배경을 잘못 판단하는 상황(소위 'false background 문제')을 회피할 수 있게 된다.
Mathematically, for each pixel j of the grid i, if it satisfies the following equation (6), it is classified into foreground pixels. Referring to Equation (6), only the background model is used for foreground detection. Considering the above-described learning process, it is possible to avoid a situation in which the background is misjudged by the contamination of the background model .

Figure 112013033613532-pat00067
Figure 112013033613532-pat00067

(이때,

Figure 112013033613532-pat00068
는 미리 설정한 임계 파라미터)
(At this time,
Figure 112013033613532-pat00068
Is a predetermined threshold parameter)

한편, 본 발명에 따른 비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 방법에 의해 실행 속도가 향상되는 효과를 살펴보면 [도 4]의 표와 같이 나타난다.Meanwhile, the effect of improving the execution speed by the dual mode SGM-based moving object high speed detection method for the non-fixed camera image according to the present invention is shown in the table of FIG.

[도 4]의 표에 나타난 바와 같이 본 발명은 기존의 방법론에 비해 최소 두 배 이상 향상된 연산 속도를 보인다. 제 1 비교 알고리즘(Barnich 논문, "CR1")과 제 2 비교 알고리즘(Kim 논문, "CR2")은 모두 실시간성에 중점을 둔 방법론임에도 불구하고 본 발명의 알고리즘은 이들 비교 알고리즘에 비해 상대적으로 월등한 성능을 보이는 것으로 나타난다.
As shown in the table of FIG. 4, the present invention shows an improvement in operation speed at least twice as compared with the conventional methodology. Although the first comparison algorithm (Barnich paper, "CR1") and the second comparison algorithm (Kim dissertation, "CR2") are both methodologies focused on real-time property, the algorithm of the present invention is relatively superior Performance.

다음으로, [도 5]를 참조하여 이중모드 SGM(p3) 수행 결과에 따른 효과를 살펴본다. [도 5(a)]는 기존 SGM의 평균 이미지를 나타내며, [도 5(b)]는 이중모드 SGM의 어패런트 백그라운드 모델의 평균 이미지를 나타내며, [도 5(c)]는 이중모드 캔디더트 백그라운 모델의 평균 이미지를 나타낸다. 또한, [도 5(d)]는 기존 SGM에 따른 물체 인식 결과를 나타내며, [도 5(e)]는 본 발명의 이중모드 SGM에 따른 물체 인식 결과를 나타낸다.Next, an effect according to the result of the dual mode SGM (p3) will be described with reference to FIG. 5A shows an average image of an existing SGM, FIG. 5B shows an average image of an attached background model of a dual mode SGM, and FIG. 5C shows an average image of a dual mode Candidate Represents the average image of the background model. 5 (d) shows the object recognition result according to the conventional SGM, and FIG. 5 (e) shows the object recognition result according to the dual mode SGM of the present invention.

[도 5(d)]에서 도시된 바와 같이, 기존의 SGM을 사용할 경우 배경 모델에 전경의 자동차 이미지가 학습되어 물체의 일부가 제대로 검출되지 않는 것을 볼 수 있다. 하지만 [도 5(e)]에서 도시된 바와 같이, 본 발명의 이중모드 SGM을 사용할 경우 배경 모델이 전경 물체로부터 보호되어 올바르게 학습되며 이에 따라 우수한 결과를 얻을 수 있는 것으로 나타난다.
As shown in FIG. 5 (d), when a conventional SGM is used, it can be seen that a foreground automobile image is learned in a background model, and a part of the object is not properly detected. However, as shown in FIG. 5 (e), when the dual mode SGM of the present invention is used, the background model is protected from the foreground object and correctly learned, and thus excellent results can be obtained.

[도 6]은 본 발명에서 모델 혼합을 통한 카메라 움직임 보상(p2)의 효과를 나타내는 도면이다. 즉, [도 6(a)] 및 [도 6(b)]는 기존 픽셀 이동 기반 움직임 보상 결과를 나타내며, [도 6(c)] 및 [도 6(d)]는 본 발명에서 제안된 혼합 기반 움직임 보상 결과를 나타낸다.FIG. 6 is a diagram showing the effect of camera motion compensation (p2) through model mixing in the present invention. 6 (a) and 6 (b) show the existing pixel shift-based motion compensation results, and FIGS. 6 (c) and 6 (d) Based motion compensation results.

[도 6(a)] 내지 [도 6(d)]를 참조하면, 종래의 방식에 의해서는 물체 검출에 대한 제대로 된 결과를 제공하지 못하는데, 이는 그리드 단위로 모델링이 이루어지기 때문에 기존 픽셀 이동 방법으로는 많은 오차가 발생하기 때문이다. 하지만 본 발명에서 제안된 모델 혼합 방식을 사용할 경우에는 그리드 단위로 모델링을 적용하더라도 양호한 결과를 확보할 수 있다.
Referring to FIGS. 6A to 6D, the conventional method does not provide a proper result for object detection. Since modeling is performed in units of a grid, Because there are many errors. However, when the model mixing method proposed in the present invention is used, good results can be obtained even if modeling is applied in a grid unit.

[도 7]은 본 발명에 따른 이중모드 SGM 기반의 이동체 고속 검출 알고리즘이 개인용컴퓨터에서 수행된 결과를 나타내는 도면이다. [도 7]의 첫번째 열은 입력 영상를 나타내며, 두번째 열은 본 발명에 따른 탐지 결과를 나타내며, 세번째 열은 Barnich 논문의 방법에 따른 탐지 결과를 나타내며, 네번째 열은 Kim 논문의 방법에 따른 탐지 결과를 나타낸다.FIG. 7 is a diagram illustrating a result of a dual-mode SGM-based moving object high-speed detection algorithm according to the present invention performed in a personal computer. The first column of FIG. 7 shows the input image, the second column shows the detection result according to the present invention, the third column shows the detection result according to the method of Barnich's paper and the fourth column shows the detection result according to the method of Kim's paper .

그리고 [도 8]은 본 발명에 따른 이중모드 SGM 기반의 이동체 고속 검출 알고리즘이 스마트폰에서 수행된 결과를 나타내는 도면이다.And FIG. 8 is a diagram illustrating a result of a dual-mode SGM-based moving object high-speed detection algorithm according to the present invention performed on a smartphone.

[도 7] 및 [도 8]에서 도시된 바와 같이 비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 방법은 개인용컴퓨터에서 별다른 병렬화 연산의 도움 없이도 320x240 영상에 대하여 5.8 ms에 구동이 가능하며, 스마트폰과 같은 임베디드 무선단말에서도 실시간 성능을 보장한다.As shown in FIG. 7 and FIG. 8, the dual mode SGM-based moving object high speed detection method for non-fixed camera images can be driven to a resolution of 5.8 ms for a 320x240 image without assistance of a parallelization operation in a personal computer , And real-time performance is guaranteed even in an embedded wireless terminal such as a smart phone.

이러한 실시간 성능 외에도 우수한 성능을 확보하기 위하여 본 발명의 방법은 이중모드 SGM 및 에이지를 사용하여 배경을 모델링하며 인접 모델들을 혼합함으로써 카메라의 자체 움직임을 보상한다. 즉, 본 발명에서 새롭게 제안된 이중모드 SGM은 배경 모델이 전경 픽셀 및 잡음에 의해 손상되는 것을 방지하며, 이와 동시에 배경에 변화를 알맞게 학습할 수 있도록 한다.
In order to ensure superior performance in addition to real-time performance, the method of the present invention uses a dual-mode SGM and age to model the background and to compensate for the camera's own motion by mixing adjacent models. That is, the dual mode SGM newly proposed in the present invention prevents the background model from being damaged by foreground pixels and noise, and at the same time makes it possible to learn the change appropriately in the background.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드의 형태로 구현하는 것이 가능하다. 이때, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be embodied in the form of computer readable code on a computer readable recording medium. At this time, the computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 캐리어웨이브(예: 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산된 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인 프로그램, 코드, 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage, and the like, and may be implemented in the form of a carrier wave . The computer-readable recording medium can also be stored and executed by a computer-readable code in a distributed manner on a networked computer system. And functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present invention belongs.

이상과 같이, 본 명세서와 도면에는 본 발명의 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예가 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명하다.As described above, the embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms have been used, they have been used only in a general sense to easily describe the technical contents of the present invention and to facilitate understanding of the invention. And is not intended to limit the scope of the invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

Claims (8)

평균, 분산, 에이지(age)를 갖는 개별적인 두 개의 단일 가우시안 모델을 배경 모델로서 사용하여 어패런트(apparent) 배경모델과 캔디더트(candidate) 배경모델로 이루어지는 이중모드 SGM을 설정하는 제 1 단계;
비고정 카메라의 입력 영상을 복수의 그리드 영역으로 분할하는 제 2 단계;
상기 분할된 그리드 별로 배경 움직임의 이동 방향을 예측하고 그에 대응하여 인접 그리드 영역에 대해 이전 시간에 설정된 배경 모델을 혼합함으로써 상기 입력 영상에 대해 카메라 움직임을 보상하는 제 3 단계;
상기 카메라 움직임이 보상된 그리드 영역별로 상기 이중모드 SGM을 적용하는 제 4 단계;
상기 입력 영상에 대해 상기 이중모드 SGM의 적합도를 검토하여 상기 검토 결과에 따라 상기 어패런트 배경모델과 캔디더트 배경모델 중의 어느 하나에 대해 선택적으로 상기 입력 영상의 학습을 시행하는 제 5 단계;
배경 모델의 에이지에 기초하여 상기 이중모드 SGM의 어패런트 배경모델과 캔디더트 배경모델을 스왑하는 제 6 단계;
상기 어패런트 배경모델로부터 상기 비고정 카메라의 입력 영상으로부터 이동체를 검출하는 제 7 단계;
를 포함하여 구성되는 비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 방법.
A first step of setting a dual mode SGM comprising an apparent background model and a candidate background model using two individual single Gaussian models having average, variance and age as background models;
A second step of dividing the input image of the non-fixed camera into a plurality of grid areas;
A third step of predicting a moving direction of the background motion for each of the divided grids and compensating the camera motion for the input image by mixing the background model set at the previous time with respect to the adjacent grid area;
A fourth step of applying the dual mode SGM to each grid area compensated for camera motion;
A fifth step of examining the fitness of the dual mode SGM with respect to the input image and selectively learning the input image with respect to any one of the adherent background model and the candi dart background model according to the review result;
A sixth step of swapping the dual mode SGM background model and the candy dots background model based on the age of the background model;
A seventh step of detecting a moving object from the input image of the non-fixed camera from the attached background model;
Wherein the moving speed of the non-stationary camera is determined based on the moving speed of the moving object.
청구항 1에 있어서,
상기 입력 영상이 상기 이중모드 SGM의 어패런트 배경모델과 캔디더트 배경모델의 전부에 대해 부적합하다고 판단되는 경우에는 상기 캔디더트 배경모델을 삭제하고 상기 입력 영상에 따라 캔디더트 배경모델을 새로 생성하여 신규로 학습을 전개하는 제 8 단계;
를 더 포함하여 구성되는 비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 방법.
The method according to claim 1,
If it is determined that the input image is not appropriate for all of the apparent background model and the candy dots background model of the dual mode SGM, the Candidate background model is deleted, and a Candidate background model is newly generated according to the input image, An eighth step of developing the learning by the learning step;
The method according to claim 1, further comprising the steps of:
청구항 2에 있어서,
상기 제 5 단계는,
상기 입력 영상이 상기 어패런트 배경모델에 대해 임계범위 이내의 오차를 갖는 경우에는 상기 어패런트 배경모델이 적합한 것으로 판단하고 상기 입력 영상의 학습을 상기 어패런트 배경모델에 대해 시행하는 단계;
상기 입력 영상이 상기 어패런트 배경모델에 대해 임계범위를 초과하는 오차를 갖는 반면 상기 캔디더트 배경모델에 대해서는 임계범위 이내의 오차를 갖는 경우에는 상기 캔디더트 배경모델이 적합한 것으로 판단하고 상기 입력 영상의 학습을 상기 캔디더트 배경모델에 대해 시행하는 단계;
를 포함하여 구성되는 것을 특징으로 하는 비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 방법.
The method of claim 2,
In the fifth step,
If the input image has an error within a critical range with respect to the aparental background model, determining that the aparental background model is appropriate and performing the learning of the input image on the aparental background model;
If the input image has an error exceeding a critical range for the attached background background model but has an error within a critical range for the candidate background model, the candidate background model is determined to be suitable, Performing learning on the Candidate background model;
The method of claim 1, further comprising the step of:
삭제delete 청구항 3에 있어서,
상기 제 3 단계는,
상기 그리드에 대해 호모그래피 행렬
Figure 112014063948997-pat00071
을 계산하여 배경 영상의 이동 방향을 예측하는 단계;
상기 예측된 이동 방향에 따라 원근변환
Figure 112014063948997-pat00072
를 중심으로하는 움직임 보상 배경모델 영역
Figure 112014063948997-pat00073
를 획득하는 단계;
상기 영역
Figure 112014063948997-pat00074
와 겹치는 그리드 그룹
Figure 112014063948997-pat00075
과의 겹침 면적을 반영하여 혼합 가중치
Figure 112014063948997-pat00076
(
Figure 112014063948997-pat00077
)를 계산하는 단계;
상기 그리드에 대해 다음의 수학식
Figure 112014063948997-pat00078

(이때, t는 시간; i는 그리드;
Figure 112014063948997-pat00100
는 시간 t에서 그리드 i의 픽셀 그룹;
Figure 112014063948997-pat00101
,
Figure 112014063948997-pat00102
,
Figure 112014063948997-pat00103
는 시간 t에서 그리드 i의 픽셀 그룹
Figure 112014063948997-pat00104
에 적용되는 SGM 모델의 평균, 분산, 에이지를 각각 나타냄;
Figure 112014063948997-pat00105
,
Figure 112014063948997-pat00106
,
Figure 112014063948997-pat00107
는 시간 (t-1)에서 모델 혼합을 통해 움직임 보상이 이루어진 SGM 모델의 평균, 분산, 에이지를 각각 나타냄;
Figure 112014063948997-pat00108
는 시간 t에서 그리드 i의 픽셀 그룹
Figure 112014063948997-pat00109
의 센터)
(이때, 혼합 가중치
Figure 112014063948997-pat00079
Figure 112014063948997-pat00080
의 조건을 만족함)
에 따라 모델 혼합을 수행하여 상기 비고정 카메라의 움직임에 따른 배경 영상의 이동을 보상하는 단계;
를 포함하여 구성되는 것을 특징으로 하는 비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 방법.
The method of claim 3,
In the third step,
A homography matrix for the grid
Figure 112014063948997-pat00071
And estimating a moving direction of the background image;
In accordance with the predicted movement direction,
Figure 112014063948997-pat00072
A motion compensation background model region
Figure 112014063948997-pat00073
;
The region
Figure 112014063948997-pat00074
And overlapping grid groups
Figure 112014063948997-pat00075
Lt; RTI ID = 0.0 > weighted < / RTI &
Figure 112014063948997-pat00076
(
Figure 112014063948997-pat00077
);
For the grid, the following equation
Figure 112014063948997-pat00078

(Where t is the time; i is the grid;
Figure 112014063948997-pat00100
A group of pixels of grid i at time t;
Figure 112014063948997-pat00101
,
Figure 112014063948997-pat00102
,
Figure 112014063948997-pat00103
Lt; RTI ID = 0.0 > i < / RTI >
Figure 112014063948997-pat00104
The average, variance, and age of the SGM model applied to the SGM model;
Figure 112014063948997-pat00105
,
Figure 112014063948997-pat00106
,
Figure 112014063948997-pat00107
Denotes the average, variance, and age of the SGM model in which motion compensation is performed through model mixing at time (t-1);
Figure 112014063948997-pat00108
Lt; RTI ID = 0.0 > i < / RTI >
Figure 112014063948997-pat00109
Center)
(In this case,
Figure 112014063948997-pat00079
The
Figure 112014063948997-pat00080
Lt; / RTI >
And compensating movement of the background image according to the movement of the non-fixed camera;
The method of claim 1, further comprising the step of:
청구항 5에 있어서,
상기 제 3 단계는,
상기 움직임 보상 이후에 분산 값이 미리 설정한 임계치
Figure 112013033613532-pat00081
를 초과하는 경우에 다음의 수학식
Figure 112013033613532-pat00082

(이때,
Figure 112013033613532-pat00083
는 미리 설정된 감쇄 파라미터)
을 통해 배경 모델의 에이지를 감소시키는 단계;
를 더 포함하여 구성되는 것을 특징으로 하는 비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 방법.
The method of claim 5,
In the third step,
After the motion compensation, the variance value is set to a threshold value
Figure 112013033613532-pat00081
, The following equation
Figure 112013033613532-pat00082

(At this time,
Figure 112013033613532-pat00083
Is a predetermined attenuation parameter)
Decreasing the age of the background model through < RTI ID = 0.0 >
The method of claim 1, wherein the moving speed of the non-stationary camera is determined based on the moving speed of the moving object.
청구항 6에 있어서,
상기 배경 모델을 구성하는 단일 가우시안 모델은 다음의 수학식
Figure 112013033613532-pat00084

Figure 112013033613532-pat00085

(이때,
Figure 112013033613532-pat00086
는 그리드 i의 평균;
Figure 112013033613532-pat00087
는 그리드 i의 분산;
Figure 112013033613532-pat00088
는 그리드 i의 에이지;
Figure 112013033613532-pat00089
는 그리드 i의 픽셀 그룹;
Figure 112013033613532-pat00090
는 그리드 i의 픽셀 개수;
Figure 112013033613532-pat00091
는 픽셀 j의 픽셀 인텐시티)
에 따라 설정되는 것을 특징으로 하는 비고정 카메라 영상에 대한 이중모드 SGM 기반의 이동체 고속 검출 방법.
The method of claim 6,
The single Gaussian model constituting the background model is expressed by the following equation
Figure 112013033613532-pat00084

Figure 112013033613532-pat00085

(At this time,
Figure 112013033613532-pat00086
The average of grid i;
Figure 112013033613532-pat00087
Is the variance of the grid i;
Figure 112013033613532-pat00088
The age of the grid i;
Figure 112013033613532-pat00089
A group of pixels of grid i;
Figure 112013033613532-pat00090
Is the number of pixels in grid i;
Figure 112013033613532-pat00091
Is the pixel intensity of pixel j)
Wherein the moving speed of the moving object is set in accordance with the moving speed of the moving object.
컴퓨터에 청구항 1 내지 3, 5 내지 7 중 어느 하나의 항에 따른 이중모드 SGM 기반의 이동체 고속 검출 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.A computer-readable recording medium having recorded thereon a program for causing a computer to execute a dual mode SGM based moving matter high speed detection method according to any one of claims 1 to 3 and 5 to 7.
KR1020130042470A 2013-04-17 2013-04-17 Method of providing fast detection of moving objects from non-stationary camera video by dual-mode SGM, and computer-readable recording medium for the same KR101438451B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130042470A KR101438451B1 (en) 2013-04-17 2013-04-17 Method of providing fast detection of moving objects from non-stationary camera video by dual-mode SGM, and computer-readable recording medium for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130042470A KR101438451B1 (en) 2013-04-17 2013-04-17 Method of providing fast detection of moving objects from non-stationary camera video by dual-mode SGM, and computer-readable recording medium for the same

Publications (1)

Publication Number Publication Date
KR101438451B1 true KR101438451B1 (en) 2014-09-12

Family

ID=51759569

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130042470A KR101438451B1 (en) 2013-04-17 2013-04-17 Method of providing fast detection of moving objects from non-stationary camera video by dual-mode SGM, and computer-readable recording medium for the same

Country Status (1)

Country Link
KR (1) KR101438451B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820818A (en) * 2014-12-26 2015-08-05 广东中科遥感技术有限公司 Fast recognition method for moving object
US10311579B2 (en) 2016-01-22 2019-06-04 Samsung Electronics Co., Ltd. Apparatus and method for detecting foreground in image
KR20200086585A (en) 2019-01-09 2020-07-17 국방과학연구소 Method and apparatus for detecting moving object from image recorded by unfixed camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003524949A (en) 1999-11-05 2003-08-19 デモグラエフエックス インコーポレーテッド System and method for motion compensation and frame rate conversion
JP2009533778A (en) 2006-04-17 2009-09-17 オブジェクトビデオ インコーポレイテッド Video segmentation using statistical pixel modeling
JP2009290827A (en) 2008-06-02 2009-12-10 Sony Corp Image processing apparatus, and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003524949A (en) 1999-11-05 2003-08-19 デモグラエフエックス インコーポレーテッド System and method for motion compensation and frame rate conversion
JP2009533778A (en) 2006-04-17 2009-09-17 オブジェクトビデオ インコーポレイテッド Video segmentation using statistical pixel modeling
JP2009290827A (en) 2008-06-02 2009-12-10 Sony Corp Image processing apparatus, and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820818A (en) * 2014-12-26 2015-08-05 广东中科遥感技术有限公司 Fast recognition method for moving object
CN104820818B (en) * 2014-12-26 2018-05-08 广东中科遥感技术有限公司 A kind of method for quickly identifying of mobile object
US10311579B2 (en) 2016-01-22 2019-06-04 Samsung Electronics Co., Ltd. Apparatus and method for detecting foreground in image
KR20200086585A (en) 2019-01-09 2020-07-17 국방과학연구소 Method and apparatus for detecting moving object from image recorded by unfixed camera
KR102141646B1 (en) * 2019-01-09 2020-08-05 국방과학연구소 Method and apparatus for detecting moving object from image recorded by unfixed camera

Similar Documents

Publication Publication Date Title
Yun et al. Scene conditional background update for moving object detection in a moving camera
US9767570B2 (en) Systems and methods for computer vision background estimation using foreground-aware statistical models
US9536147B2 (en) Optical flow tracking method and apparatus
TWI420906B (en) Tracking system and method for regions of interest and computer program product thereof
Wang Real-time moving vehicle detection with cast shadow removal in video based on conditional random field
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
US8363902B2 (en) Moving object detection method and moving object detection apparatus
JP2018509678A (en) Target acquisition method and apparatus
JP7272024B2 (en) Object tracking device, monitoring system and object tracking method
US20180005039A1 (en) Method and apparatus for generating an initial superpixel label map for an image
KR101051389B1 (en) Adaptive background-based object detection and tracking device and method
KR102141646B1 (en) Method and apparatus for detecting moving object from image recorded by unfixed camera
Ait Abdelali et al. An adaptive object tracking using Kalman filter and probability product kernel
KR100994367B1 (en) Method for tracking a movement of a moving target of image tracking apparatus
CN110728700B (en) Moving target tracking method and device, computer equipment and storage medium
KR101438451B1 (en) Method of providing fast detection of moving objects from non-stationary camera video by dual-mode SGM, and computer-readable recording medium for the same
Makino et al. Moving-object detection method for moving cameras by merging background subtraction and optical flow methods
CN105469054A (en) Model construction method of normal behaviors and detection method of abnormal behaviors
Lee et al. Moving object detection using unstable camera for video surveillance systems
US20150030206A1 (en) Detecting and Tracking Point Features with Primary Colors
Verma et al. Analysis of moving object detection and tracking in video surveillance system
JP6598952B2 (en) Image processing apparatus and method, and monitoring system
Li et al. Fast visual tracking using motion saliency in video
JP6289027B2 (en) Person detection device and program
JP2013152537A (en) Information processing apparatus and method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170824

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180820

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190917

Year of fee payment: 6