KR100566629B1 - System for detecting moving objects and method thereof - Google Patents

System for detecting moving objects and method thereof Download PDF

Info

Publication number
KR100566629B1
KR100566629B1 KR1020030038674A KR20030038674A KR100566629B1 KR 100566629 B1 KR100566629 B1 KR 100566629B1 KR 1020030038674 A KR1020030038674 A KR 1020030038674A KR 20030038674 A KR20030038674 A KR 20030038674A KR 100566629 B1 KR100566629 B1 KR 100566629B1
Authority
KR
South Korea
Prior art keywords
image
block
motion
frame
difference image
Prior art date
Application number
KR1020030038674A
Other languages
Korean (ko)
Other versions
KR20040107962A (en
Inventor
송진기
Original Assignee
주식회사 팬택
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 팬택 filed Critical 주식회사 팬택
Priority to KR1020030038674A priority Critical patent/KR100566629B1/en
Publication of KR20040107962A publication Critical patent/KR20040107962A/en
Application granted granted Critical
Publication of KR100566629B1 publication Critical patent/KR100566629B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining

Abstract

본 발명의 이동물체 검출 시스템 및 방법은, 누적 차영상 및 모션 추정 기법을 통합하여 이동 카메라로 획득된 연속 영상에서 이동물체를 자동으로 검출함으로써, 저비용으로 종래의 이동물체 추적 시스템의 초기화 문제를 해결하여 추적시스템의 자동화를 완성하는 이동물체 검출 시스템 및 방법을 제공하는데 그 목적이 있다.The moving object detection system and method of the present invention integrates a cumulative difference image and a motion estimation technique to automatically detect a moving object in a continuous image obtained by a moving camera, thereby solving the problem of initiating a conventional moving object tracking system at low cost. To provide a moving object detection system and method for completing the automation of the tracking system.

상기 목적을 달성하기 위하여 본 발명은, 시퀀스 이미지 프레임을 순차적으로 입력받아 프레임간 누적 차영상을 획득하고, 상기 누적 차영상을 가지고 형태학적 필터링 과정을 수행하여 모션 이미지 데이터를 생성하는 모션 정보 획득부; 및 상기 시퀀스 이미지 프레임 및 상기 모션 이미지 데이터를 입력받아 블록 정합 과정을 통하여 모션을 추정하고, 추정된 결과에 따라 최종 후보 블록 영역을 검출하는 최종 후보 블록 검출부를 포함한다.In order to achieve the above object, the present invention provides a motion information acquisition unit that sequentially receives a sequence image frame, obtains a cumulative difference image between frames, and generates a motion image data by performing a morphological filtering process with the cumulative difference image. ; And a final candidate block detector which receives the sequence image frame and the motion image data, estimates motion through a block matching process, and detects a final candidate block area according to the estimated result.

누적 차영상, 모션 추정, 동영상Cumulative difference video, motion estimation, video

Description

이동물체 검출 시스템 및 방법{SYSTEM FOR DETECTING MOVING OBJECTS AND METHOD THEREOF} Moving object detection system and method {SYSTEM FOR DETECTING MOVING OBJECTS AND METHOD THEREOF}             

도 1은 종래의 이동 물체 검출 방법을 나타낸 동작흐름도,1 is a flow chart showing a conventional moving object detection method,

도 2는 종래의 이동 물체 검출 시스템을 나타낸 블록도,2 is a block diagram showing a conventional moving object detection system;

도 3은 본 발명의 일 실시예에 의한 이동물체 검출 시스템을 나타낸 블록도,3 is a block diagram showing a moving object detection system according to an embodiment of the present invention;

도 4a는 초기 프레임 3개를 이용한 누적 차영상을 나타낸 예시도,4A is an exemplary diagram illustrating a cumulative difference image using three initial frames;

도 4b는 연속된 9 프레임 동안 움직임 정보를 누적시킨 영상을 나타낸 예시도,4B is an exemplary diagram illustrating an image in which motion information is accumulated for nine consecutive frames;

도 4c는 형태학적 필터를 이용하여 잡음을 제거한 영상을 나타낸 예시도,4c is an exemplary view showing an image from which noise is removed by using a morphological filter;

도 5는 본 발명의 일 실시예에 의한 이동물체 검출 시스템의 블록 정합 방법을 나타낸 예시도,5 is an exemplary view showing a block matching method of a moving object detection system according to an embodiment of the present invention;

도 6a는 모션 정보 영상과 블록 분할을 나타낸 예시도,6A is an exemplary diagram illustrating a motion information image and block division;

도 6b는 블록 초기화된 영상을 나타낸 예시도,6B is an exemplary diagram illustrating a block initialized image;

도 6c는 3 프레임 이후의 후보 블록들을 나타낸 예시도,6C is an exemplary diagram illustrating candidate blocks after three frames;

도 6d는 9 프레임 이후의 최종 후보 블록들을 나타낸 예시도,6D is an exemplary diagram illustrating final candidate blocks after nine frames;

도 7a 및 도 7b는 탐색 창 영역 내에 XY-프로젝션을 이용한 이동물체의 검출 을 나타낸 예시도,7A and 7B are exemplary views illustrating detection of a moving object using XY-projection in a search window area;

도 8은 본 발명의 일 실시예에 의한 이동물체 검출 방법을 나타낸 동작흐름도.8 is a flowchart illustrating a moving object detection method according to an embodiment of the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

310 : 모션 정보 획득부 330 : 최종 후보 블록 검출부310: motion information acquisition unit 330: final candidate block detection unit

본 발명은 이동물체 검출 시스템 및 방법에 관한 것으로, 특히, 누적 차영상 및 모션 추정 기법을 통합하여 획득된 후보영역을 연속된 영상에서 블록단위로 모션을 추정하고 추정된 움직임의 변화가 심한 부분을 제거시키면서 이동물체를 검출하는 이동물체 검출 시스템 및 방법에 관한 것이다.The present invention relates to a moving object detection system and method. In particular, the candidate region obtained by integrating a cumulative difference image and a motion estimation technique is estimated in a block unit in a continuous image, and a portion where the estimated change of motion is severely determined. A moving object detection system and method for detecting a moving object while removing it.

최근에, 컴퓨터 비전에 대한 연구는 자연환경에서 인간의 시각 능력을 대신할 시스템을 구축하고자 한다. 지금까지는 주위 환경 변화를 고려하지 않아도 되는 최적의 조건인 실험실 환경에서 진행되어 왔으나 점차 자연 환경에서도 적용이 가능한 분야로 확대되고 있다. 자연 환경에서 움직이는 카메라로부터 획득한 연속 영상에서 움직이는 이동물체 검출은 이동물체 추적을 위한 초기화로 컴퓨터 비전 및 여러 응용 분야에서 많은 연구가 진행되고 있는 분야이다. 특히, 움직이는 카메라에서 이동물체를 검출하는 것은 배경의 움직임이 있기 때문에 컴퓨터 비전 분야에 서 대단히 도전적인 과제 중 하나이다. 이동물체 검출은 물체 인식, 로봇, 감시시스템, 무인 차량 시스템과 같은 다양한 응용 분야에 적용된다.Recently, research on computer vision has attempted to build a system that replaces human visual ability in the natural environment. Until now, it has been progressed in the laboratory environment, which is an optimal condition that does not need to consider the change in the surrounding environment, but is gradually expanding to the applicable field in the natural environment. Moving object detection in a continuous image obtained from a moving camera in a natural environment is a field that is being studied in computer vision and various applications as the initialization for moving object tracking. In particular, detecting moving objects in a moving camera is one of the most challenging tasks in the field of computer vision because of the background motion. Moving object detection is applied to various applications such as object recognition, robots, surveillance systems and unmanned vehicle systems.

배경의 움직임이 발생하는 이동 카메라로부터 획득한 연속영상에서 이동물체의 검출은 영상 내 움직임을 해석함으로서 가능해진다. 영상 내 움직임을 해석하는 모델은 크게 모수 모델(parametric model)과 비모수 모델(non-parametric model)로 구분할 수 있다. 모수 모델은 3차원 공간상의 좌표를 정사 투영(orthographic projection) 혹은 원근 투영(perspective projection)에 의하여 2차원 영상 평면상의 좌표로 표현하는데 사용된다. 이 모델은 3차원계의 분석적인 정보를 제공하기는 하지만, 3차원 강체 움직임(rigid motion)의 해석에만 적용할 수 있다는 단점이 있다. 모수 모델을 이용한 방법은 개별 영상 단위로는 비교적 정확한 움직임의 해석이 가능하지만 이를 영상 취득 환경이 시시각각 변하는 영상 시퀀스에 적용했을 때, 영상 간의 관계를 규명하는데 많은 계산을 필요로 하며, 또한 비강체 움직임(non-rigid motion)의 해석에도 한계가 있다. 한편, 비모수 모델은 2차원 영상의 직관적인 분석을 가능하게 하며 이 모델을 사용하는 방법으로서 결정론적 움직임 기반(deterministic motion based) 방법으로 대표되는 광류 기반(optical-flow based) 추정방법, 특징 기반(feature based) 추정방법, 블록 기반(block based) 추정방법이 있다.The detection of a moving object in a continuous image obtained from a mobile camera in which background motion occurs is made possible by analyzing the motion in the image. Models for analyzing motion in an image can be classified into parametric models and non-parametric models. The parametric model is used to represent coordinates in three-dimensional space as coordinates on a two-dimensional image plane by orthographic or perspective projection. Although this model provides analytic information of the three-dimensional system, it has a disadvantage that it can be applied only to the analysis of three-dimensional rigid motion. The method using the parameter model is able to interpret relatively accurate movements in the individual image units, but when it is applied to the image sequence in which the image acquisition environment changes rapidly, it requires a lot of calculation to identify the relationship between the images and also the non-rigid movements. There is also a limit to the interpretation of non-rigid motion. On the other hand, the non-parametric model enables intuitive analysis of two-dimensional images and uses the model as an optical-flow based estimation method and a feature-based method, which is represented by a deterministic motion based method. feature based), and block based estimation.

물체 추적의 초기화로서 이동 물체를 검출하는 기존의 방법은 광류를 이용한 방법과 특징 기반 방법이 주로 쓰인다. 광류를 이용한 방법은 이전 프레임에서 구해진 물체가 시간과 공간의 변화를 거쳐서 다음 프레임의 한 위치에 있을 때 시공 간 벡터를 이용하여 물체의 이동을 인식하고 추적한다. 혼(Horn) 등에 의해 제안된 방법은 연속적인 영상에서 완만한 밝기를 갖는 경우에 정확한 광류를 얻을 수 있으나 급변하는 영상의 경우에는 정확한 해를 구하기가 어렵다. 그리고, 각 화소에 대해 반복적인 계산이 요구되어져 많은 계산적 부담을 필요로 한다. 광류를 이용한 방법은 여러 요소에 의해 영상의 밝기 값이 변화하는 외부에서의 적용의 어려움과 계산량이 많기 때문에 처리 속도라 느린 단점이 있다. 특징을 이용한 방법은 움직이는 카메라에서 획득한 연속 영상에서 영상의 특징을 이용하여 영상에서 이동물체와 배경의 서로 다른 모션 정보를 구하여 배경으로부터 물체를 분리시키고자 하는 방법이다. 영상의 특징이한 면과 면 사이의 경계선, 선의 교차점, 물체의 모서리 부분, 곡선의 극대/극소점 등을 말한다. 인간의 시각 체계(human visual system)에서 배경 속의 물체의 존재는 먼저 이러한 영상의 특징에 의하여 배경 속의 물체를 구분함으로써 판단되며, 구분된 물체의 형태는 물체의 외곽 경계 속에 존재하는 특징 점들의 연결 관계에 의하여 결정된다. 물체의 이동 여부의 판단 및 추적은 이러한 특징 점들의 이동 관계를 규명함으로써 가능해 진다. 이동물체의 검출은 특징 점의 시간에 따른 이동을 나타내는 모션 경로를 구한 후, 특징 점의 위치, 특징 기반 모션 경로를 이루는 특징 벡터의 각과 크기를 매개변수로 하는 특징 공간 상의 군집화를 행함으로써 가능하다. 특징 경로 기반 정보로 사용되는 모서리 점의 검출은 SUSAN(Smallest Univalue Segment Assimilationg Nucleus), KLT(Kanade-Lucas-Tomasi), 해리스(Harris) 등의 방법이 있다. 이러한 특징 기반 방식은 특징 점들이 잘 나타나지 않는 영상에 적용하기가 힘들고, 배경의 움직임이 일정한 하나의 방향 을 갖지 않는 이동 물체를 검출하기 위한 영상구조에서는 균일한 배경 정보를 얻기가 힘든 단점이 있다.Conventional methods for detecting moving objects as the initialization of object tracking are mainly based on optical flow and feature-based methods. The optical flow method recognizes and tracks the movement of an object by using the space-time vector when the object obtained in the previous frame is located at the next frame through time and space changes. The method proposed by Horn et al. Obtains accurate light flow in the case of moderate brightness in continuous images, but it is difficult to obtain accurate solutions in the case of rapidly changing images. And, iterative calculation is required for each pixel, which requires a lot of computational burden. The method using the optical flow has a disadvantage of slow processing because it is difficult to apply in the outside and the amount of calculation is large because the brightness value of the image is changed by various factors. The method using the feature is a method of separating the object from the background by obtaining different motion information of the moving object and the background from the image by using the feature of the image in the continuous image obtained from the moving camera. The features of the image are the boundaries between the faces, the intersections of lines, the edges of objects, and the maximum / minimum points of curves. In the human visual system, the existence of objects in the background is determined by first distinguishing the objects in the background by the characteristics of the image, and the shape of the separated objects is connected to the feature points in the outer boundary of the object. Is determined by. Determination and tracking of object movement are made possible by identifying the movement relationship of these feature points. The moving object can be detected by obtaining a motion path representing the movement of the feature point over time, and performing clustering on the feature space using the position and the angle and size of the feature vector constituting the feature-based motion path as parameters. . The edge point used as the feature path-based information includes methods such as Smallest Univalue Segment Assimilationg Nucleus (SUSAN), Kanade-Lucas-Tomasi (KLT), Harris (Harris), and the like. This feature-based method is difficult to apply to an image in which feature points do not appear well, and it is difficult to obtain uniform background information in an image structure for detecting a moving object having a constant background movement.

이동 물체 추적의 하드웨어 시스템 구성에 있어 이동물체의 검출은 저 비용으로 간단한 알고리즘을 가진 시스템이 요구된다. 그리고, 기존의 방법들에 대한 문제점을 극복하기 위해 본 논문에서는 누적 차영상(double difference) 및 모션 추정 기법(motion estimation)을 통합한 방법을 이용하여 배경의 움직임이 유발되는 이동 카메라로부터 획득한 연속영상에서 전방향 이동물체를 자동으로 검출하기 위한 알고리즘을 제안한다. 누적 차영상은 연속된 3개의 프레임을 이용하여 중간 프레임의 움직임을 검출한 영상으로 연속된 영상에서 균일한 질감을 가지는 배경을 제거시켜 이동물체가 존재할 후보영역을 찾기 위해 사용된다. 모션 추정 기법은 이동카메라로 획득한 연속영상에서 배경이 가지는 빠른 변화의 특성을 이용하여 배경을 제거시키기 위해 사용된다. 누적 차영상 및 모션 추정 기법을 통합하여 찾아진 후보영역을 연속된 영상에서 블록단위로 모션을 추정하고 추정된 움직임의 변화가 심한 부분을 제거시키면서 이동물체를 검출한다.In the hardware system construction of moving object tracking, the detection of moving objects requires a system with a simple algorithm at low cost. In addition, in order to overcome the problems of the existing methods, this paper uses a method that integrates a cumulative double difference and motion estimation technique. We propose an algorithm for automatically detecting omnidirectional moving objects in an image. The cumulative difference image is an image that detects the movement of an intermediate frame using three consecutive frames. The cumulative difference image is used to find a candidate region where a moving object exists by removing a background having a uniform texture from the continuous image. The motion estimation technique is used to remove the background by using the characteristics of the fast change of the background in the continuous image acquired by the mobile camera. By integrating the cumulative difference image and the motion estimation technique, the candidate region found is estimated in block units from consecutive images, and the moving object is detected while eliminating the portions of the estimated motion that are severely changed.

도 1은 종래의 이동 물체 검출 방법을 나타낸 동작흐름도로서, 이러한 종래의 이동 물체 검출 방법은, 이전 프레임에서 추적하고자 하는 물체를 수동적으로 선택하여 탬플릿(templet)으로 두는 단계(S101); 다음 프레임에서 이전 프레임에서 추출된 템플릿을 이용하여 배경과 물체를 분할하는 단계(S102); 및 분할된 물체 중 정합 과정을 통하여 이전에 추적하던 물체와 유사도가 가장 높은 것을 추적 중인 물체로 업데이트시키는 단계(S103)를 포함한다.1 is a flowchart illustrating a conventional moving object detection method. The conventional moving object detection method includes: manually selecting an object to be tracked in a previous frame and leaving it as a template (S101); Dividing an object from a background by using a template extracted from a previous frame in a next frame (S102); And updating the object having the highest similarity with the object previously tracked through the matching process among the divided objects (S103).

도 2는 종래의 이동 물체 검출 시스템을 나타낸 블록도로서, 이러한 종래의 이동 물체 검출 시스템은, k번째 프레임의 입력 영상(Ik) 및 이전 추적 모델(Mk-1)을 입력받아 각각의 히스토그램을 획득하고, 밀집도 필터링을 수행하여 밝기 값을 특징으로 하는 패턴을 인식하며, 그 결과값(Bck)을 출력하는 히스토그램 백 프로젝션부(HBP)(210); 히스토그램 백 프로젝션부(HBP)의 출력 신호(Bck) 및 k번째 프레임의 입력 영상(Ik)를 입력받고, 히스토그램 인터섹션 과정을 통하여 k번째 프레임에서 구해진 추적 물체가 있을 가능성이 높은 영역(RMk)을 획득하는 히스토그램 인터섹션부(220); 히스토그램 인터섹션부(220)의 출력 신호(RMk) 및 k번째 프레임의 입력 영상(Ik)를 입력받고, 이를 통하여 물체의 최외곽을 검출한 추적 모델(Mk)을 생성하는 XY-프로젝션부(230); XY-프로젝션부(230)의 출력 신호를 지연하는 지연부(240); 및 지연부(240)의 출력 신호 및 초기 검출된 이동물체의 모델(M0)을 가산한 후, 히스토그램 백 프로젝션부(HBP)(210)로 출력하는 가산부(250)를 포함한다.FIG. 2 is a block diagram illustrating a conventional moving object detection system. In the conventional moving object detection system, each histogram receives an input image I k and a previous tracking model M k-1 of a k- th frame. A histogram back projection unit (HBP) 210 for acquiring a symbol, recognizing a pattern characterized by a brightness value by performing density filtering, and outputting a result value Bc k ; An area RM that is likely to have a tracking object obtained in the kth frame by receiving the output signal Bc k of the histogram back projection unit HBP and the input image I k of the kth frame, and performing a histogram intersection process. k ) histogram intersection section 220 for obtaining; XY-projection that receives the output signal RM k of the histogram intersection unit 220 and the input image I k of the k-th frame, thereby generating a tracking model M k that detects the outermost part of the object. Part 230; A delay unit 240 for delaying the output signal of the XY-projection unit 230; And an adder 250 that adds an output signal of the delay unit 240 and a model M 0 of the initially detected moving object, and then outputs the histogram back projection unit HBP 210.

상술한 종래의 이동 물체 검출 시스템의 동작에 관하여 설명하면 다음과 같다. 추적하고자하는 이동물체는 시스템 사용자에 의해 주어진다. 주어진 추적 대상의 이동물체를 탬플릿으로 하여 연속적인 입력 영상에서 물체를 추적한다. 입력영상에서 이동물체 분할을 위해 히스토그램 백 프로젝션을 사용하고 정합을 위한 모델로서 히스토그램 인터섹션을 이용하며, 정확한 물체판별과 추출을 위해 XY-프로젝션을 사용한다. 먼저, 히스토그램 백 프로젝션은 영상 내에 있는 물체를 분할하 고, 추적하고자 하는 물체의 위치를 찾아내는데 유용한 방법이다. 입력 영상(I)의 히스토그램을 HI(j)로 정의하고 모델이 되는 물체의 히스토그램을 HM(j)라고 정의한다. HR(j)는 HM(j)을 HI(j)로 나눈 히스토그램으로 둔다. HR(j)에 의해 역투사된 영상 IB는 하기 수학식과 같이 나타낼 수 있다.Referring to the operation of the conventional moving object detection system described above is as follows. The moving object to be tracked is given by the system user. A moving object of a given tracking object is used as a template to track an object in a continuous input image. Histogram back projection is used for moving object segmentation in the input image, histogram intersection as a model for matching, and XY-projection is used for accurate object identification and extraction. First, histogram back projection is a useful method for segmenting objects in an image and finding the location of the object to be tracked. The histogram of the input image I is defined as H I (j), and the histogram of the model object is defined as H M (j). H R (j) is the histogram divided by H M (j) by H I (j). The image I B back-projected by H R (j) can be expressed by the following equation.

Figure 112003021350053-pat00001
Figure 112003021350053-pat00001

물체는 역 투사된 영상 IB의 최고 값 근처에 존재할 확률이 높다. 좀 더 정확한 결과를 얻기 위해서 밀집도 필터링(density filtering)을 사용했다. Dr을 반지름 r을 갖는 원형 마스크로 정의하고 하기 수학식과 같이 나타낸다.The object is likely to be near the highest value of the back projected image I B. Density filtering was used to get more accurate results. D r is defined as a circular mask having a radius r and is represented by the following equation.

Figure 112003021350053-pat00002
Figure 112003021350053-pat00002

여기서, r은 물체영상 대각선 길이의 절반 값으로 정의한다.Here, r is defined as half the diagonal length of the object image.

또한, 히스토그램 정합에 관한 연구법으로써 히스토그램 인터섹션은 고전적인 패턴 인식의 일종이라고 할 수 있다. 이 방법은 특징 점으로써 히스토그램의 각 밝기 값을 이용한다. 인식하고자 하는 물체와 동일한 물체인지를 판단하기 위해서 히스토그램 인터섹션을 이용하게 되는데, 결과 값이 클수록 인식하고자 하는 물체 와 유사하다고 할 수 있다. 히스토그램 인터섹션은 하기 수학식과 같이 정의할 수 있다.In addition, histogram intersection is a kind of classical pattern recognition as a method for histogram matching. This method uses each brightness value in the histogram as a feature point. The histogram intersection is used to determine whether the object is the same as the object to be recognized. The larger the result, the more similar to the object to be recognized. The histogram intersection may be defined as in the following equation.

Figure 112003021350053-pat00003
Figure 112003021350053-pat00003

여기서, 입력 영상(I)의 한 점(i)를 중심점으로 가지는 모델 영상과 같은 크기의 정합후보 영상을 만든다. 정합후보 영상의 히스토그램은

Figure 112003021350053-pat00004
이고, 모델 영상의 히스토그램은 HM이다. 정합후보 영상과 모델 영상은 동일한 n개의 밝기값을 갖고 있다. 모델 영상의 히스토그램과 정합후보 영상의 히스토그램 인터섹션의 결과는 정합흐보 영상에서 동일한 밝기 값을 갖는 화소에 대응되는 모델 영상의 화소의 갯수이다.Here, a matching candidate image having the same size as a model image having one point i of the input image I as a center point is made. The histogram of the matched candidate image is
Figure 112003021350053-pat00004
The histogram of the model image is H M. The matched candidate image and the model image have the same n brightness values. The result of the histogram intersection of the model image and the matched candidate image is the number of pixels of the model image corresponding to the pixels having the same brightness value in the matched image.

0과 1 사이의 정합 값을 갖도록 하기 위해서 히스토그램 인터섹션 값을 정규화시킨다. 모델 영상의 히스토그램에 대응되는 화소의 갯수를 적용시키는데 정규화된 값은 다음과 같이 나타낼 수 있다.Normalize histogram intersection values to have matching values between 0 and 1. A normalized value may be expressed as follows by applying the number of pixels corresponding to the histogram of the model image.

Figure 112003021350053-pat00005
Figure 112003021350053-pat00005

히스토그램 인터섹션 결과 값은 배경과의 분할이 쉽게 되지 않는 상황에서도 그 값이 감소되지 않는다. 배경에서 물체를 완벽하게 분할해 내기란 쉽지 않은데 만약 모델 내부에 있는 화소가 동일한 밝기 값을 갖는다면 정합 값이 커지게 된다. 그리고 정합을 하려는 물체 내부의 특정 밝기 값을 갖는 화소의 갯수가 모델 영상에서 동일한 값을 갖는 화소 갯수보다 적으면 정합 값이 높아진다.The result of the histogram intersection does not decrease even when the division with the background is not easy. It is not easy to divide the object perfectly in the background, but if the pixels inside the model have the same brightness, the match will be large. If the number of pixels having a specific brightness value in the object to be matched is smaller than the number of pixels having the same value in the model image, the matching value is increased.

한편, 히스토그램 백 프로젝션을 사용하여 물체가 있을 확률이 높은 위치를 찾게 된다. 찾아진 위치를 정합 후보 점으로 두고 히스토그램 인터섹션을 적용하면 정합하고자 하는 물체를 포함한 영역을 얻게된다. 이 정보를 가지고 XY-프로젝션을 수행하면 물체의 최 외곽을 찾아낼 수 있다. XY-프로젝션을 수행하기 위해 히스토그램 인터섹션을 수행하고 얻어진 영역내부의 영상에 대해서 수직 에지와 수평 에지를 구한다. 수직 에지 영상(V(x,y,k)), 수평 에지 영상(H(x,y,k))은 밝기 경사를 이용하여 구한다. 수평, 수직 에지를 이용하여 x, y축으로 투사시키는데, 수직 에지를 x축으로 투사하여 구한 결과를 u로 둔다. 그리고 수평 에지를 y축으로 투사하여 구한 결과를 v로 두는데 다음의 수학식들로 나타낸다.On the other hand, the histogram back projection is used to find a position where an object is more likely to be present. Applying the histogram intersection with the found position as the matching candidate point, we obtain the area containing the object to be matched. Performing an XY-projection with this information can find the outermost part of the object. Histogram intersection is performed to perform XY-projection, and vertical and horizontal edges are obtained for the image in the obtained region. The vertical edge images V (x, y, k) and the horizontal edge images H (x, y, k) are obtained using brightness gradients. The horizontal and vertical edges are used to project the x and y axes, and the result obtained by projecting the vertical edges to the x axis is left as u. The result of the projection of the horizontal edge on the y-axis is set to v. The following equation is used.

Figure 112003021350053-pat00006
Figure 112003021350053-pat00006

Figure 112003021350053-pat00007
Figure 112003021350053-pat00007

잡음을 없애고 물체를 추출해 내기 위해서 임계값을 정하여 설정하였으며 임계값은 각 방향으로 프로젝션시킨 값 중에서 가장 큰 값의 1/2.5배 되는 것으로 정했다. 다음의 식으로 임계값을 표현하였다.In order to remove noise and extract objects, a threshold value was set and set, and the threshold value was determined to be 1 / 2.5 times the largest value projected in each direction. The threshold value is expressed by the following equation.

Figure 112003021350053-pat00008
Figure 112003021350053-pat00008

Figure 112003021350053-pat00009
Figure 112003021350053-pat00009

수직 에지를 x축 방향으로 프로젝션시켜서 나온 값을 왼쪽 끝과 오른쪽 끝에서 각각 중심으로 진행해 나가면서 조사한다. 조사하는 과정에서 임계값보다 크게 나올 경우 물체의 좌우 외곽을 찾았다고 판단하고 멈춘다. 수평 에지도 마찬가지로 처리하여 물체를 추출해 낸다.Project the vertical edges in the x-axis direction and examine the values from the left and right ends toward the center. If it is larger than the threshold value during the investigation, it is determined that the left and right outside of the object is found and stops. Similarly, the horizontal edge is processed to extract the object.

또한, 앞서 설명한 이동물체 추적 시스템은 히스토그램 프로젝션을 이용하여 배경이 변하는 연속된 영상에서 효율적으로 물체를 추적한다. 반면, 물체 추적을 위한 초기화에 해당되는 추적 대상 이동 물체를 자동으로 검출하는 방법은 해결되지 않았다. 배경의 움직임이 유발되는 이동 카메라로부터 획득한 연속영상에서는 추적 대상의 이동물체를 배경에서 자동적으로 분리하기가 힘들기 때문이다. 기존 연구에서 추적 초기화는 수동적으로 시스템 사용자가 입력 영상에서 추적 대상 물체를 찾아내어 템플릿으로 저장하는 과정으로 구성된다.In addition, the moving object tracking system described above efficiently tracks objects in a continuous image in which the background is changed by using histogram projection. On the other hand, a method of automatically detecting a tracking target moving object corresponding to initialization for object tracking has not been solved. This is because it is difficult to automatically separate the moving object to be tracked from the background in the continuous image obtained from the moving camera which causes the background motion. In the existing research, tracking initialization consists of manually finding the tracking object in the input image and saving it as a template.

즉, 실시간 처리를 위한 추적 시스템은 처리속도가 빨라야 하고, 변화하는 배경에서도 용이하게 이동물체를 추적할 수 있어야 하는데, 이런 상황에서 이동 카메라상의 이동물체 검출은 배경을 제외시키는 검출 영역의 감소 및 이동 물체의 특징을 고려한 후보 영역의 설정이 요구되나 광류 기반의 추정 방법 및 특징 기반 추정 방법은 이러한 이동물체 검출 시스템이 요구하는 빠른 처리속도를 수용하지 못할 뿐 아니라 변화하는 배경을 효율적으로 제거하지 못하는 문제점이 있다.That is, the tracking system for real-time processing should be fast and the moving object can be easily tracked even in the changing background. In this situation, the detection of the moving object on the moving camera reduces and moves the detection area excluding the background. Although the candidate area needs to be set in consideration of the feature of the object, the optical flow-based estimation method and the feature-based estimation method do not accommodate the fast processing speed required by such a moving object detection system, and do not efficiently remove the changing background. There is this.

상기 문제점을 해결하기 위하여 안출된 본 발명은, 누적 차영상 및 모션 추정 기법을 통합하여 이동 카메라로 획득된 연속 영상에서 이동물체를 자동으로 검출함으로써, 저비용으로 종래의 이동물체 추적 시스템의 초기화 문제를 해결하여 추적시스템의 자동화를 완성하는 이동물체 검출 시스템 및 방법을 제공하는데 그 목적이 있다.
In order to solve the above problems, the present invention integrates a cumulative difference image and a motion estimation technique to automatically detect a moving object in a continuous image obtained by a moving camera, thereby solving the problem of initializing a conventional moving object tracking system at low cost. It is an object of the present invention to provide a moving object detection system and method for solving the automation of the tracking system.

상기 목적을 달성하기 위하여 본 발명의 이동물체 검출 시스템은, 시퀀스 이미지 프레임을 순차적으로 입력받아 프레임간 누적 차영상을 획득하고, 상기 누적 차영상을 가지고 형태학적 필터링 과정을 수행하여 모션 이미지 데이터를 생성하는 모션 정보 획득부; 및 상기 시퀀스 이미지 프레임 및 상기 모션 이미지 데이터를 입력받아 블록 정합 과정을 통하여 모션을 추정하고, 추정된 결과에 따라 최종 후보 블록 영역을 검출하는 최종 후보 블록 검출부를 포함한다.In order to achieve the above object, the moving object detection system of the present invention receives a sequence image frame sequentially, acquires a cumulative difference image between frames, and generates motion image data by performing a morphological filtering process with the cumulative difference image. A motion information acquisition unit; And a final candidate block detector which receives the sequence image frame and the motion image data, estimates motion through a block matching process, and detects a final candidate block area according to the estimated result.

또한 상기 목적을 달성하기 위하여 본 발명의 이동물체 검출 방법은, 연속된 프레임을 입력받는 단계; 상기 연속된 프레임을 비교하여 움직임이 있는 영역을 누적 차영상을 이용하여 검출하는 단계; 상기 움직임이 있는 영역에서 균일한 질감을 가지는 배경을 제거시켜 이동물체가 존재할 후보 영역을 감소시키는 단계; 일련의 프레임을 입력받고, 상기 이동물체가 존재할 후보 영역을 참조하여 블록 정합을 수행하고, 그 결과 정합이 가장 잘되는 블록 위치 및 정합에 따른 모션 벡터의 변위를 획득하는 단계; 및 상기 모션 벡터의 변위를 허용 경계 값과 비교하여 변위가 큰 블록들은 제거시킴으로써 배경을 점차적으로 제거시켜 이동물체가 존재하는 최종 후보 영역을 획득하는 단계를 포함한다.In addition, the moving object detection method of the present invention to achieve the above object, the step of receiving a continuous frame; Comparing the successive frames and detecting a moving region using a cumulative difference image; Reducing a candidate area in which a moving object is present by removing a background having a uniform texture in the moving area; Receiving a series of frames, performing block matching with reference to a candidate region in which the moving object will exist, and as a result, obtaining a block position where the matching is best and a displacement of a motion vector according to the matching; And comparing the displacement of the motion vector with an allowable boundary value to gradually remove the background by removing blocks having a large displacement to obtain a final candidate region in which a moving object exists.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여 본 발명의 가장 바람직한 실시예들을 첨부된 도면을 참조하여 설명하기로 한다.Hereinafter, the most preferred embodiments of the present invention will be described with reference to the accompanying drawings so that those skilled in the art can easily implement the technical idea of the present invention. .

먼저, 도 3은 본 발명의 일 실시예에 의한 이동물체 검출 시스템을 나타낸 블록도로서, 이러한 본 발명의 이동물체 검출 시스템은, 모션 정보 획득부(310) 및 최종 후보 블록 검출부(330)를 포함한다.First, FIG. 3 is a block diagram illustrating a moving object detection system according to an exemplary embodiment of the present invention. The moving object detection system of the present invention includes a motion information acquisition unit 310 and a final candidate block detection unit 330. do.

모션 정보 획득부(310)는, 시퀀스 이미지 프레임(Ik)을 순차적으로 입력받아 프레임간 누적 차영상을 획득하고, 상기 누적 차영상을 가지고 형태학적 필터링 과정을 수행하여 모션 이미지 데이터(IDD)를 생성하는 역할을 한다. 여기서, 상기 모 션 정보 획득부(310)에 관하여 상세히 설명하면 다음과 같다.The motion information acquisition unit 310 sequentially receives the sequence image frame I k , obtains a cumulative difference image between frames, and performs a morphological filtering process with the cumulative difference image to perform motion image data I DD . It plays a role in generating. Here, the motion information acquisition unit 310 will be described in detail as follows.

상기 모션 정보 획득부(310) 내에 장착된 제1 지연부(311)는, 상기 시퀀스 이미지 프레임(Ik)을 입력받아 지연시킨 후, 지연된 프레임(Ik-1)을 출력하는 역할을 한다.The first delay unit 311 mounted in the motion information acquisition unit 310 plays a role of outputting the delayed frame I k-1 after receiving and delaying the sequence image frame I k .

또한, 상기 모션 정보 획득부(310) 내에 장착된 제2 지연부(312)는, 상기 제1 지연부(311)로부터 프레임(Ik-1)을 입력받아 지연시킨 후, 지연된 프레임(Ik-2)을 출력하는 역할을 한다.In addition, the second delay unit 312 mounted in the motion information acquisition unit 310 receives a frame I k-1 from the first delay unit 311 and delays the delayed frame I k. -2 ) outputs

한편, 상기 모션 정보 획득부(310) 내에 장착된 제1 차영상 생성부(313)는, 상기 시퀀스 이미지 프레임(Ik) 및 상기 제1 지연부(311)에서 출력된 프레임(Ik-1)을 입력받아 차영상을 생성하는 역할을 한다.Meanwhile, the first difference image generator 313 mounted in the motion information acquirer 310 may output the frame I k-1 output from the sequence image frame I k and the first delay unit 311. ) To generate a difference image.

또한, 상기 모션 정보 획득부(310) 내에 장착된 제2 차영상 생성부(314)는, 상기 제1 지연부(311)에서 출력된 프레임(Ik-1) 및 상기 제2 지연부(312)에서 출력된 프레임(Ik-2)을 입력받아 차영상을 생성하는 역할을 한다.In addition, the second difference image generator 314 mounted in the motion information acquisition unit 310 may include the frame I k-1 output from the first delay unit 311 and the second delay unit 312. ) Generates a difference image by receiving the output frame I k-2 .

한편, 상기 모션 정보 획득부(310) 내에 장착된 제1 이진화부(315)는, 상기 제1 차영상 생성부(313)에서 출력된 차영상을 입력받아 이진 데이터로 변환하는 역할을 한다.Meanwhile, the first binarization unit 315 mounted in the motion information acquisition unit 310 receives a difference image output from the first difference image generation unit 313 and converts the difference image into binary data.

또한, 상기 모션 정보 획득부(310) 내에 장착된 제2 이진화부(316)는, 상기 제2 차영상 생성부(314)에서 출력된 차영상을 입력받아 이진 데이터로 변환하는 역 할을 한다.In addition, the second binarization unit 316 mounted in the motion information acquisition unit 310 receives a difference image output from the second difference image generation unit 314 and converts the difference image into binary data.

한편, 상기 모션 정보 획득부(310) 내에 장착된 AND 연산부(317)는, 상기 제1 이진화부(315)에서 출력된 데이터 및 상기 제2 이진화부(316)에서 출력된 데이터를 입력받아 AND 연산을 수행한 후, 그 결과 데이터를 누적 차영상으로써 출력하는 역할을 한다.The AND operator 317 mounted in the motion information acquirer 310 receives an AND operation by receiving data output from the first binarizer 315 and data output from the second binarizer 316. And then output the data as a cumulative difference image.

또한, 상기 모션 정보 획득부(310) 내에 장착된 가산부(318)는, 상기 AND 연산부(317)에서 출력된 상기 누적 차영상 및 지연 모션 이미지를 입력받아 가산한 후 출력하는 역할을 한다.In addition, the adder 318 mounted in the motion information acquisition unit 310 receives and adds the cumulative difference image and the delayed motion image output from the AND operator 317 and outputs the received difference.

한편, 상기 모션 정보 획득부(310) 내에 장착된 제3 지연부(319)는, 상기 가산부(318)에서 출력된 데이터를 입력받아 지연시켜 상기 지연 모션 이미지를 생성하고, 상기 지연 모션 이미지를 상기 가산부(318)로 출력하는 역할을 한다.Meanwhile, the third delay unit 319 mounted in the motion information acquisition unit 310 generates the delayed motion image by delaying the data output from the adder 318 and generates the delayed motion image. The output unit 318 serves to output.

또한, 상기 모션 정보 획득부(310) 내에 장착된 형태학적 분석부(321)는, 상기 가산부(318)에서 출력된 데이터를 입력받아 형태학적 필터에 의하여 팽창 및 침식을 반영한 후 상기 모션 이미지 데이터(IDD)로서 출력하는 역할을 한다.In addition, the morphological analysis unit 321 mounted in the motion information acquisition unit 310 receives the data output from the adder 318 to reflect expansion and erosion by a morphological filter and then the motion image data. Outputs as (I DD ).

한편, 최종 후보 블록 검출부(330)는, 상기 시퀀스 이미지 프레임(Ik) 및 상기 모션 정보 획득부(310)에서 출력된 상기 모션 이미지 데이터(IDD)를 입력받아 블록 정합 과정을 통하여 모션을 추정하고, 추정된 결과에 따라 최종 후보 블록 영역(BRk)을 검출하는 역할을 한다. 여기서, 상기 최종 후보 블록 검출부(330)에 관하여 상세히 설명하면 다음과 같다.Meanwhile, the final candidate block detector 330 receives the sequence image frame I k and the motion image data I DD output from the motion information acquirer 310, and estimates motion through a block matching process. And detects the final candidate block area BR k according to the estimated result. Here, the final candidate block detector 330 will be described in detail as follows.

상기 최종 후보 블록 검출부(330) 내에 장착된 제4 지연부(331)는, 상기 시퀀스 이미지 프레임(Ik)을 입력받아 지연시킨 후 출력하는 역할을 한다.The fourth delay unit 331 mounted in the final candidate block detector 330 receives and delays the sequence image frame I k and outputs the delayed image.

또한, 상기 최종 후보 블록 검출부(330) 내에 장착된 블록 초기화부(332)는, 누적 차영상 기법을 사용하여 균일한 질감을 가지는 배경부분이 제거된 누적 모션 정보를 가진 상기 모션 이미지 데이터(IDD)를 입력받고, 상기 모션 이미지 데이터(IDD)를 일정한 크기의 블록 단위로 나누어 블록 내 모션 정보를 가지지 않는 블록들을 제거하고 남은 블록을 출력하는 역할을 한다.In addition, the block initialization unit 332 mounted in the final candidate block detector 330 may perform the motion image data I DD having cumulative motion information from which a background part having a uniform texture is removed using a cumulative difference image technique. ), The motion image data I DD is divided into block units having a predetermined size to remove blocks that do not have motion information in the block, and to output the remaining blocks.

한편, 상기 최종 후보 블록 검출부(330) 내에 장착된 블록 정합부(333)는, 상기 시퀀스 이미지 프레임(Ik) 및 상기 제4 지연부(331)에서 출력된 프레임을 포함하는 일련의 프레임을 입력받고, 상기 일련의 프레임 중 선행하는 프레임이 이후의 프레임 상에서 정합이 가장 잘되는 위치를 찾으며, 블록 위치 및 정합에 따른 모션 벡터의 변위를 출력하는 역할을 한다.Meanwhile, the block matching unit 333 mounted in the final candidate block detector 330 inputs a series of frames including the sequence image frame I k and the frames output from the fourth delay unit 331. In this case, the preceding frame finds the best matching position on the subsequent frame, and outputs the block position and the displacement of the motion vector according to the matching.

또한, 상기 최종 후보 블록 검출부(330) 내에 장착된 블록 영역 업데이트부(334)는, 상기 블록 정합부(333)로부터 상기 블록 위치 및 상기 모션 벡터의 변위를 입력받고, 상기 모션 벡터의 변위를 허용 경계 값과 비교하여 변위가 큰 블록들은 제거시킴으로써 배경을 점차적으로 제거시키며, 이를 통하여 이동물체가 존재하는 최종 후보 영역(BRk)을 찾아 출력하는 역할을 한다.Also, the block region updater 334 mounted in the final candidate block detector 330 receives the displacement of the block position and the motion vector from the block matcher 333, and permits the displacement of the motion vector. Backgrounds are gradually eliminated by removing blocks having a large displacement compared to the boundary value, and thereby finding and outputting the final candidate region BR k in which the moving object exists.

한편, 상기 최종 후보 블록 검출부(330) 내에 장착된 제5 지연부(335)는, 상 기 블록 영역 업데이트부(334)에서 출력된 최종 후보 영역(BRk)을 입력받아 지연시킨 후 출력하는 역할을 한다.Meanwhile, the fifth delay unit 335 mounted in the final candidate block detector 330 receives and delays the final candidate region BR k output from the block region updater 334 and outputs the delayed final candidate region BR k . Do it.

또한, 상기 최종 후보 블록 검출부(330) 내에 장착된 스위칭부(336)는, 상기 블록 초기화부(332)에서 출력된 데이터 또는 상기 제5 지연부(335)에서 출력된 데이터를 상기 블록 정합부(333)의 상기 일련의 프레임 중 하나로서 도통시키는 역할을 한다.In addition, the switching unit 336 mounted in the final candidate block detector 330 may output data output from the block initialization unit 332 or data output from the fifth delay unit 335. 333 serves as one of the series of frames.

상술한 본 발명의 일 실시예에 의한 이동물체 검출 시스템의 동작에 관하여 설명하면 다음과 같다.Referring to the operation of the moving object detection system according to an embodiment of the present invention described above are as follows.

먼저, 모션 정보 획득부(310)에서, 연속된 일정 프레임 동안 움직임이 있는 영역을 누적 차영상을 이용하여 검출하고 균일한 질감을 가지는 배경을 제거시켜 이동물체가 존재할 후보 영역을 감소시킨다. 그 후, 최종 후보 블록 검출부(330)에서, 연속된 일정프레임에서 획득된 누적 차영상을 이용하여 찾아진 후보영역을 모션 추정 기법을 이용하여 블록 단위로 모션을 추정하고 일정한 크기 변화를 벗어나는 블록 영역을 순차적으로 제거함으로써 배경을 완전히 없앤다. 이후에, XY-프로젝션을 이용하여 최종후보 영역에서 이동물체를 검출한다. 누적 차영상과 모션 추정 기법을 통합한 전방향 이동물체의 검출에서 누적 차영상은 영상의 배경 중에서 많은 비중을 차지하는 균일한 질감을 가지는 부분을 효율적으로 제거하고 영상의 모션정보를 획득하여 이동물체가 존재하는 후보영역을 찾는다. 모션 추정 기법은 이동물체와 배경이 가지는 서로 다른 모션 정보를 이용하여 배경을 제거시켜 이동물체를 검출 가능하게 한다. 이러한 시스템의 동작에 관하여 상세히 설명하면 다음과 같다.First, the motion information acquisition unit 310 detects a region having a motion during a continuous frame by using a cumulative difference image, and removes a background having a uniform texture to reduce a candidate region in which a moving object is to exist. Thereafter, the final candidate block detector 330 estimates motion in blocks by a motion estimation method and estimates a candidate area found by using a cumulative difference image acquired in a continuous frame, and then deviates from a constant size change. Eliminate background completely by sequentially removing. Then, the moving object is detected in the final candidate area using XY-projection. In the detection of omnidirectional moving objects integrating the cumulative difference image and the motion estimation technique, the cumulative difference image efficiently removes the portion having uniform texture, which takes up a large portion of the background of the image, and acquires the motion information of the image. Find a candidate region that exists. The motion estimation technique detects a moving object by removing a background using different motion information of the moving object and the background. The operation of such a system will be described in detail as follows.

우선, 자연환경에서 획득된 영상은 하늘, 아스팔트 도로와 같이 균일한 질감을 가지는 배경들이 많은 부분을 차지한다. 차영상 기법은 2개의 연속된 영상에서 이러한 균일한 질감을 가지는 성분들은 제거를 시키고 움직임이 있는 영역만을 검출 가능하게 한다. 누적 차영상 기법은 연속 영상으로부터 균일한 질감을 가지는 배경 영역을 효율적으로 제거하고 영상 내의 모션 정보를 얻기 위해 사용하며 움직임 정보를 해당 영역에 누적시킨다.First, the images acquired in the natural environment occupy a large part of the background having a uniform texture such as sky and asphalt road. The difference imaging technique removes such components having uniform texture from two consecutive images and makes it possible to detect only moving regions. The cumulative difference image technique efficiently removes a background region having a uniform texture from a continuous image, obtains motion information in the image, and accumulates motion information in the region.

차영상을 만들기 위한 식은 다음과 같다.The formula for making the difference image is as follows.

Figure 112003021350053-pat00010
Figure 112003021350053-pat00010

누적 차영상은 2개의 연속 차영상에 속한 픽셀과의 논리적 AND를 수행함으로써 획득된다. 누적 차영상을 만들기 위한 식은 다음과 같다.The cumulative difference image is obtained by performing a logical AND with pixels belonging to two consecutive difference images. The formula for making the cumulative difference image is as follows.

Figure 112003021350053-pat00011
Figure 112003021350053-pat00011

여기서, T는 임계값을 나타낸다. 구해진 누적 차영상에 잡음을 제거하기 위해 형태학적 필터를 수행한다. 팽창은Where T represents a threshold. A morphological filter is performed to remove noise on the obtained cumulative difference image. Expansion

Figure 112003021350053-pat00012
Figure 112003021350053-pat00012

로 표현한다. 여기서,

Figure 112003021350053-pat00013
는 x만큼 움직인 S(Structuring element) 집합이다.Expressed as here,
Figure 112003021350053-pat00013
Is a set of S (Structuring elements) moved by x.

Figure 112003021350053-pat00014
Figure 112003021350053-pat00014

로 표현한다. 적용한 형태학적 필터를 적용한 결과는 다음과 같다.Expressed as The results of applying the applied morphological filter are as follows.

Figure 112003021350053-pat00015
Figure 112003021350053-pat00015

도 4a~도 4c는 모션 정보 획득부(310)를 이용하여 연속된 일정 프레임에서 누적 차영상을 이용하여 균일한 질감을 가지는 배경을 제거시키고 움직임이 있는 영역을 검출하여 누적시킨 후 형태학적 필터를 거친 결과를 나타낸 예시도로서, 도 4a는 초기 프레임 3개를 이용한 누적 차영상을 나타낸 예시도이고, 도 4b는 연속된 9 프레임 동안 움직임 정보를 누적시킨 영상을 나타낸 예시도이며, 도 4c는 형태학적 필터를 이용하여 잡음을 제거한 영상을 나타낸 예시도이다.4A to 4C illustrate a morphological filter after removing a background having a uniform texture using a cumulative difference image in a continuous frame using a motion information acquisition unit 310, detecting and accumulating a moving area. 4A is an exemplary view showing a cumulative difference image using three initial frames, FIG. 4B is an exemplary view showing an image accumulated with motion information for nine consecutive frames, and FIG. 4C is a shape. This is an exemplary view showing an image from which noise is removed using a scientific filter.

또한, 최종 후보 블록 검출부(330)에 적용되는 블록기반의 모션 추정 기법은 연속적인 프레임(Ik-1)과 프레임(Ik) 사이의 움직임을 추정하는 동영상 압축에 많이 사용되어지는 방법이다. 일반적으로 동영상은 공간 및 시간적으로 중복되는 성분을 많이 가지고 있기 때문에 공간적인 처리만으로는 높은 압축율을 얻을 수 없다. 압축 효율을 높이기 위하여 시간적인 중복성을 제거하기 위한 움직임 보상 부호화를 수행한다. 이를 이용한 데이터의 압축 방법에서는 이전 프레임을 이용하여 모션 추정 및 보상을 행한 뒤, 추정된 모션 벡터에 의해 보상된 영상과 원 영상의 차영상을 부호화한다. 블록단위의 모션 추정 기법과 같은 블록 기반 알고리즘은 광류 기반 또는 특징 기반 추정방법과 같은 화소 순환 알고리즘(pel recursive algorithm; PRA)에 비하여 모션 추정에 소요되는 시간이 적으며 하드웨어 구현이 용이한 장점이 있어 움직임 보상 부호화에 널리 사용된다. 이 방법은 H.261, H.263, MPEG-1, MPEG-2 등과 같은 영상 부호화 표준안에 적용되었다.In addition, the block-based motion estimation technique applied to the final candidate block detector 330 is a method widely used for video compression for estimating the motion between successive frames I k-1 and I k . In general, since a video has a lot of overlapping components in space and time, a high compression ratio cannot be obtained by spatial processing alone. Motion compensation coding is performed to remove temporal redundancy to increase compression efficiency. In the data compression method using the same, motion estimation and compensation are performed using a previous frame, and then the difference image between the original image and the image compensated by the estimated motion vector is encoded. Block-based algorithms, such as block-based motion estimation techniques, require less time for motion estimation and easier hardware implementation than pel recursive algorithms (PRA), such as optical flow-based or feature-based estimation methods. Widely used for motion compensation coding. This method has been applied to video coding standards such as H.261, H.263, MPEG-1, MPEG-2, etc.

블록 단위의 모션 추정을 이용한 개별 모션 벡터의 추정은 대개 프레임(Ik-1)의 개별 블록과 프레임(Ik)의 미리 정의된 검색 윈도우 내부에서 전 영역을 비교하여 블록을 정합하는 과정으로 수행된다. 이것은 수행 시간이 많이 걸리게 되는 단점이 있다. 이에 계층적 구조를 가지는 정규화된 상호상관 계수를 사용하여 수행 시간을 단축한다.Estimation of the individual motion vectors with the motion estimation on a block-by-block basis is usually carried out in the process of matching the block by comparing the entire region in advance inside the defined search window of the frame each block and the frame (I k) of (I k-1) do. This has the disadvantage that it takes a long time to execute. This reduces the execution time by using a normalized cross-correlation coefficient having a hierarchical structure.

우선, 최종 후보 블록 검출부(330)는, 크게 블록 초기화부(332), 블록 정합부(333), 블록 영역 업데이트부(334)의 세부분으로 나눌 수 있다. 모든 과정들은 피라미드 구조에 의하여 상위 계층의 축소된 영상에서 시행되며 결과 데이터는 하위 계층으로 투영시켜 원 영상에 대한 결과 값을 갖는다. 블록 초기화부(332)에서는 누적 차영상 기법을 사용하여 균일한 질감을 가지는 배경부분이 제거된 누적된 모션 정보를 가진 영상(IDD)을 일정한 크기의 블록단위로 나누어 블록 내 모션 정보를 가지지 않는 블록들은 제거시킨다. 제거되고 남은 블록들은 일정한 연속 프레임에서 블록 정합 과정을 거치게 된다. 또한, 블록 정합부(333)는 이전 프레임 상의 블록들이 현재 프레임 상에서 정합이 가장 잘 되는 위치를 찾는 과정을 수행하게 된다. 그 후, 블록 영역 업데이트부(334)는, 블록정합 후, 획득된 블록들의 모션 벡터의 변위를 혀용 경계 값과 비교하여 변위가 큰 블록들은 제거시킴으로써 배경을 점차적으로 제거시켜 이동물체가 존재하는 최종후보 영역을 찾는 과정을 수행하게 된다. 도 5를 참조하면, k번째 프레임의 입력 영상(Ik), 블록정합 후 k번째 프레임에서 블록들의 위치(BPk)가 나타나 있다. 또한, 블록 모션 벡터의 변위(d), 블록에 의해 검출된 이동물체가 존재할 후보 영역(BRk)도 도시되어 있다.First, the final candidate block detector 330 can be largely divided into the details of the block initialization unit 332, the block matching unit 333, and the block region updater 334. All processes are performed on the reduced image of the upper layer by the pyramid structure, and the result data is projected to the lower layer to have the result value for the original image. The block initialization unit 332 divides the image I DD having accumulated motion information from which a background portion having a uniform texture is removed by using a cumulative difference image technique into blocks of a predetermined size and does not have motion information in a block. Remove the blocks. The remaining blocks are then subjected to block matching in certain continuous frames. In addition, the block matching unit 333 performs a process of finding a position where the blocks on the previous frame are matched best on the current frame. Then, after block matching, the block area updater 334 compares the displacement of the motion vectors of the obtained blocks with the tongue boundary value, and gradually removes the background by removing the blocks having large displacements, so that the final object having the moving object exists. The process of finding candidate regions is performed. Referring to FIG. 5, the input image I k of the k th frame and the positions BP k of the blocks in the k th frame after block matching are shown. In addition, the displacement d of the block motion vector and the candidate region BR k in which the moving object detected by the block will be shown are also shown.

블록정합에 의한 모션의 추정은 두 프레임 중 과거의 프레임을 N×N 블록으로 겹쳐짐 없이(non-overlapping) 나누고, 나뉜 각각의 N×N블록을 이 블록과 같은 지점을 중심으로 현재의 프레임을 N×N블록이 가장 잘 정합하는 점을 찾는 것이다. 이때, 블록 안의 모든 점은 같은 움직임을 가진다고 가정한다. 도 5에 도시된 바와 같이 w로 표기된 탐색 창 크기에 따라 추정할 수 있는 최대의 변위가 가변적이다. 순수한 화소간의 밝기 값을 갖는 부분을 찾는 블록정합 알고리즘은 영상의 특징을 이용하지 않으므로, 영상에 특징이 있고 없는 것에 상관없이 모든 종류의 영상에 응용할 수 있다는 장점이 있다.Estimation of motion by block matching divides past frame among two frames non-overlapping into N × N blocks, and divides each N × N block into current frame based on the same point as this block. It is to find the point where N × N block matches best. At this time, it is assumed that all points in the block have the same movement. As shown in FIG. 5, the maximum displacement that can be estimated depends on the size of the search window denoted by w. The block matching algorithm that finds a part having a pure brightness value between pixels does not use an image feature, and thus has an advantage that it can be applied to all kinds of images regardless of whether or not the image is characteristic.

서로 매칭될 수 있는 두 블록 사이에서 정합의 정도를 나타내는 척도로는 평균절대오차(mean absolute difference; MAD), 평균자승오차(mean squared difference; MSD) 및 정규화된 상호상관계수(normalized cross-correlation coefficient; NCC) 방법이 널리 사용되고 있다. MAD, MSD 및 NCC는 각각 다음 수식으로 표현된다.A measure of the degree of match between two blocks that can be matched to each other is the mean absolute difference (MAD), mean squared difference (MSD), and normalized cross-correlation coefficient. ; NCC) method is widely used. MAD, MSD and NCC are each represented by the following formula.

Figure 112003021350053-pat00016
Figure 112003021350053-pat00016

Figure 112003021350053-pat00017
Figure 112003021350053-pat00017

Figure 112003021350053-pat00018
Figure 112003021350053-pat00018

여기서, Ik(i,j)는 현재 프레임, Ik-1(i,j)는 이전 프레임의 (i,j) 위치에서의 밝기 값을 나타내며 (u,v)는 탐색 영역에서의 탐색점이다.

Figure 112003021350053-pat00019
는 현재 프레임의 블록 내 화소들의 밝기 평균값을,
Figure 112003021350053-pat00020
는 이전 프레임의 블록 내 화소들의 밝기 평균값을 나타낸다. 각 탐색점에 대해 MAD와 MSD는 그 값이 최소가 되는 (u,v)를 모션 벡터로 정의하고, NCC는 그 값이 최대하 되는 (u,v)를 모션 벡터로 정의한다. 세 가지 척도는 정확성과 계산량의 장단점이 서로 맞물려 있다. NCC는 세가지 척도 중에서 가장 정확한 모션 벡터를 탐색하지만 계산량이 가장 많다. 그리고, MAD는 계산량이 적고 하드웨어 구현이 용이하여 널리 이용되고 있지만 세가지 중에서 정확성이 가장 떨어진다.Where I k (i, j) is the current frame, I k-1 (i, j) is the brightness value at the (i, j) position of the previous frame and (u, v) is the search point in the search region. to be.
Figure 112003021350053-pat00019
Is the average brightness value of the pixels in the block of the current frame,
Figure 112003021350053-pat00020
Denotes a brightness average value of the pixels in the block of the previous frame. For each search point, MAD and MSD define (u, v) as the motion vector with the minimum value, and NCC defines (u, v) as the motion vector with the maximum value. The three measures combine the advantages and disadvantages of accuracy and computation. The NCC searches for the most accurate motion vector of the three measures, but has the highest computational complexity. In addition, MAD is widely used because of its small amount of calculation and easy hardware implementation, but has the lowest accuracy among the three.

본 발명에 의하면 영상에서 많을 부분을 차지하는 균일한 질감을 가지는 배경을 제거 후 모션 정보를 가지는 영역만을 블록단위로 정합과정을 시행하므로 정합대상 블록의 수가 적다. 그리고, 계층적 구조를 이용하여 축소된 영상에서 블록 정합이 시행되므로 정확성이 높은 정규화된 상호상관 계수를 정합척도로 사용한다.According to the present invention, since the matching process is performed on a block-by-block basis only after removing a background having a uniform texture, which occupies a large portion of an image, the number of target blocks is small. In addition, since block matching is performed on a reduced image using a hierarchical structure, a highly accurate normalized cross-correlation coefficient is used as a matching scale.

계층적 구조를 가진 정규화된 상호상관 계수를 적용한 모션 추정 기법은 일정 프레임 동안 추정된 모션 벡터 정보 중에서 일정한 크기 변화를 벗어나는 블록 영역을 제거함으로써 배경을 없애고 이동물체가 존재할 후보영역을 축소시켜 나간다. 블록 모션 벡터의 변위(d)는 다음과 같다.The motion estimation technique using the hierarchical normalized cross-correlation coefficient removes the block region that escapes the constant size change from the estimated motion vector information for a certain frame, thereby eliminating the background and reducing the candidate region in which the moving object will exist. The displacement d of the block motion vector is as follows.

Figure 112003021350053-pat00021
Figure 112003021350053-pat00021

여기서, ρ{ }는 정합척도 함수를 나타내고, dx, dy는 변위를, W는 검색 영역을, x,y는 영상의 좌표를 나타낸다. 블록 영역 추출은 하기 수학식과 같다.Here, ρ {} denotes a matching scale function, d x and d y denote displacements, W denotes a search region, and x and y denote coordinates of an image. Block region extraction is as follows.

Figure 112003021350053-pat00022
Figure 112003021350053-pat00022

여기서, Td는 임계범위를 나타낸다.Here, T d represents a critical range.

도 6a~도 6d는 누적 차영상 기법을 이용하여 검출된 모션 정보 영상을 블록 단위로 나눈 후, 각 블록들 중 모션 정보를 가지는 블록만을 찾아서 연속된 9프레임 동안 모션 추정을 시행하여 배경을 제거시켜 나가는 과정을 나타낸 것이다. 여기서, 도 6a는 모션 정보 영상과 블록 분할을 나타낸 예시도이고, 도 6b는 블록 초기화된 영상을 나타낸 예시도이며, 도 6c는 3 프레임 이후의 후보 블록들을 나타낸 예시도이고, 도 6d는 9 프레임 이후의 최종 후보 블록들을 나타낸 예시도이다.6A to 6D divide the motion information image detected using a cumulative difference image method into blocks, find only blocks having motion information among the blocks, and perform motion estimation for 9 consecutive frames to remove the background. It shows the exit process. 6A is an exemplary diagram illustrating a motion information image and block division, FIG. 6B is an exemplary diagram illustrating a block initialized image, FIG. 6C is an exemplary diagram illustrating candidate blocks after 3 frames, and FIG. 6D is 9 frames. It is an exemplary view showing the final candidate blocks after.

입력으로 받아들여진 영상 내에 움직이는 물체가 2개 이상이 있는 경우 최종 후보 블록들은 이에 상응하는 서로 떨어진 군집들을 이루게 된다. 다중 이동물체의 검출은 이런 블록 군집들을 서로 나누기 위한 레이블 과정을 수행하여 가능해 진다.If there are two or more moving objects in the image received as input, the final candidate blocks will form corresponding clusters. Detection of multiple moving objects is made possible by performing a labeling process to divide these block clusters.

블록단위의 모션 추정에 의하여 남겨진 각 블록들은 이동물체와 모든 부분을 포함하지 않을 수 있다. 이동물체의 정확한 검출을 위하여 최종 후보 블록 군집의 최 외곽을 둘러싸는 사각형의 영역에 다시 오프셋을 적용하여 이동물체를 검출하기 위한 탐색 창을 구한다. 이동물체는 이 탐색착 내에서 이동물체가 가지는 수직, 수평 에지를 이용한 XY-프로젝션을 수행하여 검출된다.Each block left by block-based motion estimation may not include the moving object and all parts. In order to accurately detect the moving object, the search window for detecting the moving object is obtained by applying an offset to the rectangular region surrounding the outermost part of the final candidate block cluster. The moving object is detected by performing XY-projection using the vertical and horizontal edges of the moving object within the search and receive.

도 7a 및 도 7b는 탐색 창 영역 내에 XY-프로젝션을 이용한 이동물체의 검출을 나타낸다. 여기서 도 7a는 최종 후보 영역을 나타내는 블록 군집을 나타낸 예시도이고, 도 7b는 블록 군집들의 최 외곽을 둘러싸는 영역에 다시 오프셋을 둔 탐색창과 XY-프로젝션을 수행한 후 검출된 이동물체를 나타낸 예시도이다.7A and 7B show the detection of moving objects using XY-projection in the search window area. 7A is an exemplary diagram showing a block cluster indicating a final candidate region, and FIG. 7B is an example showing a search window offset again in an area surrounding the outermost regions of the block clusters and a moving object detected after performing XY-projection. It is also.

도 8은 본 발명의 일 실시예에 의한 이동물체 검출 방법을 나타낸 동작흐름도로서, 이에 관하여 설명하면 다음과 같다.8 is a flowchart illustrating a moving object detecting method according to an exemplary embodiment of the present invention.

먼저, 모션 정보 획득부(310)에서, 연속된 프레임을 입력받는다(S801).First, the motion information acquisition unit 310 receives a continuous frame (S801).

그 후, 상기 연속된 프레임을 비교하여 움직임이 있는 영역을 누적 차영상을 이용하여 검출한다(S802).Thereafter, the continuous frames are compared to detect a moving region using a cumulative difference image (S802).

그 후, 균일한 질감을 가지는 배경을 제거시켜 이동물체가 존재할 후보 영역을 감소시킨다(S803).Thereafter, the background having the uniform texture is removed to reduce the candidate area in which the moving object is present (S803).

그 후, 일련의 프레임을 입력받고, 상기 이동물체가 존재할 후보 영역을 참조하여 블록 정합을 수행하고, 그 결과 정합이 가장 잘되는 블록 위치 및 정합에 따른 모션 벡터의 변위를 획득한다(S804).Thereafter, a series of frames are input, block matching is performed by referring to a candidate region where the moving object is to be located, and as a result, a block position having the best matching and a displacement of a motion vector according to the matching are obtained (S804).

그 후, 상기 블록 위치 및 상기 모션 벡터의 변위를 입력받고, 상기 모션 벡터의 변위를 허용 경계 값과 비교하여 변위가 큰 블록들은 제거시킴으로써 배경을 점차적으로 제거시키며, 이를 통하여 이동물체가 존재하는 최종 후보 영역을 획득 한다(S805).Thereafter, the block position and the displacement of the motion vector are input, and the background of the moving object is finally removed by gradually removing the blocks having a large displacement by comparing the displacement of the motion vector with an allowable boundary value. A candidate region is obtained (S805).

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지로 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited to the drawings shown.

본 발명은 누적 차영상 및 모션 추정 기법을 통합하여 이동 카메라로 획득된 연속 영상에서 이동물체를 자동으로 검출함으로써, 저비용으로 종래의 이동물체 추적 시스템의 초기화 문제를 해결하여 추적시스템의 자동화를 완성하는 장점이 있다.The present invention integrates a cumulative difference image and a motion estimation technique to automatically detect a moving object in a continuous image obtained by a mobile camera, thereby solving the initialization problem of a conventional moving object tracking system at low cost and completing the automation of the tracking system. There is an advantage.

Claims (4)

시퀀스 이미지 프레임을 순차적으로 입력받아 프레임간 누적 차영상을 획득하고, 상기 누적 차영상을 가지고 형태학적 필터링 과정을 수행하여 모션 이미지 데이터를 생성하는 모션 정보 획득부; 및A motion information acquisition unit configured to sequentially receive a sequence image frame, obtain a cumulative difference image between frames, and generate motion image data by performing a morphological filtering process with the cumulative difference image; And 상기 시퀀스 이미지 프레임 및 상기 모션 이미지 데이터를 입력받아 블록 정합 과정을 통하여 모션을 추정하고, 추정된 결과에 따라 최종 후보 블록 영역을 검출하는 최종 후보 블록 검출부를 포함하되,A final candidate block detector for receiving the sequence image frame and the motion image data, estimating motion through a block matching process, and detecting a final candidate block region according to the estimated result; 상기 모션 정보 획득부는,The motion information acquisition unit, 상기 시퀀스 이미지 프레임을 입력받아 지연시키는 제1 지연부;A first delay unit receiving and delaying the sequence image frame; 상기 제1 지연부로부터 프레임을 입력받아 지연시키는 제2 지연부;A second delay unit configured to receive a frame from the first delay unit and delay the frame; 상기 시퀀스 이미지 프레임 및 상기 제1 지연부에서 출력된 프레임을 입력받아 차영상을 생성하는 제1 차영상 생성부;A first difference image generation unit receiving the sequence image frame and the frame output from the first delay unit to generate a difference image; 상기 제1 지연부에서 출력된 프레임 및 상기 제2 지연부에서 출력된 프레임을 입력받아 차영상을 생성하는 제2 차영상 생성부;A second difference image generation unit configured to generate a difference image by receiving a frame output from the first delay unit and a frame output from the second delay unit; 상기 제1 차영상 생성부에서 출력된 상기 차영상 및 상기 제2 차영상 생성부에서 출력된 차영상을 각각 입력받아 이진 데이터로 변환하는 복수개의 이진화부;A plurality of binarizers for receiving the difference image output from the first difference image generator and the difference image output from the second difference image generator and converting the difference image into binary data; 상기 복수개의 이진화부에서 출력된 데이터를 입력받아 AND 연산을 수행한 후, 그 결과 데이터를 누적 차영상으로써 출력하는 AND 연산부;An AND operation unit which receives the data output from the plurality of binarization units, performs an AND operation, and outputs the result data as a cumulative difference image; 상기 누적 차영상 및 지연 모션 이미지를 입력받아 가산하는 가산부;An adder which receives the cumulative difference image and the delayed motion image and adds the accumulated difference image and the delayed motion image; 상기 가산부에서 출력된 데이터를 입력받아 지연시켜 상기 지연 모션 이미지를 생성하는 제3 지연부; 및A third delay unit configured to generate the delayed motion image by receiving and delaying the data output from the adder; And 상기 가산부에서 출력된 데이터를 입력받아 형태학적 필터에 의하여 팽창 및 침식을 반영한 후 상기 모션 이미지 데이터로서 출력하는 형태학적 분석부A morphological analysis unit that receives the data output from the adder and reflects expansion and erosion by a morphological filter and outputs the motion image data. 를 포함하는 것을 특징으로 하는 이동물체 검출 시스템.Moving object detection system comprising a. 삭제delete 제1항에 있어서, 상기 최종 후보 블록 검출부는,The method of claim 1, wherein the final candidate block detector, 상기 시퀀스 이미지 프레임을 입력받아 지연시키는 제4 지연부;A fourth delay unit receiving and delaying the sequence image frame; 상기 모션 이미지 데이터를 일정한 크기의 블록 단위로 나누어 블록 내 모션 정보를 가지지 않는 블록들을 제거하고 남은 블록을 출력하는 블록 초기화부;A block initialization unit dividing the motion image data into block units having a predetermined size, removing blocks not having motion information in the block, and outputting a remaining block; 상기 시퀀스 이미지 프레임 및 상기 제4 지연부에서 출력된 프레임을 포함하는 일련의 프레임을 입력받고, 상기 일련의 프레임 중 선행하는 프레임이 이후의 프레임 상에서 정합이 가장 잘되는 블록 위치 및 정합에 따른 모션 벡터의 변위를 출력하는 블록 정합부;A series of frames including the sequence image frame and the frame output from the fourth delay unit are input, and a block position and a motion vector according to the matching are best matched on a subsequent frame among the preceding frames. Block matching unit for outputting the displacement; 상기 블록 위치 및 상기 모션 벡터의 변위를 입력받고, 상기 모션 벡터의 변위를 허용 경계 값과 비교하여 변위가 큰 블록들은 제거시킴으로써 배경을 점차적 으로 제거시켜 최종 후보 영역을 찾아 출력하는 블록 영역 업데이트부;A block region update unit which receives the block position and the displacement of the motion vector, compares the displacement of the motion vector with an allowable boundary value, and removes blocks having a large displacement to gradually remove a background to find and output a final candidate region; 상기 최종 후보 영역을 입력받아 지연시키는 제5 지연부; 및A fifth delay unit receiving and delaying the final candidate region; And 상기 블록 초기화부에서 출력된 데이터 또는 상기 제5 지연부에서 출력된 데이터를 상기 블록 정합부의 상기 일련의 프레임 중 하나로서 도통시키는 스위칭부A switching unit for conducting data output from the block initialization unit or data output from the fifth delay unit as one of the frames of the block matching unit; 를 포함하는 것을 특징으로 하는 이동물체 검출 시스템.Moving object detection system comprising a. 연속된 프레임을 입력받는 단계;Receiving a continuous frame; 상기 연속된 프레임을 비교하여 움직임이 있는 영역을 누적 차영상을 이용하여 검출하는 단계;Comparing the successive frames and detecting a moving region using a cumulative difference image; 상기 움직임이 있는 영역에서 균일한 질감을 가지는 배경을 제거시켜 이동물체가 존재할 후보 영역을 감소시키는 단계;Reducing a candidate area in which a moving object is present by removing a background having a uniform texture in the moving area; 일련의 프레임을 입력받고, 상기 이동물체가 존재할 후보 영역을 참조하여 블록 정합을 수행하고, 그 결과 정합이 가장 잘되는 블록 위치 및 정합에 따른 모션 벡터의 변위를 획득하는 단계; 및Receiving a series of frames, performing block matching with reference to a candidate region in which the moving object will exist, and as a result, obtaining a block position where the matching is best and a displacement of a motion vector according to the matching; And 상기 모션 벡터의 변위를 허용 경계 값과 비교하여 변위가 큰 블록들은 제거시킴으로써 배경을 점차적으로 제거시켜 이동물체가 존재하는 최종 후보 영역을 획득하는 단계Comparing the displacement of the motion vector with an allowable boundary value to gradually remove a background by removing blocks having a large displacement to obtain a final candidate region in which a moving object exists. 를 포함하는 것을 특징으로 하는 이동물체 검출 방법.Moving object detection method comprising a.
KR1020030038674A 2003-06-16 2003-06-16 System for detecting moving objects and method thereof KR100566629B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030038674A KR100566629B1 (en) 2003-06-16 2003-06-16 System for detecting moving objects and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030038674A KR100566629B1 (en) 2003-06-16 2003-06-16 System for detecting moving objects and method thereof

Publications (2)

Publication Number Publication Date
KR20040107962A KR20040107962A (en) 2004-12-23
KR100566629B1 true KR100566629B1 (en) 2006-03-31

Family

ID=37381975

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030038674A KR100566629B1 (en) 2003-06-16 2003-06-16 System for detecting moving objects and method thereof

Country Status (1)

Country Link
KR (1) KR100566629B1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100651034B1 (en) * 2004-12-08 2006-11-29 한국전자통신연구원 System for detecting targets and method thereof
KR100824744B1 (en) * 2006-07-12 2008-04-24 동명대학교산학협력단 Localization System and Method for Mobile Robot Using Corner's Type
KR100935492B1 (en) * 2007-10-29 2010-01-06 중앙대학교 산학협력단 Apparatus and method for predicting motion using 1-bit transform and apparatus and method for encoding image using the same
KR100879623B1 (en) * 2008-07-05 2009-01-21 주식회사 일리시스 Automated wide area surveillance system using ptz camera and method therefor
KR101155273B1 (en) * 2010-07-06 2012-06-18 중앙대학교 산학협력단 Apparatus and method for tunnel monitoring based on adaptive background
KR20160101494A (en) 2015-02-17 2016-08-25 부산대학교 산학협력단 Control method for object estimation speed based on stereo vision
KR102074073B1 (en) * 2018-06-29 2020-03-02 한국교통대학교산학협력단 Method for detecting vehicles and apparatus using the same

Also Published As

Publication number Publication date
KR20040107962A (en) 2004-12-23

Similar Documents

Publication Publication Date Title
Deori et al. A survey on moving object tracking in video
US8045783B2 (en) Method for moving cell detection from temporal image sequence model estimation
US7447337B2 (en) Video content understanding through real time video motion analysis
EP2548174B1 (en) Method and apparatus for trajectory estimation, and method for segmentation
EP1112661B1 (en) Tracking semantic objects in vector image sequences
JP4782123B2 (en) A method for tracking moving objects in a video acquired for a scene by a camera
EP2378485B1 (en) Moving object detection method and moving object detection apparatus
KR102074073B1 (en) Method for detecting vehicles and apparatus using the same
WO2014208963A1 (en) Apparatus and method for detecting multiple objects by using adaptive block partitioning
Santoro et al. Crowd analysis by using optical flow and density based clustering
WO2016120132A1 (en) Method and apparatus for generating an initial superpixel label map for an image
JP2005165791A (en) Object tracking method and tracking system
JP2010244207A (en) Moving object tracking device, moving object tracking method, and moving object tracking program
Sadeghi-Tehran et al. A real-time approach for autonomous detection and tracking of moving objects from UAV
Kryjak et al. Real-time implementation of foreground object detection from a moving camera using the vibe algorithm
Angelo A novel approach on object detection and tracking using adaptive background subtraction method
Revathi et al. Certain approach of object tracking using optical flow techniques
KR100566629B1 (en) System for detecting moving objects and method thereof
Allili et al. Active contours for video object tracking using region, boundary and shape information
Yun et al. Unsupervised moving object detection through background models for ptz camera
Mohanty et al. A survey on moving object detection using background subtraction methods in video
Tezuka et al. A precise and stable foreground segmentation using fine-to-coarse approach in transform domain
Le et al. Hybrid salient motion detection using temporal differencing and Kalman filter tracking with non-stationary camera
Ghosh et al. Deep Counting Model Extensions with Segmentation for Person Detection
Wei et al. A new moving object contour detection approach

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130304

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140228

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150302

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160302

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee