KR101460517B1 - Method or providing visual tracking from video by learning and unlearning with dual modeling, and computer-readable recording medium for the same - Google Patents

Method or providing visual tracking from video by learning and unlearning with dual modeling, and computer-readable recording medium for the same Download PDF

Info

Publication number
KR101460517B1
KR101460517B1 KR1020130040141A KR20130040141A KR101460517B1 KR 101460517 B1 KR101460517 B1 KR 101460517B1 KR 1020130040141 A KR1020130040141 A KR 1020130040141A KR 20130040141 A KR20130040141 A KR 20130040141A KR 101460517 B1 KR101460517 B1 KR 101460517B1
Authority
KR
South Korea
Prior art keywords
learning
tracking
model
discard
foreground
Prior art date
Application number
KR1020130040141A
Other languages
Korean (ko)
Other versions
KR20140122981A (en
Inventor
이광무
정하욱
김수완
최진영
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020130040141A priority Critical patent/KR101460517B1/en
Publication of KR20140122981A publication Critical patent/KR20140122981A/en
Application granted granted Critical
Publication of KR101460517B1 publication Critical patent/KR101460517B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 이중 모델링과 학습 및 폐기학습을 통하여 영상 내의 물체 추적 방법에 관한 것이다. 더욱 상세하게는, 본 발명은 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 기술을 통해 입력 영상에서 물체를 추적할 때 발생할 수 있는 각종 장애 요인, 예컨대 물체의 가려짐, 배경 간섭, 드리프팅의 문제를 동시에 해결할 수 있는 기술에 관한 것이다. 본 발명에 따르면 입력 영상으로부터 어떠한 물체 영역을 지속적으로 추적함에 있어서 종래의 문제점인 배경 간섭, 가려짐, 드리프팅 문제를 모두 해결할 수 있는 장점이 있다. 즉, 두 모델이 결합되어 생성되는 우도를 활용함으로써 배경 간섭 및 가려짐에 강인한 성능을 보이며, 추적 결과를 이용한 모델의 학습/폐기학습을 통하여 드리프팅에도 강인한 특성을 갖는 장점을 제공한다.The present invention relates to a method for tracking an object in an image through dual modeling and learning and discard learning. More particularly, the present invention relates to various obstacles that may occur when an object is tracked in an input image through object tracking technology through dual modeling and learning and discard learning, such as obstruction of an object, background interference, And the like. According to the present invention, it is possible to solve background interference, masking, and drifting problems that are the conventional problems in continuously tracking an object region from an input image. In other words, it shows robust performance against background interference and blindness by utilizing the likelihood that the two models are combined, and provides advantages of robustness to drifting through learning / discarding learning of models using tracking results.

Description

이중 모델링과 학습 및 폐기학습을 통한 영상 내의 물체 추적 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체{Method or providing visual tracking from video by learning and unlearning with dual modeling, and computer-readable recording medium for the same}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for tracking an object in an image through dual modeling, learning, and discard learning, and a computer-readable recording medium for the same.

본 발명은 이중 모델링과 학습 및 폐기학습을 통하여 영상 내의 물체 추적 방법에 관한 것이다. 더욱 상세하게는, 본 발명은 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 기술을 통해 입력 영상에서 물체를 추적할 때 발생할 수 있는 각종 장애 요인, 예컨대 물체의 가려짐, 배경 간섭, 드리프팅(drifting)의 문제를 동시에 해결할 수 있는 기술에 관한 것이다.
The present invention relates to a method for tracking an object in an image through dual modeling and learning and discard learning. More particularly, the present invention relates to a method and apparatus for tracking objects in an input image by using dual-modeling and object tracking techniques through learning and discarding learning, including various obstacles that may occur when tracking an object in an input image, such as obstruction of an object, background interference, drifting ) At the same time.

영상 내에서 특정 물체를 지속적으로 추적하는 것은 컴퓨터 비전 분야에 있어서 매우 중요한 연구 주제이다. 영상 추적은 로봇 비전, 영상 감시, 동영상 분석, 홈 자동화 및 행동 인식 등 다양한 응용에 있어서 기초적인 처리 단계로 사용되며 이들 응용들은 정확한 추적 결과를 필요로 한다. 이를 위하여 다양한 추적 방법이 지속적으로 제안되어 왔다.Continuous tracking of a specific object in an image is a very important research topic in the field of computer vision. Image tracking is used as a basic processing step in various applications such as robot vision, video surveillance, video analysis, home automation and behavior recognition, and these applications require accurate tracking results. Various tracking methods have been continuously proposed for this purpose.

하지만 영상 내의 물체 추적 과정에서는 몇가지 장애 요인이 발생하는데, 예를 들어 추적 대상이 다른 물체에 의해 가려지는 경우나 배경에 비해 추적 대상이 별달리 두드러지지 않을 경우에 추적 성능이 떨어지게 된다. 또한, 장기간 물체를 추적하는 경우에는 드리프팅 문제라고 일컬어지는 물체 모델의 분별성능 저하 문제가 여전히 미해결 상태로 남아있다.However, there are some obstacles in the object tracking process in the image. For example, if the tracking object is blocked by another object or if the tracking object is not noticeable compared to the background, the tracking performance is degraded. Also, when tracking an object over a long period of time, the problem of poor discrimination of the object model, which is referred to as a drifting problem, remains unresolved.

이에 따라, 추적 대상이 가려지거나 배경 간섭이 존재하는 상황에서의 물체 추적과 관련하여 다양한 방법이 제안되었다. A. Adam et al. "Robust fragments-based tracking using the integral histogram," In Computer Vision and Pattern Recognition, 2006 IEEE Computer Society Conference(이하, "Adam 논문")에서는 종래의 커널 기반을 분할-기반으로 확장함으로써 가려짐 문제에 강인하게끔 하는 방법론이 제안되었다.Accordingly, various methods have been proposed in relation to object tracking in a situation where the tracking object is obscured or background interference exists. A. Adam et al. "Robust fragments-based tracking using the integral histogram," In Computer Vision and Pattern Recognition, 2006 IEEE Computer Society Conference (hereafter, "Adam paper"), Methodology has been proposed.

X. Mei and H. Ling, "Robust visual tracking using l1 minimization," In Computer Vision, 2009 IEEE 12th International Conference(이하, "Mei 논문")에서는 종래의 파티클 필터틀에서 추적 문제를 스파스 근사화로 다룸으로써 가려짐 문제를 해결하고자 하였다. 그들의 방법에서는 트리비알 템플릿과 l1 최소화 기법을 사용하여 물체에 대한 스파스한 표현을 생성하였고, 이를 통해 기존 방법에 비하여 가려짐 문제에 강인한 특성을 나타내었다.In Mei and H. Ling, "Robust visual tracking using l1 minimization," In Computer Vision, 2009 IEEE 12th International Conference (hereafter, "Mei paper") deals with tracking problems in a conventional particle filter framework as a sparse approximation And to solve the problem of occlusion. In their method, a sparse representation of the object was generated using the tri-vial template and the l 1 minimization technique, which showed robust characteristics over the conventional method.

배경 간섭문제를 해결하기 위해 H. Grabner et al. "Real-time tracking via on-line boosting," In Proceedings of the British Machine Vision Conference, 2006(이하, "Grabner 논문")은 배경과 물체를 구분하는 분류기를 온라인으로 학습하는 방법을 제안하였다. 이 방법은 물체 추적을 두 개의 클래스로 분류하는 방법의 범주 안에 속하며, 이는 S. Stalder et al. "Beyond semi-supervised tracking: Tracking should be as simple as detection, but not simpler than recognition," In Computer Vision Workshops (ICCV Workshops), 2009(이하, "Stalder 논문")에서 확장되어 드리프팅 문제도 함께 고려되었다.To solve the background interference problem, H. Grabner et al. "Proceedings of the British Machine Vision Conference, 2006" (Grabner paper) proposed a method of learning a classifier that distinguishes between background and object on-line. This method falls within the category of classifying object tracking into two classes, which is described by S. Stalder et al. "Beyond semi-supervised tracking: Tracking should be as simple as detection," In Computer Vision Workshops (ICCV Workshops), 2009 ("Stalder"), .

그러나 위에서 기술된 방법들의 경우에는 가려짐 상황 또는 배경 간섭 상황 중의 하나만 고려하였으며, 이러한 장애 요인이 동시에 일어날 경우에는 추적 성능이 저하된다는 단점을 나타낸다.However, in the case of the methods described above, only one of the occlusion situation and the background interference situation is considered, and if the obstacle occurs at the same time, the tracking performance is degraded.

또한, 드리프팅은 종래의 추적 방법이 갖는 문제이다. 추적대상 물체는 도중에 다양한 변화를 보이는데, 이에 대응하기 위해서는 추적을 수행하는 동시에 온라인으로 물체 모델을 업데이트할 필요성이 있다. Drifting is also a problem with conventional tracking methods. In order to cope with this, it is necessary to update the object model on-line while performing tracking.

종래에는 추적 과정에 있어서 이전 프레임의 결과를 사용하여 추적 대상을 업데이트하는데, 이 업데이트 과정에 부정확한 정보가 포함될 수 있다. 이처럼 부정확한 정보에 의한 업데이트가 지속되면 모델이 올바른 물체 모델로부터 "드리프팅"하여 잘못된 모델이 생성되게 된다.Conventionally, in the tracking process, the tracking target is updated by using the result of the previous frame. Incorrect information may be included in the updating process. If such inaccurate information updates continue, the model will "drift" from the correct object model and create the wrong model.

이러한 드리프팅 문제를 해결하기 위하여 B. Babenko et al. "Robust object tracking with online multiple instance learning," Pattern Analysis and Machine Intelligence, IEEE Transactions, 2011(이하, "Babenko 논문")에서 기존의 Grabner 논문을 확장하여 다중 인스턴스 학습을 적용하였다. 이를 통하여 Babenko 논문에서는 이전 프레임의 추적 결과뿐만 아니라 주변의 다양한 랜덤 변화들을 학습함으로써 잘못된 정보를 학습할 위험을 감소시켰다. 또한 Stalder 논문에서는 학습을 하지 않는 부분을 포함하는 다중 분류 시스템을 활용하여 이러한 드리프팅을 방지하였다.To solve this drifting problem, B. Babenko et al. "Multi-instance learning is applied by extending the existing Grabner paper in" Pattern Analysis and Machine Intelligence, "IEEE Transactions, 2011 (" Babenko Paper "). Through this, the Babenko paper reduced the risk of learning false information by learning not only the tracking results of the previous frame but also various random changes around it. The Stalder thesis also avoided this drifting by using a multi-classification system that includes non-learning parts.

Z. Kalal et al. "P-n learning: Bootstrapping binary classifiers by structural constraints," In Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference(이하, "Kalal 논문")은 추적 방법과 분류 방법을 혼합하여 두가지 방법이 동일한 결과를 보일 경우에만 학습함으로써 두 방법이 상호보완적으로 드리프팅을 방지하도록 하였다. 하지만 이들 방법들은 주로 가려짐 상황을 고려하지 않았기에 그에 따른 한계점을 갖는다.
Z. Kalal et al. "Pn learning: Bootstrapping binary classifiers by structural constraints," In Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference ("Kalal"), So that the two methods complement each other to prevent drifting. However, these methods have limitations because they do not consider the occlusion situation.

본 발명의 목적은 이중 모델링과 학습 및 폐기학습을 통하여 영상 내의 물체 추적 방법을 제공하는 것이다. 더욱 상세하게는, 본 발명의 목적은 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 기술을 통해 입력 영상에서 물체를 추적할 때 발생할 수 있는 각종 장애 요인, 예컨대 물체의 가려짐, 배경 간섭, 드리프팅의 문제를 동시에 해결할 수 있는 기술을 제공하는 것이다.
An object of the present invention is to provide an object tracking method in an image through dual modeling and learning and discard learning. More particularly, it is an object of the present invention to provide a method and apparatus for tracking an object in an input image by using an object tracking technology through dual modeling and learning and discarding learning, various obstacles that may occur when tracking an object in the input image, And to solve the problem of the problem simultaneously.

이러한 과제를 달성하기 위한 본 발명에 따른 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법은, 각각 개별적인 두 개의 단일 가우시안 모델을 사용하여 전경 모델과 배경 모델을 설정하는 제 1 단계; 입력 영상에서 특징 기반으로 배경 움직임을 보상함으로써 배경 모델을 업데이트하는 제 2 단계; 전경 모델에 변화를 인가한 후 배경 모델과 결합하여 현재의 관측 값과 가장 유사하도록 재구성하고, 재구성할 때의 오류에 반비례 하는 우도 값 연산을 통해 전경 모델과 배경 모델로부터 우도를 계산하는 제 3 단계; 랜덤 샘플링을 활용한 평균이동 처리를 반복 실행하여 우도를 최대화함으로써 추적대상 물체에 대한 추적 결과를 획득하는 제 4 단계; 우도 계산에 전경 모델이 반영되었는지 배경 모델이 반영되었는지에 따라 학습 및 폐기학습을 선택적으로 적용하여 전경 모델을 업데이트하는 제 5 단계;를 포함하여 구성된다.According to another aspect of the present invention, there is provided a method for tracking an object through dual modeling, learning and discard learning, comprising: a first step of setting foreground models and background models using two individual single Gaussian models; A second step of updating the background model by compensating the background motion based on the feature in the input image; The third step is to calculate the likelihood from the foreground model and the background model by calculating the likelihood value inversely proportional to the error when reconstructing the foreground model, ; A fourth step of repeatedly executing an average moving process using random sampling to maximize likelihood to obtain a tracking result for a tracking object; And a fifth step of updating the foreground model by selectively applying learning and discard learning depending on whether the foreground model is reflected in the likelihood calculation or whether the background model is reflected in the likelihood calculation.

본 발명에서 제 3 단계에서 배경 모델과 전경 모델은 각각 하나의 평균적인 RGB 색으로 표현된 이미지 및 추가적으로 각 모델 이미지에서의 픽셀 별로 얼마나 많은 정보가 관측되었는지 기억하기 위한 에이지 이미지를 활용하여 우도 값을 연산하는 것이 바람직하다.In the third step of the present invention, the background model and the foreground model use an image represented by one average RGB color, and an age image to remember how much information is observed per pixel in each model image, .

또한, 본 발명에서 제 3 단계는 전경 모델에 적용되는 변환을 나타내는 벡터를 변환(

Figure 112013031748124-pat00001
)로 설정하고, 변환(
Figure 112013031748124-pat00002
)를 사용한 이미지(
Figure 112013031748124-pat00003
)에 대한 호모그래피 변환을
Figure 112013031748124-pat00004
라고 설정하는 경우, 변환(
Figure 112013031748124-pat00005
)을 적용시킨 전경 모델을 수학식Also, in the present invention, the third step is to convert the vector representing the transformation applied to the foreground model
Figure 112013031748124-pat00001
), And the conversion (
Figure 112013031748124-pat00002
) (
Figure 112013031748124-pat00003
) ≪ / RTI >
Figure 112013031748124-pat00004
, The conversion (
Figure 112013031748124-pat00005
) Is applied to the equation

Figure 112013031748124-pat00006
Figure 112013031748124-pat00007
Figure 112013031748124-pat00006
And
Figure 112013031748124-pat00007

을 통하여 구성하고, 전경 모델에 대응되는 배경 모델인

Figure 112013031748124-pat00008
Figure 112013031748124-pat00009
Figure 112013031748124-pat00010
Figure 112013031748124-pat00011
에서 추적 후보 영역(
Figure 112013031748124-pat00012
)을 잘라내어
Figure 112013031748124-pat00013
Figure 112013031748124-pat00014
와 동일한 크기로 확대/축소함으로써 연산하는 것이 바람직하다.And a background model corresponding to the foreground model
Figure 112013031748124-pat00008
Wow
Figure 112013031748124-pat00009
To
Figure 112013031748124-pat00010
Wow
Figure 112013031748124-pat00011
In the tracking candidate region (
Figure 112013031748124-pat00012
) And cut
Figure 112013031748124-pat00013
And
Figure 112013031748124-pat00014
And enlarging / reducing the same size.

또한, 본 발명에서 제 3 단계는 입력 이미지(

Figure 112013031748124-pat00015
)에서 추적 후보 영역(
Figure 112013031748124-pat00016
)을 잘라내어 확대/축소하여
Figure 112013031748124-pat00017
를 구하는 경우, 추적 후보 영역(
Figure 112013031748124-pat00018
)에서 변환(
Figure 112013031748124-pat00019
)에 대한 우도
Figure 112013031748124-pat00020
는 픽셀 인텍스 j에 대해In addition, in the present invention,
Figure 112013031748124-pat00015
) To the tracking candidate region (
Figure 112013031748124-pat00016
) To zoom in and out
Figure 112013031748124-pat00017
, The tracking candidate region (
Figure 112013031748124-pat00018
) To convert
Figure 112013031748124-pat00019
) Likelihood
Figure 112013031748124-pat00020
For pixel index j

Figure 112013031748124-pat00021
Figure 112013031748124-pat00021

에 의해 연산하며,

Figure 112013031748124-pat00022
Figure 112013031748124-pat00023
각각은, Lt; / RTI >
Figure 112013031748124-pat00022
And
Figure 112013031748124-pat00023
Respectively,

Figure 112013031748124-pat00024
Figure 112013031748124-pat00024

에 의해 연산하는 것이 바람직하다.. ≪ / RTI >

또한, 본 발명에서 제 5 단계는

Figure 112013031748124-pat00025
Figure 112013031748124-pat00026
중 어떠한 모델이 우도 계산에 활용되었는지에 따라 전경 모델의 업데이트에서 학습을 적용할 것인지 폐기학습을 적용할 것인지를 결정한다.In addition, in the fifth step of the present invention,
Figure 112013031748124-pat00025
Wow
Figure 112013031748124-pat00026
Determines whether to apply learning or revocation learning in updating the foreground model, depending on which model is used for likelihood calculation.

또한, 본 발명에서 제 5 단계는 전경 모델을 업데이트할 때In addition, in the fifth step of the present invention, when updating the foreground model

Figure 112013031748124-pat00027
Figure 112013031748124-pat00027

에 의해 업데이트가 수행되며,

Figure 112013031748124-pat00028
Figure 112013031748124-pat00029
는 시간 t일 때 픽셀 j에 대한 전경 모델이며,
Figure 112013031748124-pat00030
는 시간 t일 때 픽셀 j에 대한 확대/축소된 관측 값이며,
Figure 112013031748124-pat00031
는 시간 t까지 관측된 프레임 수로 설정된다.Lt; RTI ID = 0.0 >
Figure 112013031748124-pat00028
And
Figure 112013031748124-pat00029
Is the foreground model for pixel j at time t,
Figure 112013031748124-pat00030
Is the zoomed-in observation for pixel j at time t,
Figure 112013031748124-pat00031
Is set to the number of frames observed until time t.

또한, 본 발명에서 제 5 단계에서

Figure 112013031748124-pat00032
는 픽셀의 에이지로부터 구할 수 있으며, 픽셀 j의 시간 t일 때의 에이지를
Figure 112013031748124-pat00033
라 하면
Figure 112013031748124-pat00034
는 In the fifth step of the present invention,
Figure 112013031748124-pat00032
Can be obtained from the age of the pixel, and the age at time t of the pixel j
Figure 112013031748124-pat00033
If you say
Figure 112013031748124-pat00034
The

Figure 112013031748124-pat00035
Figure 112013031748124-pat00035

에 의해 연산되며,

Figure 112013031748124-pat00036
는 업데이트 파라미터로 [-1, 1] 범위 안에 속하게 되며 학습과 폐기학습을 조율하는 것이 바람직하다.Lt; / RTI >
Figure 112013031748124-pat00036
Is within the range of [-1, 1] as an update parameter and it is desirable to coordinate learning and discard learning.

또한, 본 발명에서 제 5 단계에서 전경 모델이 사용된 픽셀들을

Figure 112013031748124-pat00037
, 배경 모델이 사용된 픽셀들을
Figure 112013031748124-pat00038
라 할 경우, j ∈
Figure 112013031748124-pat00039
의 경우
Figure 112013031748124-pat00040
(학습 - learning) 사용하며, j ∈
Figure 112013031748124-pat00041
의 경우
Figure 112013031748124-pat00042
(폐기학습 - unlearning)을 사용하는 것이 바람직하다.Also, in the present invention, in the fifth step, pixels in which the foreground model is used
Figure 112013031748124-pat00037
, Pixels using the background model
Figure 112013031748124-pat00038
, Then j ∈
Figure 112013031748124-pat00039
In the case of
Figure 112013031748124-pat00040
(Learning-learning), and j ∈
Figure 112013031748124-pat00041
In the case of
Figure 112013031748124-pat00042
It is desirable to use unlearning.

또한, 본 발명에서 제 5 단계에서

Figure 112013031748124-pat00043
을 사용하는 경우
Figure 112013031748124-pat00044
가 [1 , ∞] 범위 안에 속하고,
Figure 112013031748124-pat00045
로 정의할 경우
Figure 112013031748124-pat00046
는 다시 [0, 1] 범위 안에 속하며,In the fifth step of the present invention,
Figure 112013031748124-pat00043
If you use
Figure 112013031748124-pat00044
Is in the range [1, ∞]
Figure 112013031748124-pat00045
If you define
Figure 112013031748124-pat00046
Is again in the range [0, 1]

Figure 112013031748124-pat00047
Figure 112013031748124-pat00047

로 정의하는 것이 바람직하다..

또한, 본 발명에서 제 2 단계는 배경 모델을 업데이트할 때Further, in the present invention, the second step is to update the background model

Figure 112013031748124-pat00048
Figure 112013031748124-pat00048

에 의하며,

Figure 112013031748124-pat00049
Figure 112013031748124-pat00050
는And,
Figure 112013031748124-pat00049
And
Figure 112013031748124-pat00050
The

Figure 112013031748124-pat00051
Figure 112013031748124-pat00051

에 의해 연산되며, 배경 모델의 경우 j ∈

Figure 112013031748124-pat00052
이면
Figure 112013031748124-pat00053
, j ∈
Figure 112013031748124-pat00054
이면
Figure 112013031748124-pat00055
를 사용하는 것이 바람직하다., And in the case of the background model j < RTI ID = 0.0 >
Figure 112013031748124-pat00052
If
Figure 112013031748124-pat00053
, j ∈
Figure 112013031748124-pat00054
If
Figure 112013031748124-pat00055
Is preferably used.

한편, 본 발명에 따른 컴퓨터로 판독가능한 기록매체는 본 발명에 따른 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법을 실행하는 물체추적 프로그램을 기록한 것이다.
Meanwhile, a computer-readable recording medium according to the present invention records an object tracking program for executing an object tracking method using dual modeling and learning and discard learning according to the present invention.

본 발명에 따르면 입력 영상으로부터 어떠한 물체 영역을 지속적으로 추적함에 있어서 종래의 문제점인 배경 간섭, 가려짐, 드리프팅 문제를 모두 해결할 수 있는 장점이 있다. 즉, 두 모델이 결합되어 생성되는 우도를 활용함으로써 배경 간섭 및 가려짐에 강인한 성능을 보이며, 추적 결과를 이용한 모델의 학습/폐기학습을 통하여 드리프팅에도 강인한 특성을 갖는 장점을 제공한다.
According to the present invention, it is possible to solve background interference, masking, and drifting problems that are the conventional problems in continuously tracking an object region from an input image. In other words, it shows robust performance against background interference and blindness by utilizing the likelihood that the two models are combined, and provides advantages of robustness to drifting through learning / discarding learning of models using tracking results.

[도 1]은 본 발명에 따른 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 알고리즘의 전체 구성을 나타내는 도면.
[도 2]는 본 발명에서 이중 모델을 예시적으로 나타내는 도면.
[도 3]는 본 발명에서 우도 계산의 재구성을 예시적으로 나타내는 도면.
[도 4]는 본 발명의 작용효과를 설명하기 위한 도표.
[도 5]는 본 발명의 작용효과를 설명하기 위한 실험 영상 및 알고리즘별 주요 추적 결과 프레임을 나타낸 도면.
1 illustrates an overall configuration of an object tracking algorithm through dual modeling and learning and discard learning according to the present invention.
FIG. 2 is a diagram exemplifying a dual model in the present invention. FIG.
FIG. 3 exemplarily shows reconfiguration of likelihood calculation in the present invention; FIG.
[FIG. 4] is a diagram for explaining the operation and effect of the present invention. [FIG.
FIG. 5 is a diagram showing an experimental image and a main tracking result frame for each algorithm to explain the operation and effect of the present invention. FIG.

이하에서는 도면을 참조하여 본 발명을 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

[도 1]은 본 발명에 따른 물체 추적 알고리즘의 전체 구성을 나타내는 도면이다. 본 발명에 따른 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법은 [도 1]과 같은 전체 구성을 통해 배경 간섭, 가려짐, 드리프팅 문제를 동시에 해결하기 위한 알고리즘을 제시한다.1 is a diagram showing the overall configuration of an object tracking algorithm according to the present invention. The object tracking method using dual modeling and learning and discard learning according to the present invention presents an algorithm for simultaneously solving background interference, occlusion, and drifting problems through the entire configuration as shown in FIG.

즉, 사람 눈의 경우 물체와 배경을 쉽게 구분할 수 있고, 이를 통하여 배경 간섭, 가려짐, 드리프팅 문제를 간단히 해결한다는 점에서 착안되며, 본 발명의 물체 추적 방법은 배경과 추적대상 물체를 이중 모델링(Dual Modeling)으로 표현하고 이를 동시에 활용하여 우도를 구성한다.In other words, it is noted that the human eye can easily distinguish the object from the background, thereby solving the problem of background interference, occlusion, and drifting easily. The object tracking method of the present invention includes two- (Dual Modeling), and construct the likelihood by using them at the same time.

이에 따라 구성된 우도를 사용함으로써 본 발명은 추적대상 물체 이외로부터 제공되는 정보를 배제하는 것이 가능하며, 이를 통하여 배경 간섭 및 가려짐 문제에 강인한 성능을 얻을 수 있다.By using the thus constructed likelihood, the present invention can exclude information provided from objects other than the tracking object, and thereby it is possible to obtain robust performance against background interference and occlusion.

또한, 추적대상 물체로부터 오는 정보가 아닌 경우 이를 물체 모델로부터 폐기학습(unlearn)함으로써 드리프팅 문제를 해결한다. 마지막으로 본 발명의 방법은 랜덤 샘플링을 사용하는 평균이동 처리를 반복 실행(iteration)함으로써 우도를 최대화한다.Also, if the information does not come from the tracked object, it solves the drifting problem by unlearning it from the object model. Finally, the method of the present invention maximizes likelihood by iterating the average moving process using random sampling.

이러한 알고리즘을 채택함에 따라, 본 발명에 따르면 예컨대 PTZ 감시카메라에서 얻은 입력 영상에서 특정의 사람을 선택하여 자동적으로 추적하는 경우에, 두 개의 단일 가우시안 모델을 사용하여 전경과 배경을 각각 묘사하며(이중 모델링), 이들 두 모델을 결합한 우도(likelihood)를 형성하고, 우도를 랜덤샘플링을 활용한 평균이동법을 통하여 효율적으로 최대화하여 물체를 추적할 수 있다. 이와 같은 구성을 채택함으로써 본 발명에 따르면 지속적인 물체 추적에 있어서 배경 간섭, 가려짐, 드리프팅 문제를 극복할 수 있다.
According to the present invention, according to the present invention, when a specific person is selected and automatically tracked in an input image obtained from, for example, a PTZ surveillance camera, two foreground and background images are depicted using two single Gaussian models Modeling), a likelihood combining these two models is formed, and the likelihood can be tracked by maximizing the likelihood efficiently through an average moving method using random sampling. According to the present invention, background interference, masking, and drifting can be overcome in continuous object tracking.

이하에서는 [도 1]을 기초로 [도 2] 내지 [도 5]를 참조하여 본 발명을 구체적으로 살펴본다. Hereinafter, the present invention will be specifically described with reference to FIG. 2 to FIG. 5 based on FIG.

먼저, 본 발명에서 현재의 입력 영상(입력 이미지)를 표현하기 위해 사용하는 이중 모델링에 대해 살펴본다. 이중 모델은 두 개의 모델로 구성되는데, 각각의 모델은 단일 가우시안 모델(SGM) 내지 이와 유사한 방식으로 표현된다. 이들 두가지 모델은 전경 모델(foreground model)과 배경 모델(background model)인데, 두 모델을 결합하여 추적에 사용될 우도를 계산한다.First, a description will now be made of a dual modeling used in the present invention to represent a current input image (input image). The dual model consists of two models, each model expressed in a single Gaussian model (SGM) or the like. These two models are the foreground model and the background model, which combine the two models to calculate the likelihood of tracking.

이후 우도를 사용하여 랜덤 샘플링을 활용한 평균이동을 통해 물체의 최종 위치를 얻는다.We then use the likelihood to obtain the final position of the object through an average shift using random sampling.

배경 모델과 전경 모델은 바람직하게는 하나의 평균적인 RGB 색으로 표현되는데, 이는 다시 말해 배경과 추적대상 물체는 각각 한 장의 이미지로 표현됨을 의미한다. 추가로, 각 모델 이미지에서의 픽셀 별로 얼마나 많은 정보가 관측되었는지를 기억하기 위한 에이지(age) 이미지가 존재한다.The background model and the foreground model are preferably represented by an average RGB color, which means that the background and the object to be tracked are each represented as a single image. In addition, there is an age image to remember how much information was observed per pixel in each model image.

이후 설명에 있어서 전경에 대한 RGB 이미지와 에이지 이미지를

Figure 112013031748124-pat00056
,
Figure 112013031748124-pat00057
,
Figure 112013031748124-pat00058
로 표기하고 배경에 대한 RGB 이미지와 에이지 이미지를
Figure 112013031748124-pat00059
,
Figure 112013031748124-pat00060
,
Figure 112013031748124-pat00061
로 표기한다. 또한, 입력 이미지는
Figure 112013031748124-pat00062
로 표기한다. In the following description, the RGB image and the age image for the foreground
Figure 112013031748124-pat00056
,
Figure 112013031748124-pat00057
,
Figure 112013031748124-pat00058
And the RGB image and the age image for the background
Figure 112013031748124-pat00059
,
Figure 112013031748124-pat00060
,
Figure 112013031748124-pat00061
. Also, the input image
Figure 112013031748124-pat00062
.

한편 [도 2]는

Figure 112013031748124-pat00063
,
Figure 112013031748124-pat00064
,
Figure 112013031748124-pat00065
,
Figure 112013031748124-pat00066
,
Figure 112013031748124-pat00067
,
Figure 112013031748124-pat00068
의 예시이다. 즉, [도 2]는 본 발명에 따른 이중 모델의 예시로서 전경 모델에 대한 평균 이미지 (가), 분산 이미지 (나), 에이지 이미지 (다)로 나타내며, 배경 모델에 대한 평균 이미지 (라), 분산 이미지 (마), 에이지 이미지 (바)로 나타낸 것이다[Figure 2]
Figure 112013031748124-pat00063
,
Figure 112013031748124-pat00064
,
Figure 112013031748124-pat00065
,
Figure 112013031748124-pat00066
,
Figure 112013031748124-pat00067
,
Figure 112013031748124-pat00068
. 2 shows an example of a dual model according to the present invention. The average image (a), the distributed image (b), and the age image (c) Distributed image (e), age image (bar)

본 발명에 따른 이중 모델링에서 실제 추적대상 물체의 크기와 상관없이

Figure 112013031748124-pat00069
,
Figure 112013031748124-pat00070
,
Figure 112013031748124-pat00071
는 32×32로 고정하였고
Figure 112013031748124-pat00072
,
Figure 112013031748124-pat00073
,
Figure 112013031748124-pat00074
는 실제 입력 프레임과 동일한 크기로 설정하였다.
In the dual modeling according to the present invention, regardless of the size of the actual object to be tracked
Figure 112013031748124-pat00069
,
Figure 112013031748124-pat00070
,
Figure 112013031748124-pat00071
Was fixed at 32 x 32
Figure 112013031748124-pat00072
,
Figure 112013031748124-pat00073
,
Figure 112013031748124-pat00074
Is set to the same size as the actual input frame.

다음으로 본 발명에서 물체 추적에 사용하는 이중 모델링의 우도 계산에 대해서 살펴본다. 추적 후보 영역(

Figure 112013031748124-pat00075
)에 대해 추적 절차에서 사용될 우도는 배경 모델과 전경 모델을 복합적으로 사용하여 계산된다. 우도는 두 모델을 이용하여 현재 후보 영역의 관측 값을 잘 표현할수록 높은 값을 갖도록 설계한다. 이는 다시 말해 전경 모델에 변화를 준 후 배경 모델과 결합하여 현재의 관측 값(입력 영상)과 가장 유사하도록 재구성하고, 재구성할 때의 오류가 적을수록 높은 우도 값을 갖도록 설계하였음을 의미한다.Next, the likelihood calculation of the dual modeling used for object tracking in the present invention will be described. Track candidate region (
Figure 112013031748124-pat00075
), The likelihood used in the tracking procedure is calculated using a combination of the background model and the foreground model. Likelihood is designed to have a higher value with better representation of the observed values of the current candidate region using the two models. In other words, it means that the change is made to the foreground model and then reconfigured to be similar to the current observation value (input image) in combination with the background model, and the higher the likelihood value, the smaller the error in reconstruction.

한편 [도 3]는 본 발명에서 우도 계산의 재구성을 예시적으로 나타내는 도면이다. [도 3(가)]는 후보 영역의 관측된 이미지를 나타내며, [도 3(나)]는 후보 영역의 재구성된 이미지를 나타내며, [도 3(다)]는 전경 모델의 평균값을 나타내며, [도 3(라)]는 배경 모델의 평균값을 나타낸다. 한편, 이들 도면에서 픽셀 별로 이루어진 정보 관측에 대한 정보 관측 기억을 의미하는 에이지가 일정 이하인 부분은 하늘색으로 표시되었다.
3 is a diagram exemplarily showing reconstruction of likelihood calculation in the present invention. FIG. 3 (a) shows the observed image of the candidate region, FIG. 3 (b) shows the reconstructed image of the candidate region, FIG. 3 3 (D)] represents the average value of the background model. On the other hand, in these drawings, the part of the age less than a certain value indicating the information observation memory for the information observation made by the pixel is displayed in sky blue.

본 발명에서 사용되는 임의의 변환(

Figure 112013031748124-pat00076
)는 전경 모델에 적용되는 변환을 표현하는 벡터이다. 변환(
Figure 112013031748124-pat00077
)를 사용한 이미지
Figure 112013031748124-pat00078
에 대한 호모그래피 변환을
Figure 112013031748124-pat00079
라 할 때, 이 변환을 적용시킨 전경 모델을 수학식 Any transformation used in the present invention (
Figure 112013031748124-pat00076
) Is a vector representing the transform applied to the foreground model. conversion(
Figure 112013031748124-pat00077
)
Figure 112013031748124-pat00078
Homography transformation for
Figure 112013031748124-pat00079
, The foreground model to which this transformation is applied is expressed by Equation

Figure 112013031748124-pat00080
Figure 112013031748124-pat00081
Figure 112013031748124-pat00080
And
Figure 112013031748124-pat00081

를 통하여 구한다..

또한 이에 대응되는 배경 모델인

Figure 112013031748124-pat00082
Figure 112013031748124-pat00083
Figure 112013031748124-pat00084
Figure 112013031748124-pat00085
에서 추적 후보 영역(
Figure 112013031748124-pat00086
)을 잘라내어
Figure 112013031748124-pat00087
Figure 112013031748124-pat00088
와 동일한 크기로 확대/축소함으로써 구한다. 이후 마찬가지로 입력 이미지(
Figure 112013031748124-pat00089
)에서 추적 후보 영역(
Figure 112013031748124-pat00090
)을 잘라내어 확대/축소하여
Figure 112013031748124-pat00091
를 구한다. 이 경우 추적 후보 영역(
Figure 112013031748124-pat00092
)에서 변환(
Figure 112013031748124-pat00093
)에 대한 우도
Figure 112013031748124-pat00094
은 다음과 같이 [수학식 1]에 의해 정의된다.The corresponding background model
Figure 112013031748124-pat00082
Wow
Figure 112013031748124-pat00083
To
Figure 112013031748124-pat00084
Wow
Figure 112013031748124-pat00085
In the tracking candidate region (
Figure 112013031748124-pat00086
) And cut
Figure 112013031748124-pat00087
And
Figure 112013031748124-pat00088
And enlarging / reducing the same size. Likewise,
Figure 112013031748124-pat00089
) To the tracking candidate region (
Figure 112013031748124-pat00090
) To zoom in and out
Figure 112013031748124-pat00091
. In this case,
Figure 112013031748124-pat00092
) To convert
Figure 112013031748124-pat00093
) Likelihood
Figure 112013031748124-pat00094
Is defined by Equation (1) as follows.

Figure 112013031748124-pat00095
Figure 112013031748124-pat00095

여기서

Figure 112013031748124-pat00096
Figure 112013031748124-pat00097
은 하기의 [수학식 2]에 의해 연산된다.
here
Figure 112013031748124-pat00096
And
Figure 112013031748124-pat00097
Is calculated by the following equation (2).

Figure 112013031748124-pat00098
Figure 112013031748124-pat00098

여기서 j는 픽셀 인덱스이다. 이 수학식들은 각 픽셀 j마다 전경 및 배경 모델들을 비교하여 둘 중 적은 값을 우도 값에 포함시키도록 설계되었음을 의미한다. 하지만 만약

Figure 112013031748124-pat00099
또는 변환 절차에 의해
Figure 112013031748124-pat00100
가 존재하지 않는 픽셀들의 경우(경계를 벗어난 픽셀들의 경우) 이는 특별한 경우로 취급하며
Figure 112013031748124-pat00101
만을 사용하였다.Where j is the pixel index. These equations imply that foreground and background models are compared for each pixel j and the lesser of the two values is included in the likelihood value. But if
Figure 112013031748124-pat00099
Or by a conversion procedure
Figure 112013031748124-pat00100
In the case of pixels that do not exist (for out-of-bounds pixels) this is treated as a special case
Figure 112013031748124-pat00101
Respectively.

이를 통해, 본 발명에서는 우도 계산에서 어떠한 모델이 사용되었는지, 즉,

Figure 112013031748124-pat00102
Figure 112013031748124-pat00103
중 어떠한 모델이 사용되었는지에 기초하여 이를 전경 모델 업데이트에서 학습(learning)을 적용할 것인지 아니면 폐기학습(unlearning)을 적용할 것인지를 결정한다.
Thus, in the present invention, it is determined which model is used in the likelihood calculation,
Figure 112013031748124-pat00102
Wow
Figure 112013031748124-pat00103
Based on which model is used, determines whether to apply learning or unlearning in the foreground model update.

다음으로 이중 모델링의 전경 모델 업데이트에 대해서 구체적으로 살펴본다. 전경 모델 업데이트는 일반적인 온라인 SGM(Stalder 논문 참조)과 유사하게 진행되나 어떠한 모델이 사용되었는지에 기초하여 학습 또는 폐기학습을 적용한다. 주어진 후보 영역(

Figure 112013031748124-pat00104
: 이 경우는 추적 결과 영역)에 대하여 다음과 같은 [수학식 3]에 의해 업데이트가 수행된다.
Next, we will look at updating the foreground model of dual modeling in detail. The foreground model update proceeds similar to the general online SGM (see Stalder article), but applies learning or revocation learning based on which model is used. Given a candidate region (
Figure 112013031748124-pat00104
: In this case, the tracking result area) is updated by the following equation (3).

Figure 112013031748124-pat00105
Figure 112013031748124-pat00105

여기서

Figure 112013031748124-pat00106
Figure 112013031748124-pat00107
는 시간 t일 때 픽셀 j에 대한 전경 모델이며
Figure 112013031748124-pat00108
는 시간 t일 때 픽셀 j에 대한 확대/축소된 관측 값이다.
Figure 112013031748124-pat00109
는 시간 t까지 관측된 프레임 수, 즉 픽셀의 에이지로부터 구할 수 있다. 픽셀 j의 시간 t일 때의 에이지를
Figure 112013031748124-pat00110
라 하면
Figure 112013031748124-pat00111
는 [수학식 4]와 같이 정의할 수 있다.
here
Figure 112013031748124-pat00106
And
Figure 112013031748124-pat00107
Is the foreground model for pixel j at time t
Figure 112013031748124-pat00108
Is the zoomed-in observation for pixel j at time t.
Figure 112013031748124-pat00109
Can be obtained from the number of frames observed until time t, i.e., the age of the pixel. The age at time t of pixel j
Figure 112013031748124-pat00110
If you say
Figure 112013031748124-pat00111
Can be defined as shown in Equation (4).

Figure 112013031748124-pat00112
Figure 112013031748124-pat00112

여기서

Figure 112013031748124-pat00113
는 업데이트 파라미터로서 일반적인 응용에서는
Figure 112013031748124-pat00114
= 1로 설정된다. 하지만 본 발명의 경우에 업데이트 파라미터
Figure 112013031748124-pat00115
는 [-1, 1] 범위 안에 속하게 되며 학습과 폐기학습을 조율한다.here
Figure 112013031748124-pat00113
Is an update parameter,
Figure 112013031748124-pat00114
= 1. However, in the case of the present invention,
Figure 112013031748124-pat00115
Falls within the range [-1, 1] and coordinates learning and disposal learning.

학습 및 폐기학습 여부는 [수학식 1]로부터 어떤 모델이 사용되었는지를 바탕으로 결정된다. 전경 모델이 사용된 픽셀들을

Figure 112013031748124-pat00116
, 배경 모델이 사용된 픽셀들을
Figure 112013031748124-pat00117
라 할 경우, j ∈
Figure 112013031748124-pat00118
의 경우
Figure 112013031748124-pat00119
을 사용하며(학습 - learning), j ∈
Figure 112013031748124-pat00120
의 경우
Figure 112013031748124-pat00121
을 사용한다(폐기학습 - unlearning).Learning and discard learning is determined based on which model is used from Equation (1). The foreground model uses pixels
Figure 112013031748124-pat00116
, Pixels using the background model
Figure 112013031748124-pat00117
, Then j ∈
Figure 112013031748124-pat00118
In the case of
Figure 112013031748124-pat00119
(Learning-learning), j ∈
Figure 112013031748124-pat00120
In the case of
Figure 112013031748124-pat00121
(Discard learning - unlearning).

Figure 112013031748124-pat00122
을 사용하는 경우
Figure 112013031748124-pat00123
가 [0 , 1] 범위 안에 속하게 되어 일반적인 온라인 SGM과 동일하다. 하지만
Figure 112013031748124-pat00124
을 사용하는 경우
Figure 112013031748124-pat00125
가 [1 , ∞] 범위 안에 속하게 된다.
Figure 112013031748124-pat00122
If you use
Figure 112013031748124-pat00123
Is in the range [0, 1] and is the same as a normal online SGM. However
Figure 112013031748124-pat00124
If you use
Figure 112013031748124-pat00125
Is in the range [1, ∞].

여기서

Figure 112013031748124-pat00126
로 정의할 경우
Figure 112013031748124-pat00127
는 다시 [0, 1] 범위 안에 속하게 되며 [수학식 3]은 다음과 같이 [수학식 5]로 다시 정의할 수 있다.here
Figure 112013031748124-pat00126
If you define
Figure 112013031748124-pat00127
Is again in the range [0, 1], and [Equation 3] can be redefined as Equation (5) as follows.

Figure 112013031748124-pat00128
Figure 112013031748124-pat00128

이는

Figure 112013031748124-pat00129
로 표현하면
Figure 112013031748124-pat00130
Figure 112013031748124-pat00131
Figure 112013031748124-pat00132
에 학습함으로써 얻어진 결과, 즉
Figure 112013031748124-pat00133
Figure 112013031748124-pat00134
로부터 를 r-에 비례한 양 만큼 제거한 폐기학습된 결과임을 의미한다. [수학식 3]의 경우에도 마찬가지로 해석이 가능하다. 이를 통하여 모델로부터 물체가 아닌 정보를 제거하는 동시에 지속적으로 물체의 변화를 학습하는 것이 가능하다. 따라서 본 발명에 따른 알고리즘은 드리프팅 문제에 강인한 성능을 갖게 된다.
this is
Figure 112013031748124-pat00129
In terms of
Figure 112013031748124-pat00130
end
Figure 112013031748124-pat00131
To
Figure 112013031748124-pat00132
The results obtained by learning
Figure 112013031748124-pat00133
end
Figure 112013031748124-pat00134
from Is removed and learned by removing the amount proportional to r - . Equation (3) can also be interpreted in the same way. Through this, it is possible to continuously learn the change of the object while removing non-object information from the model. Therefore, the algorithm according to the present invention has a robust performance against the drifting problem.

다음으로 이중 모델링의 배경 모델 업데이트에 대해서 구체적으로 살펴본다. 일반적으로 물체를 추적할 때에는 고정 배경이 아닌 움직이는 배경하에서 물체 추적이 이루어진다. 따라서 배경 모델을 사용하기 위해서는 먼저 배경 움직임을 보상하는 것이 필수적이다.Next, the background model update of dual modeling will be discussed in detail. Generally, when tracking an object, the object is tracked under a moving background rather than a fixed background. Therefore, it is essential to compensate the background motion in order to use the background model.

이를 위하여 본 발명에서는 종래의 특징(feature) 기반 움직임 보상법을 사용한다. 먼저 입력 이미지

Figure 112013031748124-pat00136
를 32×24의 균등 구역으로 나눈 후, 각 구역의 귀퉁이 점마다
Figure 112013031748124-pat00137
로의 KLT [C. Tomasi and T. Kanade, "Detection and tracking of point features," Technical report, Carnegie Mellon University, Apr. 1991 참조]를 수행한다.To this end, the present invention uses a conventional feature-based motion compensation method. First, input image
Figure 112013031748124-pat00136
Is divided into 32 x 24 equally divided zones, and then each corner of each zone
Figure 112013031748124-pat00137
KLT [C. Tomasi and T. Kanade, "Detection and tracking of point features," Technical report, Carnegie Mellon University, Apr. 1991).

이어서, 이들 점 추적 결과를 바탕으로 RANSAC [M. A. Fischler and R. C. Bolles, "Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography," Commun. ACM, 1981 참조]을 수행하여

Figure 112013031748124-pat00138
로부터
Figure 112013031748124-pat00139
의 호모그래피 변환행렬
Figure 112013031748124-pat00140
를 구한다. 이후 호모그래피 변환행렬
Figure 112013031748124-pat00141
를 이용하여
Figure 112013031748124-pat00142
,
Figure 112013031748124-pat00143
,
Figure 112013031748124-pat00144
를 현재 관측 값에 대응되도록
Figure 112013031748124-pat00145
,
Figure 112013031748124-pat00146
,
Figure 112013031748124-pat00147
로 변환한다.
Then, based on these point tracking results, RANSAC [MA Fischler and RC Bolles, "Random sample consensus: a paradigm for model fitting with applications of image analysis and automated cartography," Commun. ACM, 1981]
Figure 112013031748124-pat00138
from
Figure 112013031748124-pat00139
Homography transformation matrix
Figure 112013031748124-pat00140
. Then the homography transformation matrix
Figure 112013031748124-pat00141
Using
Figure 112013031748124-pat00142
,
Figure 112013031748124-pat00143
,
Figure 112013031748124-pat00144
To correspond to the current observation value
Figure 112013031748124-pat00145
,
Figure 112013031748124-pat00146
,
Figure 112013031748124-pat00147
.

이들 변환된 모델

Figure 112013031748124-pat00148
,
Figure 112013031748124-pat00149
,
Figure 112013031748124-pat00150
를 바탕으로 전경 모델과 유사한 방법을 사용하여 하기의 [수학식 6] 내지 [수학식 7]을 통해
Figure 112013031748124-pat00151
,
Figure 112013031748124-pat00152
,
Figure 112013031748124-pat00153
를 구한다. 다만 배경 모델의 경우 전경 모델과는 반대로 전경 모델에서 학습이 수행된 부분에 폐기학습이 수행되어야 한다. 따라서 배경 모델의 경우 j ∈
Figure 112013031748124-pat00154
일 경우
Figure 112013031748124-pat00155
, j ∈
Figure 112013031748124-pat00156
일 경우
Figure 112013031748124-pat00157
를 사용한다.
These transformed models
Figure 112013031748124-pat00148
,
Figure 112013031748124-pat00149
,
Figure 112013031748124-pat00150
(6) to (7) using the method similar to the foreground model on the basis of the following equations
Figure 112013031748124-pat00151
,
Figure 112013031748124-pat00152
,
Figure 112013031748124-pat00153
. However, in the case of the background model, as opposed to the foreground model, the discard learning should be performed on the part where the learning is performed in the foreground model. Therefore, for the background model, j ∈
Figure 112013031748124-pat00154
If
Figure 112013031748124-pat00155
, j ∈
Figure 112013031748124-pat00156
If
Figure 112013031748124-pat00157
Lt; / RTI >

Figure 112013031748124-pat00158
Figure 112013031748124-pat00158

여기서,

Figure 112013031748124-pat00159
Figure 112013031748124-pat00160
는 하기의 [수학식 7]에 의해 연산된다.
here,
Figure 112013031748124-pat00159
And
Figure 112013031748124-pat00160
Is calculated by the following equation (7).

Figure 112013031748124-pat00161
Figure 112013031748124-pat00161

실제 구현 상에서는 전체 배경 모델에 대하여 학습을 적용한 후 추적 결과를 이용하여 폐기학습이 필요한 부분에

Figure 112013031748124-pat00162
의 양 만큼 폐기학습을 적용한다. 이러한 업데이트 과정을 통하여 추적 대상이 또한 배경에 학습되는 것을 방지하는 것이 가능하다.
In the actual implementation, after applying the learning to the whole background model,
Figure 112013031748124-pat00162
The discard learning is applied. Through this update process, it is possible to prevent the tracking object from being learned in the background as well.

다음으로, 랜덤 샘플링 및 평균이동을 활용한 추적에 대해서 구체적으로 살펴보도록 한다. 물체 추적 문제는 시간 t에 대해 물체가 위치한 영역에 대한 추정치

Figure 112013031748124-pat00163
을 찾는 과정이며 하기의 [수학식 8]로 표기할 수 있다.
Next, a detailed description will be given of tracking using random sampling and average movement. The object tracking problem is an estimate of the area in which the object is located with respect to time t
Figure 112013031748124-pat00163
And can be represented by the following equation (8).

Figure 112013031748124-pat00164
Figure 112013031748124-pat00164

이는 다시 말해 전경 모델에 어떠한 변화를 주지 않아도 가장 큰

Figure 112013031748124-pat00165
값을 갖는
Figure 112013031748124-pat00166
을 찾는 것이다. 이를 위하여 R을 고정시킨 후 평균이동 벡터
Figure 112013031748124-pat00167
를 구하고, 다시 이 벡터를 활용하여
Figure 112013031748124-pat00168
을 업데이트시킨다.In other words, without changing any of the foreground models,
Figure 112013031748124-pat00165
Value
Figure 112013031748124-pat00166
. For this purpose, after fixing R,
Figure 112013031748124-pat00167
, And again using this vector
Figure 112013031748124-pat00168
.

평균이동 벡터를 구하는 방법은 종래 제안된 기술(A. P. Leung and S. Gong, "Mean shift tracking with random sampling," In Proc. BMVC 2005 참조)에서와 유사하게 이루어진다. 하지만 본 발명의 경우 기존의 픽셀을 샘플링하던 방식이 아닌 각 랜덤 변환을 샘플링한다.The method of obtaining the average motion vector is similar to that of the conventional technique (A. P. Leung and S. Gong, "Mean shift tracking with random sampling," In Proc. BMVC 2005). However, in the case of the present invention, each random conversion is sampled rather than a method of sampling an existing pixel.

시간 t에서의 k번째 반복 실행에서의 후보 영역을

Figure 112013031748124-pat00169
, 시간 t에서의 추적 결과를
Figure 112013031748124-pat00170
라 할 경우,
Figure 112013031748124-pat00171
로 시작한다. 이후 매 반복실행 마다 M개의 샘플을 이용할 경우 첫 M/2개는 다음의 [수학식 9]와 같이 선택된다.
The candidate region in the k < th >
Figure 112013031748124-pat00169
, The tracking results at time t
Figure 112013031748124-pat00170
In other words,
Figure 112013031748124-pat00171
≪ / RTI > Then, when M samples are used for every repetition, the first M / 2 is selected as shown in the following equation (9).

Figure 112013031748124-pat00172
Figure 112013031748124-pat00172

여기서 N(0,σ2)은 0을 평균으로 σ2을 분산으로 하는 가우시안 분포이며, i는 샘플 인덱스이다. 이들 샘플을 평균이동에 효과적으로 사용하기 위하여 나머지 M/2개의 경우

Figure 112013031748124-pat00173
로 대칭이 되도록 한다. 이후 각
Figure 112013031748124-pat00174
에 대하여 [수학식 1]을 이용하여
Figure 112013031748124-pat00175
를 계산하고, 다음의 [수학식 10]에 의해 평균이동 벡터
Figure 112013031748124-pat00176
를 계산한다.
Here, N (0, σ 2 ) is a Gaussian distribution in which 0 is an average and σ 2 is a dispersion, and i is a sample index. To effectively use these samples for average shifting, the remaining M / 2 cases
Figure 112013031748124-pat00173
To be symmetrical. Then each
Figure 112013031748124-pat00174
Using Equation (1)
Figure 112013031748124-pat00175
And calculates the average motion vector < RTI ID = 0.0 >
Figure 112013031748124-pat00176
.

Figure 112013031748124-pat00177
Figure 112013031748124-pat00177

여기서 l은 벡터의 원소를 의미한다. [수학식 10]의 평균이동 벡터를 활용하여 다음의 [수학식 11]에 따라 후보 영역을 업데이트한다.
Where l denotes an element of a vector. The candidate region is updated according to the following Equation (11) using the average motion vector of Equation (10).

Figure 112013031748124-pat00178
Figure 112013031748124-pat00178

이러한 반복 실행은 수렴이 이루어질 때까지 진행되나 실험적으로 살펴본 결과 미리 설정된 횟수, 예컨대 10번 수행하는 것으로 고정하여 실행하더라도 결과에는 큰 차이가 없다.
Such repetitive execution is performed until convergence is achieved, but as a result of experiments, it is found that there is not a large difference in the results even if it is fixedly executed by performing a predetermined number of times, for example, 10 times.

본 발명의 작용효과에 대한 비교 평가를 위하여 본 발명의 방법을 C++로 구현하였다. 구현시 KLT의 경우 openCV 라이브러리를 활용하였다. 모델의 최대 에이지는 30으로 제한하여 모델이 최소 0.03의 학습률을 갖도록 하였다. Th의 경우 5로 설정하였으며 r+ = 1, r- = -0.05이다. 샘플링 σ의 경우 x, y축 방향으로 모델 크기의 10%로 설정하였다(단, FaceOcc의 경우 5%로 하였다). 본 발명의 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법에 따른 알고리즘은 초당 10프레임 이상의 성능을 보였다.For comparison and evaluation of the effect of the present invention, the method of the present invention is implemented in C ++. In implementation, KLT uses openCV library. The maximum age of the model is limited to 30 so that the model has a learning rate of at least 0.03. Th is set to 5 and r + = 1 and r- = -0.05. In the case of sampling σ, 10% of the model size was set in the x and y directions (5% in case of FaceOcc). The algorithm according to the object tracking method through dual modeling and learning and discard learning of the present invention showed a performance of more than 10 frames per second.

본 발명의 추적 성능을 평가하기 위하여 여섯 개의 다른 방법과 비교 실험을 수행하였다. FRAG(Adam 논문 참조)과 L1(Mei 논문 참조)의 방법들은 주로 가려짐과 관련된 방법들이며, SEMI(Stalder 논문)와 OAB(Grabner 논문)의 경우 배경 간섭과 드리프팅 문제를 동시에 다루며, MIL(Babenko 논문)과 TLD(Kalal 논문)의 경우 드리프팅에 주안점을 둔 최신 방법들이다.Six different methods and comparative experiments were performed to evaluate the tracking performance of the present invention. The methods of FRAG (see Adam's paper) and L1 (see Mei's paper) are mainly related to masking. In the case of SEMI (Stalder paper) and OAB (Grabner paper), background interference and drifting are discussed simultaneously. MIL Thesis) and TLD (Kalal thesis) are the latest methods focusing on drifting.

실험은 아홉 개의 영상에 대해 수행되었는데 이중 일곱 개는 가려짐, 배경 간섭, 대상의 모양 변화를 포함하고 나머지 둘은 일곱 개 중 두 영상을 앞뒤로 반복함으로써 생성된 긴 영상이다. Caviar 영상은 C. project page. Caviar test case scenarios. http://homepages.inf.ed.ac.uk/rbf/CAVIARDATA1/, visited on 9/15/2010.에서 사용된 영상이며, FaceOcc와 Woman은 Adam 논문에서 사용되었다. Sylvester와 Tiger의 경우 Babenko 논문에서 사용되었으며 CupOcc와 Cheetah의 경우 자체 제작되었다. 본 비교 실험에서는 각 논문의 저자들이 제공한 프로그램 코드를 사용하였다.Experiments were performed on nine images, seven of which are obscured, background interference, and the other two are long images produced by repeating two of the seven images back and forth. Caviar image is C. project page. Caviar test case scenarios. It was used in http://homepages.inf.ed.ac.uk/rbf/CAVIARDATA1/, visited on 9/15/2010. FaceOcc and Woman were used in Adam paper. Sylvester and Tiger were used in the Babenko paper, and CupOcc and Cheetah were made in-house. In this comparative experiment, we used the program code provided by the authors of each paper.

여기서, 양적 분석을 위하여 추적 결과 상자의 네 귀퉁이 점의 평균 오류를 사용하였다. 실제 추적 결과로는 사람이 직접 표기한 지점을 사용하였다. 평균 오류를 계산할 때 추적 방법이 결과를 반환하지 않은 경우(즉 추적 실패를 인식한 경우)는 제외하였다. 또한 평균 오류 외에 올바르게 추적한 프레임 수를 고려하였다. 올바르게 추적된 프레임의 경우 평균 오류가 사람이 설정한 물체의 현재 넓이 및 높이 중 작은 값보다 작을 경우를 올바르게 추적되었다고 생각하였다. [도 4]의 표는 각 알고리즘의 수치적인 실험 결과(평균오류, 추적성공 %)를 나타내며, 올바르게 추적된 프레임 비율을 기준으로 가장 좋은 결과는 진한 글씨와 밑줄로, 두 번째 좋은 결과는 진한 글씨로 표기하였다.Here, for the quantitative analysis, the average error of the four corner points of the tracking result box was used. As a result of the actual tracking, a person 's own point was used. Except when the tracking method did not return a result when calculating the average error (that is, when the tracking failure was recognized). In addition to the average error, we considered the number of correctly tracked frames. For correctly tracked frames, we assumed that the average error was correctly tracked when the current width and height of the object set by the person were smaller than the smaller value. 4 shows the numerical experimental results (average error, tracking success rate) of each algorithm, and the best results are based on the correctly tracked frame rate, with the darker letters and underlines, and the second best result is the darker ones Respectively.

Caviar, FaceOcc, Woman, CupOcc 영상은 가려짐에 대한 성능 평가를 위한 영상이다. [도 4]에 도시된 바와 같이 본 발명의 방법은 모든 비교된 방법에 비해 우수한 성능을 보인다. 주의할 점은 Woman 영상의 경우 Adam 논문에서 FRAG가 매우 우수한 성능을 보인다고 보고되었으나 영상의 일부분이 아닌 전체를 사용할 경우에는 성능이 낮음을 확인할 수 있었다. 또한 CupOcc영상의 경우 물체가 처음부터 가려진 영상으로 다른 알고리즘은 실패하는 반면 본 발명의 방법은 성공하는 것을 확인할 수 있다. Cheetah 영상의 경우 물체가 배경으로부터 크게 눈에 띄지 않는 경우인데 이 경우 L1, OAB, MIL과 본 발명의 DM을 제외한 모든 방법이 실패하는 것을 볼 수 있다.Caviar, FaceOcc, Woman, CupOcc images are images for performance evaluation of occlusion. As shown in FIG. 4, the method of the present invention shows superior performance over all compared methods. It should be noted that in the case of Woman image, the FRAG was reported to perform very well in the Adam paper, but the performance was low when the entire image was not used. Also, in the case of CupOcc image, it is confirmed that the method of the present invention succeeds while the other algorithm fails because the object is obscured from the beginning. In the case of the Cheetah image, the object is largely invisible from the background. In this case, all of the methods except L1, OAB, MIL and DM of the present invention fail.

드리프팅에 대한 성능 평가를 위해 Sylvester, Tiger, Sylv_rep, Tiger_rep 영상을 사용하였다. Sylvester와 Tiger 영상은 다양한 변화를 보이는 영상으로 이 두 영상을 앞뒤로 반복하여 늘임으로써 긴 시간 동안 드리프팅이 일어나게끔 한 것으로, 본 발명의 방법을 반복 실행한 결과와 기존 결과를 비교함으로써 드리프팅 효과를 확인할 수 있다. 실험 결과 본 발명의 방법에서는 별달리 드리프팅이 일어나지 않음을 확인할 수 있었다. SEMI와 FRAG의 경우 드리프팅이 크게 일어나지는 않지만 전체적으로 추적 성능이 떨어지는 것을 확인할 수 있었다. OAB와 MIL의 경우 Sylvester영상은 잘 되지만 Tiger의 경우 큰 드리프트를 보이는 것을 확인할 수 있었다. TLD는 Tiger의 경우 성능 향상이 보이지만 이를 실제 실험 결과를 확인할 경우 추적 결과로 사용하기는 힘든 결과를 보이며 수치적으로도 성능이 향상된 후에도 부족함을 볼 수 있었다. 마지막으로 L1의 경우 드리프팅에 의해 심하게 성능이 저하됨을 확인할 수 있었다.We used Sylvester, Tiger, Sylv_rep, and Tiger_rep images to evaluate the performance of drifting. The Sylvester and Tiger images are images with various changes. The images are repeatedly stretched back and forth so that drifting occurs for a long time. By comparing the results obtained by repeating the method of the present invention and the existing results, Can be confirmed. As a result of the experiment, it was confirmed that the method of the present invention did not cause extra drifting. In the case of SEMI and FRAG, drifting did not occur largely, but overall tracking performance deteriorated. In the case of OAB and MIL, the Sylvester image is good, but the Tiger shows large drift. The performance of TLD is improved for Tiger, but it is difficult to use it as a tracking result when checking actual experimental results. Finally, it was confirmed that the performance of L1 is severely degraded by drifting.

한편, [도 5]는 본 발명의 작용효과를 설명하기 위한 실험 영상 및 알고리즘별 주요 추적 결과 프레임을 도시한 참조도면이다.
FIG. 5 is a reference diagram showing an experimental image and a main tracking result frame for each algorithm to explain the operation and effect of the present invention.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드의 형태로 구현하는 것이 가능하다. 이때, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be embodied in the form of computer readable code on a computer readable recording medium. At this time, the computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 캐리어웨이브(예: 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산된 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인 프로그램, 코드, 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage, and the like, and may be implemented in the form of a carrier wave . The computer-readable recording medium can also be stored and executed by a computer-readable code in a distributed manner on a networked computer system. And functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present invention belongs.

이상과 같이, 본 명세서와 도면에는 본 발명의 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예가 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명하다.As described above, the embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms have been used, they have been used only in a general sense to easily describe the technical contents of the present invention and to facilitate understanding of the invention. And is not intended to limit the scope of the invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

Claims (11)

각각 개별적인 두 개의 단일 가우시안 모델을 사용하여 전경 모델과 배경 모델을 설정하는 제 1 단계;
입력 영상에서 특징 기반으로 배경 움직임을 보상함으로써 상기 배경 모델을 업데이트하는 제 2 단계;
상기 전경 모델에 변화를 인가한 후 상기 배경 모델과 결합하여 현재의 관측 값과 가장 유사하도록 재구성하고, 상기 재구성할 때의 오류에 반비례 하는 우도 값 연산을 통해 상기 전경 모델과 상기 배경 모델로부터 우도를 계산하는 제 3 단계;
랜덤 샘플링을 활용한 평균이동 처리를 반복 실행하여 상기 우도를 최대화함으로써 추적대상 물체에 대한 추적 결과를 획득하는 제 4 단계;
상기 우도 계산에 전경 모델이 반영되었는지 배경 모델이 반영되었는지에 따라 학습 및 폐기학습을 선택적으로 적용하여 상기 전경 모델을 업데이트하는 제 5 단계;
를 포함하여 구성되는 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법.
A first step of setting foreground models and background models using two individual single Gaussian models, respectively;
A second step of updating the background model by compensating a background motion based on a feature in an input image;
A change is made to the foreground model and then combined with the background model to reconstruct the most similar to the current observation value and a likelihood value is calculated from the foreground model and the background model by a likelihood value calculation in inverse proportion to the error at the time of reconstruction A third step of calculating;
A fourth step of repeatedly executing an average moving process using random sampling to obtain a tracking result for an object to be tracked by maximizing the likelihood;
A fifth step of updating the foreground model by selectively applying learning and discard learning according to whether the foreground model is reflected in the likelihood calculation or whether the background model is reflected in the likelihood calculation;
And a method for tracking an object through learning and discard learning.
삭제delete 청구항 1에 있어서,
상기 제 3 단계는 상기 전경 모델에 적용되는 변환을 나타내는 벡터를 변환(
Figure 112013031748124-pat00179
)로 설정하고, 상기 변환(
Figure 112013031748124-pat00180
)를 사용한 이미지(
Figure 112013031748124-pat00181
)에 대한 호모그래피 변환을
Figure 112013031748124-pat00182
라고 설정하는 경우, 상기 변환(
Figure 112013031748124-pat00183
)을 적용시킨 상기 전경 모델을 수학식
Figure 112013031748124-pat00184
Figure 112013031748124-pat00185

을 통하여 구성하고, 상기 전경 모델에 대응되는 배경 모델인
Figure 112013031748124-pat00186
Figure 112013031748124-pat00187
Figure 112013031748124-pat00188
Figure 112013031748124-pat00189
에서 추적 후보 영역(
Figure 112013031748124-pat00190
)을 잘라내어 상기
Figure 112013031748124-pat00191
및 상기
Figure 112013031748124-pat00192
와 동일한 크기로 확대/축소함으로써 연산하는 것을 특징으로 하는 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법.
The method according to claim 1,
The third step is to convert the vector representing the transform applied to the foreground model
Figure 112013031748124-pat00179
), And the conversion (
Figure 112013031748124-pat00180
) (
Figure 112013031748124-pat00181
) ≪ / RTI >
Figure 112013031748124-pat00182
, The conversion (
Figure 112013031748124-pat00183
) Is applied to Equation
Figure 112013031748124-pat00184
And
Figure 112013031748124-pat00185

And a background model corresponding to the foreground model
Figure 112013031748124-pat00186
Wow
Figure 112013031748124-pat00187
To
Figure 112013031748124-pat00188
Wow
Figure 112013031748124-pat00189
In the tracking candidate region (
Figure 112013031748124-pat00190
) Is cut out,
Figure 112013031748124-pat00191
And
Figure 112013031748124-pat00192
And the object is tracked by the dual modeling and learning and discarding learning.
청구항 3에 있어서,
상기 제 3 단계는 입력 이미지(
Figure 112013031748124-pat00193
)에서 상기 추적 후보 영역(
Figure 112013031748124-pat00194
)을 잘라내어 확대/축소하여
Figure 112013031748124-pat00195
를 구하는 경우, 상기 추적 후보 영역(
Figure 112013031748124-pat00196
)에서 상기 변환(
Figure 112013031748124-pat00197
)에 대한 우도
Figure 112013031748124-pat00198
는 픽셀 인텍스 j에 대해
Figure 112013031748124-pat00199

에 의해 연산하고, 상기
Figure 112013031748124-pat00200
및 상기
Figure 112013031748124-pat00201
각각은,
Figure 112013031748124-pat00202

에 의해 연산하는 것을 특징으로 하는 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법.
The method of claim 3,
The third step is a step
Figure 112013031748124-pat00193
) In the tracking candidate region (
Figure 112013031748124-pat00194
) To zoom in and out
Figure 112013031748124-pat00195
, The tracking candidate region (
Figure 112013031748124-pat00196
Lt; RTI ID = 0.0 >
Figure 112013031748124-pat00197
) Likelihood
Figure 112013031748124-pat00198
For pixel index j
Figure 112013031748124-pat00199

, And
Figure 112013031748124-pat00200
And
Figure 112013031748124-pat00201
Respectively,
Figure 112013031748124-pat00202

And the object tracking method using learning and discard learning.
청구항 4에 있어서,
상기 제 5 단계는 상기
Figure 112013031748124-pat00203
와 상기
Figure 112013031748124-pat00204
중 어떠한 모델이 상기 우도 계산에 활용되었는지에 따라 상기 전경 모델의 업데이트에서 학습을 적용할 것인지 폐기학습을 적용할 것인지를 결정하는 것을 특징으로 하는 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법.
The method of claim 4,
Wherein the fifth step comprises:
Figure 112013031748124-pat00203
And
Figure 112013031748124-pat00204
And determining whether to apply learning or discard learning in updating the foreground model according to whether any of the models is utilized in the likelihood calculation.
청구항 5에 있어서,
상기 제 5 단계는 상기 전경 모델을 업데이트할 때
Figure 112013031748124-pat00205

에 의해 업데이트를 수행하고,
Figure 112013031748124-pat00206
Figure 112013031748124-pat00207
는 시간 t일 때 픽셀 j에 대한 전경 모델이며,
Figure 112013031748124-pat00208
는 시간 t일 때 픽셀 j에 대한 확대/축소된 관측 값이며,
Figure 112013031748124-pat00209
는 시간 t까지 관측된 프레임 수로 설정되는 것을 특징으로 하는 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법.
The method of claim 5,
The fifth step is a step of updating the foreground model
Figure 112013031748124-pat00205

Lt; / RTI >
Figure 112013031748124-pat00206
And
Figure 112013031748124-pat00207
Is the foreground model for pixel j at time t,
Figure 112013031748124-pat00208
Is the zoomed-in observation for pixel j at time t,
Figure 112013031748124-pat00209
Is set to the number of frames observed until time < RTI ID = 0.0 > t. ≪ / RTI >
청구항 6에 있어서,
상기 제 5 단계에서
Figure 112013031748124-pat00210
는 픽셀의 에이지로부터 구할 수 있으며, 픽셀 j의 시간 t일 때의 에이지를
Figure 112013031748124-pat00211
라 하면
Figure 112013031748124-pat00212

Figure 112013031748124-pat00213

에 의해 연산하고, 상기
Figure 112013031748124-pat00214
는 업데이트 파라미터로 [-1, 1] 범위 안에 속하는 값으로서 상기 학습과 폐기학습을 조율하는 것을 특징으로 하는 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법.
The method of claim 6,
In the fifth step
Figure 112013031748124-pat00210
Can be obtained from the age of the pixel, and the age at time t of the pixel j
Figure 112013031748124-pat00211
If you say
Figure 112013031748124-pat00212
The
Figure 112013031748124-pat00213

, And
Figure 112013031748124-pat00214
Is a value belonging to the range of [-1, 1] as an update parameter, and the learning and discard learning are coordinated.
청구항 7에 있어서,
상기 제 5 단계에서 상기 전경 모델이 사용된 픽셀들을
Figure 112013031748124-pat00215
, 상기 배경 모델이 사용된 픽셀들을
Figure 112013031748124-pat00216
라 할 경우, j ∈
Figure 112013031748124-pat00217
의 경우
Figure 112013031748124-pat00218
(학습 - learning)을 사용하고, j ∈
Figure 112013031748124-pat00219
의 경우
Figure 112013031748124-pat00220
(폐기학습 - unlearning)을 사용하는 것을 특징으로 하는 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법.
The method of claim 7,
In the fifth step, pixels in which the foreground model is used
Figure 112013031748124-pat00215
, Pixels in which the background model is used
Figure 112013031748124-pat00216
, Then j ∈
Figure 112013031748124-pat00217
In the case of
Figure 112013031748124-pat00218
(Learning-learning), and j ∈
Figure 112013031748124-pat00219
In the case of
Figure 112013031748124-pat00220
(2) a method of tracking objects through learning and discarding learning.
청구항 8에 있어서,
상기 제 5 단계에서 상기
Figure 112013031748124-pat00221
을 사용하는 경우 상기
Figure 112013031748124-pat00222
가 [1 , ∞] 범위 안에 속하고,
Figure 112013031748124-pat00223
로 정의할 경우 상기
Figure 112013031748124-pat00224
는 다시 [0, 1] 범위 안에 속하며,
Figure 112013031748124-pat00225

로 정의되는 것을 특징으로 하는 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법.
The method of claim 8,
In the fifth step,
Figure 112013031748124-pat00221
In case of using
Figure 112013031748124-pat00222
Is in the range [1, ∞]
Figure 112013031748124-pat00223
When defined as above,
Figure 112013031748124-pat00224
Is again in the range [0, 1]
Figure 112013031748124-pat00225

Wherein the object tracking method is based on dual modeling and learning and discard learning.
청구항 6에 있어서,
상기 제 2 단계는 상기 배경 모델을 업데이트할 때
Figure 112013031748124-pat00226

에 의하며, 상기
Figure 112013031748124-pat00227
Figure 112013031748124-pat00228

Figure 112013031748124-pat00229

에 의해 연산하며, 상기 배경 모델의 경우 j ∈
Figure 112013031748124-pat00230
이면
Figure 112013031748124-pat00231
을 사용하고, j ∈
Figure 112013031748124-pat00232
이면
Figure 112013031748124-pat00233
를 사용하는 것을 특징으로 하는 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법.
The method of claim 6,
The second step is to update the background model
Figure 112013031748124-pat00226

, And
Figure 112013031748124-pat00227
And
Figure 112013031748124-pat00228
The
Figure 112013031748124-pat00229

, And in the case of the background model j < RTI ID = 0.0 >
Figure 112013031748124-pat00230
If
Figure 112013031748124-pat00231
, And j ∈
Figure 112013031748124-pat00232
If
Figure 112013031748124-pat00233
And a method for tracking an object through learning and discard learning.
컴퓨터에 청구항 1, 3 내지 10 중 어느 하나의 항에 따른 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법을 실행시키기 위한 물체추적 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.A computer-readable recording medium recording an object tracking program for executing an object tracking method through dual modeling and learning and discard learning according to any one of claims 1 and 3 to 10.
KR1020130040141A 2013-04-11 2013-04-11 Method or providing visual tracking from video by learning and unlearning with dual modeling, and computer-readable recording medium for the same KR101460517B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130040141A KR101460517B1 (en) 2013-04-11 2013-04-11 Method or providing visual tracking from video by learning and unlearning with dual modeling, and computer-readable recording medium for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130040141A KR101460517B1 (en) 2013-04-11 2013-04-11 Method or providing visual tracking from video by learning and unlearning with dual modeling, and computer-readable recording medium for the same

Publications (2)

Publication Number Publication Date
KR20140122981A KR20140122981A (en) 2014-10-21
KR101460517B1 true KR101460517B1 (en) 2014-11-12

Family

ID=51993881

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130040141A KR101460517B1 (en) 2013-04-11 2013-04-11 Method or providing visual tracking from video by learning and unlearning with dual modeling, and computer-readable recording medium for the same

Country Status (1)

Country Link
KR (1) KR101460517B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654508B (en) * 2015-12-24 2018-06-01 武汉大学 Monitor video method for tracking moving target and system based on adaptive background segmentation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007328746A (en) 2006-06-09 2007-12-20 Sony Computer Entertainment Inc Apparatus and method for tracking object
US20080002856A1 (en) 2006-06-14 2008-01-03 Honeywell International Inc. Tracking system with fused motion and object detection
US7885463B2 (en) 2006-03-30 2011-02-08 Microsoft Corp. Image segmentation using spatial-color Gaussian mixture models
US7929730B2 (en) 2007-10-29 2011-04-19 Industrial Technology Research Institute Method and system for object detection and tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7885463B2 (en) 2006-03-30 2011-02-08 Microsoft Corp. Image segmentation using spatial-color Gaussian mixture models
JP2007328746A (en) 2006-06-09 2007-12-20 Sony Computer Entertainment Inc Apparatus and method for tracking object
US20080002856A1 (en) 2006-06-14 2008-01-03 Honeywell International Inc. Tracking system with fused motion and object detection
US7929730B2 (en) 2007-10-29 2011-04-19 Industrial Technology Research Institute Method and system for object detection and tracking

Also Published As

Publication number Publication date
KR20140122981A (en) 2014-10-21

Similar Documents

Publication Publication Date Title
JP7236545B2 (en) Video target tracking method and apparatus, computer apparatus, program
Von Stumberg et al. Gn-net: The gauss-newton loss for multi-weather relocalization
CN108665487B (en) Transformer substation operation object and target positioning method based on infrared and visible light fusion
Işık et al. SWCD: a sliding window and self-regulated learning-based background updating method for change detection in videos
Kalsotra et al. Background subtraction for moving object detection: explorations of recent developments and challenges
EP2548174B1 (en) Method and apparatus for trajectory estimation, and method for segmentation
CN110929593B (en) Real-time significance pedestrian detection method based on detail discrimination
Bešić et al. Dynamic object removal and spatio-temporal RGB-D inpainting via geometry-aware adversarial learning
KR101436369B1 (en) Apparatus and method for detecting multiple object using adaptive block partitioning
CN114022759A (en) Airspace finite pixel target detection system and method fusing neural network space-time characteristics
US20110091074A1 (en) Moving object detection method and moving object detection apparatus
Chetverikov et al. Dynamic texture as foreground and background
Roy et al. Foreground segmentation using adaptive 3 phase background model
Cheng et al. Advanced background subtraction approach using Laplacian distribution model
Abdullah et al. Objects detection and tracking using fast principle component purist and kalman filter.
Zhu et al. Tracking multiple objects through occlusion with online sampling and position estimation
Liu et al. Scene background estimation based on temporal median filter with Gaussian filtering
Roy et al. A comprehensive survey on computer vision based approaches for moving object detection
CN114049531A (en) Pedestrian re-identification method based on weak supervision human body collaborative segmentation
KR101460517B1 (en) Method or providing visual tracking from video by learning and unlearning with dual modeling, and computer-readable recording medium for the same
Li et al. Multitarget tracking of pedestrians in video sequences based on particle filters
CN111160255B (en) Fishing behavior identification method and system based on three-dimensional convolution network
CN109951705B (en) Reference frame synthesis method and device for vehicle object coding in surveillance video
KR101192163B1 (en) Method and apparatus for detecting objects in motion through background image analysis by objects
N Abdullah et al. Automatic Objects Detection and Tracking Using FPCP, Blob Analysis and Kalman Filter

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171023

Year of fee payment: 4