KR100902771B1 - Method for tracking multiple objects using particle filter - Google Patents

Method for tracking multiple objects using particle filter Download PDF

Info

Publication number
KR100902771B1
KR100902771B1 KR1020070108619A KR20070108619A KR100902771B1 KR 100902771 B1 KR100902771 B1 KR 100902771B1 KR 1020070108619 A KR1020070108619 A KR 1020070108619A KR 20070108619 A KR20070108619 A KR 20070108619A KR 100902771 B1 KR100902771 B1 KR 100902771B1
Authority
KR
South Korea
Prior art keywords
filter
probability
tracking
pixel position
objects
Prior art date
Application number
KR1020070108619A
Other languages
Korean (ko)
Other versions
KR20090043016A (en
Inventor
유황열
Original Assignee
재단법인 포항산업과학연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 포항산업과학연구원 filed Critical 재단법인 포항산업과학연구원
Priority to KR1020070108619A priority Critical patent/KR100902771B1/en
Publication of KR20090043016A publication Critical patent/KR20090043016A/en
Application granted granted Critical
Publication of KR100902771B1 publication Critical patent/KR100902771B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 측면은 파티클 필터를 이용한 다중물체 추적방법에 관한 것으로, 특히 비선형 추정방법인 파티클 필터를 이용하여 다중 형태의 사후 분포도를 추정하여 다중 물체의 추적이 가능하게 하는 방법에 관한 것이다.One aspect of the present invention relates to a multi-object tracking method using a particle filter, and more particularly, to a method for enabling tracking of multiple objects by estimating a posterior distribution of a multiple shape using a particle filter which is a nonlinear estimation method.

본 발명의 파티클 필터를 이용한 다중물체 추적방법은, 다수 개의 파티클 필터가 이들에 각각 대응하는 다수 개의 물체를 각각 실시간으로 추적하는 방법에 있어서, 해당 시간에 상기 물체가 하나의 화소 위치에 있고, 상기 필터로부터 상기 화소 위치에서 상기 물체가 보일 확률을 구하는 제1단계; 해당 시간에 상기 필터로부터 상기 화소 위치에서 상기 물체가 보이지 않고, 상기 물체가 다른 물체에 의해 가려져 있을 확률을 구하는 제2단계; 및 상기 제1단계에서 구한 확률과 상기 제2단계에서 구한 확률을 더함으로써, 상기 화소위치에 상기 물체가 위치할 확률을 구하여 상기 물체를 추적하는 제3단계;를 포함하는 것을 특징으로 한다.In the multi-object tracking method using the particle filter of the present invention, a plurality of particle filters each track a plurality of objects corresponding to each of them in real time, the object is located at one pixel position at the time, A first step of obtaining a probability of the object being seen at the pixel position from a filter; A second step of obtaining a probability that the object is not visible at the pixel position from the filter at that time and the object is covered by another object; And a third step of tracking the object by obtaining a probability that the object is located at the pixel position by adding the probability obtained in the first step and the probability obtained in the second step.

파티클 필터, 다중물체, 추적, 화소값, 가중치 Particle Filters, Multi-Objects, Tracking, Pixel Values, Weights

Description

파티클 필터를 이용한 다중물체 추적방법{Method for tracking multiple objects using particle filter}Method for tracking multiple objects using particle filter

본 발명의 일 측면은 파티클 필터를 이용한 다중물체 추적방법에 관한 것으로, 특히 비선형 추정방법인 파티클 필터를 이용하여 다중 형태의 사후 분포도를 추정하여 다중 물체의 추적이 가능하게 하는 방법에 관한 것이다.One aspect of the present invention relates to a multi-object tracking method using a particle filter, and more particularly, to a method for enabling tracking of multiple objects by estimating a posterior distribution of a multiple shape using a particle filter which is a nonlinear estimation method.

로봇을 이용하는 임베디드 시스템들은 산업장비로부터 개인의 계산장치에 이르기까지 점점 널리 퍼져 복잡하게 되어 왔고, 일상의 적용에 요구되어 왔다. 로봇들 또는 자동화 시스템들은 이용할 수 있는 시각정보를 이용하여 일과 관계있는 물체들을 확인하고 추적해야만 한다. 이것들을 성취하기 위해, 실시간 물체추적이 로봇의 시각적인 서보 동작, 감시, 인간-기계 인터페이스, 스마트 환경 등과 같은 많은 컴퓨터 시각 응용에서 중대한 문제가 되어왔다.Embedded systems using robots have become increasingly widespread and complex, from industrial equipment to personal computing devices, and have been required for everyday applications. Robots or automation systems must use visual information available to identify and track objects related to the job. To accomplish these, real-time object tracking has been a significant problem in many computer vision applications such as visual servo operation of robots, monitoring, human-machine interfaces, smart environments, and the like.

이것에 있어 주요한 도전 중의 하나는 정확한 물체인식을 유지하고 있는 동안, 실시간으로 한 세트의 물체들을 추적하고 위치를 밝혀내는 방법이다.One of the major challenges in this is how to track and locate a set of objects in real time, while maintaining accurate object recognition.

다중 물체 추적에 관한 연구에 있어서, Jaco Vermaak, Arnaud Doucet, Patrick Perez는 단일 물체 추적 필터를 찾으려 하는 물체의 수만큼 증가시켜 다중 물체 추적이 가능하게 하였다. 그러나, 이 방법은 물체가 서로 겹치거나 사려졌을 때 어떤 필터가 어떤 물체를 추적하고 있는지에 대한 정보를 잃어버리게 되는 문제점이 있다.In the study of multi-object tracking, Jaco Vermaak, Arnaud Doucet, and Patrick Perez increased the number of objects to find a single object tracking filter to enable multi-object tracking. However, this method suffers from the loss of information about which filter is tracking which object when the objects overlap or are considered.

필터의 상태공간(state space)을 확정하는 방법으로는 인디케이터 (indicator)를 분포도의 여러 피크에 부여하여 물체의 위치를 계속해서 추정하는 방법이 있다. 이 방법도 또한 같은 물체를 추적하는 경우에 각각에 부여된 레이블정보가 서로 교차되는 경우가 발생하고, 추적하는 물체가 증가하는 경우에는 상태 공간의 확장과 더불어 인디케이터의 레이블 문제가 계산상 기하급수적으로 증가하는 문제점이 있다.As a method of determining the state space of the filter, there is a method of continuously estimating the position of an object by applying an indicator to various peaks of the distribution. This method also occurs when the label information given to each other crosses each other when tracking the same object, and when the tracking object increases, the labeling problem of the indicator along with the expansion of the state space is exponentially calculated. There is an increasing problem.

본 발명의 일 측면은 컴퓨터의 계산량이 기하급수적으로 증가하기 때문에 현실적으로 불가능하였던 다중 물체의 추적을 가능하게 하는 방법을 제공하는 것을 목적으로 한다.One aspect of the present invention is to provide a method for enabling the tracking of multiple objects that has been impossible in reality because the computational amount of the computer increases exponentially.

본 발명의 일 측면은, 다수 개의 파티클 필터가 이들에 각각 대응하는 다수 개의 물체를 각각 실시간으로 추적하는 방법에 있어서, 해당 시간에 상기 물체가 하나의 화소 위치에 있고, 상기 필터로부터 상기 화소 위치에서 상기 물체가 보일 확률을 구하는 제1단계; 해당 시간에 상기 필터로부터 상기 화소 위치에서 상기 물체가 보이지 않고, 상기 물체가 다른 물체에 의해 가려져 있을 확률을 구하는 제2단계; 및상기 제1단계에서 구한 확률과 상기 제2단계에서 구한 확률을 더함으로써, 상기 화소위치에 상기 물체가 위치할 확률을 구하여 상기 물체를 추적하는 제3단계;를 포함하는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법을 제공한다.According to an aspect of the present invention, in a method in which a plurality of particle filters track a plurality of objects respectively corresponding to them in real time, the objects are located at one pixel position at a corresponding time, and at the pixel positions from the filter. A first step of obtaining a probability of seeing the object; A second step of obtaining a probability that the object is not visible at the pixel position from the filter at that time and the object is covered by another object; And a third step of tracking the object by obtaining a probability that the object is located at the pixel position by adding the probability obtained in the first step and the probability obtained in the second step. Provides a multi-object tracking method using.

그리고, 상기 제1단계는, 해당 시간에 상기 물체가 하나의 화소 위치에 있을 확률을 구하는 제1-1단계; 해당 시간에 상기 화소 위치에서 상기 필터로부터 상기 물체가 보일 확률을 구하는 제1-2단계; 및 상기 제1-1단계에서 구한 확률과 상기 제1-2단계에서 구한 확률을 곱하는 제1-3단계;를 포함하는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법을 제공한다.The first step may include: a first-first step of obtaining a probability that the object is at one pixel position at a corresponding time; Calculating a probability of the object being seen from the filter at the pixel position at the corresponding time; And a first to third step of multiplying the probability obtained in step 1-1 and the probability obtained in step 1-2.

또한, 상기 제1-2단계는, 상기 필터에 대한 각각의 물체의 관측 가능성을 상기 각각의 상기 물체까지의 거리정보, 상기 물체의 기하학적 특징, 및 상기 물체의 표면특징에 해당하는 화소들에 대한 물체들의 가중치를 축적하여 이미지 공간에 반영하는 제1-2-1단계; 각각의 화소에 대하여 상기 축적된 물체의 가중치를 정규화하는 제1-2-2단계; 해당 물체의 화소 위치에 대하여 상기 정규화된 물체의 가중치를 재 정규화하여 이미지 공간으로부터 파티클 공간으로 정규화된 화소의 가중치를 다시 반영하는 제1-2-3단계;를 포함하는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법을 제공한다.In addition, the first and second steps may include determining the observability of each object with respect to the filter for pixels corresponding to distance information to each of the objects, geometric characteristics of the object, and surface features of the object. A step 1-2-1 of accumulating the weights of the objects and reflecting them in the image space; 1-2-2 normalizing the weights of the accumulated objects for each pixel; And re-normalizing the weight of the normalized object with respect to the pixel position of the object to reflect the weight of the pixel normalized from the image space to the particle space again. Provides a multi-object tracking method.

또한, 상기 제2단계는, 해당 시간에 상기 물체가 상기 화소 위치에서 상기 필터로부터 다른 물체에 의해 가려져 있을 확률을 구하는 제2-1단계; 해당 시간에 상기 필터로부터 상기 화소 위치에서 상기 물체가 보이지 않을 확률을 구하는 제2-2단계; 및 상기 제2-1단계에서 구한 확률과 상기 제2-2단계에서 구한 확률을 곱하는 제2-3단계;를 포함하는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법을 제공한다.Also, the second step may include: a second step of obtaining a probability that the object is covered by another object from the filter at the pixel position at the corresponding time; Calculating a probability of the object not being visible at the pixel position from the filter at the corresponding time; And a second to third multiplication of the probability obtained in step 2-1 and the probability obtained in step 2-2.

또한, 다른 하나의 물체가 생성되면 이를 실시간으로 추적하는 다른 하나의 필터가 생성되는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법을 제공한다.In addition, the present invention provides a multi-object tracking method using a particle filter, wherein another filter is generated to track another in real time when another object is generated.

또한, 상기 물체 중에서 하나의 물체가 사라지게 되면 이를 실시간으로 추적하는 필터가 제거되는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법을 제공한다.The present invention also provides a multi-object tracking method using a particle filter, wherein when one of the objects disappears, a filter for tracking it in real time is removed.

본 발명의 일 측면에 따르면, 하나의 물체만 추적할 수 있는 비선형 확률 분 포도를 수식적으로 개선함으로써 다중 물체 추적이 가능하게 한다.According to one aspect of the present invention, by multiplying the non-linear probability distribution that can track only one object can be multi-object tracking.

그리고, 본 발명의 다른 측면에 따르면, 다중 물체 추적시 계산상의 어려움을 극복하여 기하급수적인 계산 의 복잡성을 선형적인 복잡성으로 개선함으로써 다중 물체를 실시간으로 추적할 수 있게 한다.In addition, according to another aspect of the present invention, by overcoming the computational difficulties in tracking multiple objects, it is possible to track multiple objects in real time by improving the complexity of the exponential calculation to linear complexity.

또한, 본 발명의 또 다른 측면에 따르면, 물체의 추적뿐만 아니라 로봇의 위치인식도 가능하게 할 수 있다.In addition, according to another aspect of the present invention, it is possible not only to track the object but also to recognize the position of the robot.

이하, 첨부된 도면을 참조하여 본 발명의 실시형태를 설명한다. 그러나, 본 발명의 실시형태는 여러 가지의 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시형태로만 한정되는 것은 아니다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있으며, 도면상의 동일한 부호로 표시되는 요소는 동일한 요소이다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. However, embodiments of the present invention may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. Shapes and sizes of the elements in the drawings may be exaggerated for clarity, elements denoted by the same reference numerals in the drawings are the same elements.

Christopher Rasmussen는 LLF(Joint Likelihood Filter)를 개발하였다. LLF를 이용하면, JPDAF(Joint Probability Data Association Filter)의 이론적인 원리를 바탕으로 물체까지의 거리정보, 물체의 기하학적 특징, 및 물체의 표면특징 등을 이용하여 물체를 추적할 수 있다.Christopher Rasmussen developed the Joint Likelihood Filter (LLF). Using the LLF, the object can be tracked using distance information to the object, geometrical features of the object, and surface features of the object based on the theoretical principle of the Joint Probability Data Association Filter (JPDAF).

본 발명에서는 이와 같은 물체추적방법을 이용하여 다음의 3가지 사항을 살펴보기로 한다.In the present invention, the following three items will be described using the object tracking method.

1. 기하급수적으로 증가하는 컴퓨터 실행능력의 복잡성을 회피하기 위해, 공동 베이시안 분포도(Joint Bayesian Distribution)가 아닌 MPF(Mixture Particle Filter)에 관하여 살펴보기로 한다.In order to avoid the exponentially increasing computational complexity, we will discuss the MPF (Mixture Particle Filter) rather than the Joint Bayesian Distribution.

1) 물체 필터링 분포도(target filtering distribution)1) target filtering distribution

일반적인 파티클 필터(particle filter)의 사후 분포도를 대략적으로 계산하는 것이다. 여기서,

Figure 112007077157402-pat00001
는 현재시간 t에서의 물체의 상태이고,
Figure 112007077157402-pat00002
는 현재의 시간까지 측정된 데이터를 나타낸다. 다중물체 필터링 분포도(multi-target filtering distribution)를 베이시안(Bayesian) 필터 형식으로 나타내면 수학식 1과 같다.The post-distribution of a general particle filter is roughly calculated. here,
Figure 112007077157402-pat00001
Is the state of the object at the current time t,
Figure 112007077157402-pat00002
Represents data measured up to the current time. The multi-target filtering distribution is represented by Equation 1 in the form of a Bayesian filter.

Figure 112007077157402-pat00003
Figure 112007077157402-pat00003

관측 가능성 함수(observation likelihood function)인

Figure 112007077157402-pat00004
는 측정확률에 대한 값을 계산하고, 각각의 물체에 대한 변환모델(transition model)인
Figure 112007077157402-pat00005
는 전 상태를 기준으로 한 현재상태의 예측모델이다.Observation likelihood function
Figure 112007077157402-pat00004
Computes the value for the probability of measurement and computes the transition model for each object.
Figure 112007077157402-pat00005
Is a prediction model of the current state based on the previous state.

2. MPF에서 서로 교차할 경우에 나타나는 물체와 추적하고 있는 물체의 교차 문제를 극복하기 위해 측정모델부분은 공동 관측 가능성 모델(joint observation likelihood model)로 유지하고, 현재의 데이터에서 이 물체가 보일 때의 확률 분포도와 보이지 않을 때의 확률 분포도로 분해하여 실시간으로 계산하는 것이 가능하도록 하는 원리에 관하여 살펴보기로 한다.2. In order to overcome the problem of intersecting objects and tracking objects in the MPF, keep the measurement model part as a joint observation likelihood model, and when the objects are visible in the current data. The principle distribution that can be calculated in real time by decomposing the probability distribution and the probability distribution when not shown.

1) 공동 관측 가능성 모델(joint observation likelihood model)Joint observation likelihood model

공동 확률 분포도에서 다중물체를 추적하는 것은 가장 정확한 방법이지만 컴퓨터의 능력으로는 불가능하다. 여기에서는 각각의 필터가 서로 독립적이라는 가정하에 기본적인 측정모델을 분해하여 물체의 교차현상에 대한 더 정확한 분석을 제시한다.Tracking multiple objects in a joint probability distribution is the most accurate method, but it is not possible with computer capabilities. Here we present a more accurate analysis of the intersection of objects by decomposing the basic measurement model, assuming each filter is independent of each other.

각각의 필터가 하나의 물체만 추적한다는 가정하에 업데이트 단계는 각각의 물체에 대해 독립적으로 실행될 수 없다. 이러한 문제를 극복하기 위해 각 물체의

Figure 112007077157402-pat00006
에 대한 관측 가능성 모델을 분해하게 된다.
Figure 112007077157402-pat00007
는 수학식 2와 같이 표현할 수 있다.Under the assumption that each filter tracks only one object, the update step cannot be executed independently for each object. To overcome these problems,
Figure 112007077157402-pat00006
Decompose the observability model for.
Figure 112007077157402-pat00007
Can be expressed as in Equation 2.

Figure 112007077157402-pat00008
Figure 112007077157402-pat00008

수학식 2에서

Figure 112007077157402-pat00009
은 물체수 K에 대한 필터를 의미하고,
Figure 112007077157402-pat00010
는 물체 k가 보인다는 것을 의미하며,
Figure 112007077157402-pat00011
는 물체 k가 보이지 않는다는 것을 의미한다. 수학식 2는 4개의 요소들로 구성된다.In equation (2)
Figure 112007077157402-pat00009
Means filter for the number of objects K,
Figure 112007077157402-pat00010
Means that the object k is visible,
Figure 112007077157402-pat00011
Means that the object k is not visible. Equation 2 consists of four elements.

(A) 관측 가능성(observation likelihood) :

Figure 112007077157402-pat00012
(A) Observation likelihood:
Figure 112007077157402-pat00012

(B) 물체 k가 보일 가능성(likelihood of target k being visible) :

Figure 112007077157402-pat00013
(B) likelihood of target k being visible:
Figure 112007077157402-pat00013

(C) 숨겨진 물체에 대한 관측 모델(observation model for hidden targets) :

Figure 112009019203996-pat00014
(C) Observation model for hidden targets:
Figure 112009019203996-pat00014

(D)

Figure 112007077157402-pat00015
: 물체 k가 보이지 않을 가능성((likelihood of target k not being visible)(D)
Figure 112007077157402-pat00015
(Likelihood of target k not being visible)

그러면, 위의 분해된 4개의 요소들(A, B, C, D)에 대하여 각각 설명하기로 한다.Then, the above four decomposition elements (A, B, C, D) will be described.

(1)

Figure 112007077157402-pat00016
은 일반적인 관측모델과 같다.(One)
Figure 112007077157402-pat00016
Is the same as a general observation model.

(2)

Figure 112009019203996-pat00017
은 물체가 보일 가능성(visibility likelihood)을 나타낸다. 이 확률분포도는 3단계의 과정을 거쳐 계산된다. 먼저, 필터에 대한 각각의 물체의 관측 가능성을 각각의 물체까지의 거리정보, 물체의 기하학적 특징, 및 물체의 표면특징에 해당하는 화소들에 대한 물체들의 가중치를 축적하여 이미지 공간에 반영한다. 이후에, 각각의 화소에 대하여 축적된 물체의 가중치를 정규화한다. 이후에, 해당 물체의 화소 위치에 대하여 정규화된 물체의 가중치를 재 정규화하여 이미지 공간으로부터 파티클 공간으로 정규화된 화소의 가중치를 다시 반영한다.(2)
Figure 112009019203996-pat00017
The likelihood of an object being visible Indicates. This probability distribution is calculated in three steps. First, the observability of each object with respect to the filter is reflected in the image space by accumulating weights of objects for pixels corresponding to distance information to each object, geometric characteristics of the object, and surface features of the object. Thereafter, the weights of the accumulated objects for each pixel are normalized. Thereafter, the weight of the normalized object is renormalized with respect to the pixel position of the object to reflect the weight of the pixel normalized from the image space to the particle space again.

물체가 보일 가능성을 베이즈 법칙에 따라 나타내면 수학식 3과 같다.The probability of the object being shown according to Bayes' law is given by Equation 3.

Figure 112007077157402-pat00018
Figure 112007077157402-pat00018

수학식 3에서 첫 번째 단계를 해석하면 수학식 4와 같다.The first step in Equation 3 is interpreted as Equation 4.

Figure 112007077157402-pat00019
Figure 112007077157402-pat00019

여기서,

Figure 112009019203996-pat00040
: 물체 k가 있는 위치에서 화소값이 물체 k와 얼마나 유사한지를 나타내는 가중치here,
Figure 112009019203996-pat00040
Is a weight indicating how similar a pixel value is to object k at the location of object k

Figure 112009019203996-pat00041
: 현재의 추적 대상 물체 k의 화소 위치
Figure 112009019203996-pat00041
: Pixel position of current tracking object k

Figure 112009019203996-pat00042
: 추적 대상 물체 k의 모든 화소 위치
Figure 112009019203996-pat00042
: All pixel positions of tracked object k

수학식 4는 단지 물체에 속해 있는 화소의 위치에 대한 가중치를 의미한다. 여기서, 수학식 4는 하나의 화소는 유일하게 하나의 물체에만 속해야만 한다는 가정하에서 성립된다.Equation 4 merely means a weight for the position of the pixel belonging to the object. Here, Equation 4 is established on the assumption that one pixel must belong to only one object.

수학식 3은 어떤 물체가 다른 물체에 가려진 경우에 이미지상에서 파티클 가중치에 의한 정규화를 나타낸다.Equation 3 shows normalization by particle weight on an image when an object is covered by another object.

수학식 5는 현재의 화소들이 추적하고 있는 물체 중에서 어느 물체에서 왔는지를 나타낸다. 여기서,

Figure 112007077157402-pat00023
은 정규화 요소인데, 모든 화소값은 각각의 이미지상에서 같은 위치에 있는 화소값을 합하여 그 합한 값으로 각각의 이미지상에 있는 값들을 정규화해야 한다.Equation 5 indicates which of the objects the current pixels are tracking comes from. here,
Figure 112007077157402-pat00023
Is a normalization factor, and every pixel value must sum the pixel values at the same location on each image and normalize the values on each image to that sum.

Figure 112007077157402-pat00024
Figure 112007077157402-pat00024

정규화 작업 후에는 각각의 이미지상에서 정규화 작업이 수학식 6과 같이 이루어진다. 수학식 6에서는 정규화된 화소값들이 모든 이미지상에서 어떻게 적용되는지를 보인다.After the normalization operation, the normalization operation is performed on Equation 6 on each image. Equation 6 shows how normalized pixel values are applied on all images.

Figure 112009019203996-pat00043
Figure 112009019203996-pat00043

여기서,

Figure 112007077157402-pat00026
의 Xj는 화소 위치이고, Pixel(xk,t)는 추적하고 있는 물체의 위치(
Figure 112007077157402-pat00027
)이다. 모든 물체가 추적되고 있고, 그 물체들의 모든 화소 위치를 나타내고 정규화하기 위해 E라는 함수를 사용한다.here,
Figure 112007077157402-pat00026
Where X j is the pixel position and Pixel (x k , t ) is the position of the object being tracked (
Figure 112007077157402-pat00027
)to be. All objects are being tracked, and we use a function called E to represent and normalize all pixel positions of those objects.

(3)

Figure 112007077157402-pat00028
은 숨겨진 물체에 대한 관측 모델(observation model for hidden targets)을 나타낸다. 수학식 2에서
Figure 112007077157402-pat00029
는 물체가 다른 물체에 가려 보이지 않을 때의 확률분포도를 표현한다. 이 확률분포가 중요한 이유는, 가려진 물체에 너무 많은 가중치가 주어지면 가리고 있는 물체의 분포도가 변하게 되고 그 반대로 가리고 있는 물체에 너무 많은 가중치를 두면 가려진 물체의 분포도가 결국 사라지게 되기 때문이다. 이런 문제점들을 극복하기 위해 수학식 7에서 그 값을 구한다.(3)
Figure 112007077157402-pat00028
Represents an observation model for hidden targets. In equation (2)
Figure 112007077157402-pat00029
Represents the probability distribution when the object is hidden from other objects. This probability distribution is important because, if too many weights are placed on an obscured object, the distribution of the obscured object will change, and vice versa, if too much weight is placed on the obscured object, the distribution of the obscured object will eventually disappear. To overcome these problems, the value is obtained from Equation 7.

Figure 112007077157402-pat00030
Figure 112007077157402-pat00030

(4)

Figure 112007077157402-pat00031
는 1에서
Figure 112007077157402-pat00032
를 뺀 값인데, 물체 k가 보이지 않을 가능성을 나타낸다.(4)
Figure 112007077157402-pat00031
At 1
Figure 112007077157402-pat00032
Minus, indicating the probability that object k is invisible.

상기 살펴본 수학식 2를 구하는 과정을 정리하면 도 1을 참조하여 설명하기로 한다.A process of obtaining Equation 2 described above will be described with reference to FIG. 1.

첫째, 다수 개의 필터가 이들에 각각 대응하는 다수 개의 물체를 각각 실시간으로 추적하는 방법에서, 해당 시간에 상기 물체가 하나의 화소 위치에 있고, 상기 필터로부터 상기 화소 위치에서 상기 물체가 보일 확률을 구한다. 구체적으로는, 다수 개의 필터가 이들에 각각 대응하는 다수 개의 물체를 각각 실시간으로 추 적하는 방법에서, 해당 시간에 상기 물체가 하나의 화소 위치에 있을 확률(S100)과, 해당 시간에 상기 화소 위치에서 상기 필터로부터 상기 물체가 보일 확률(S200)을 구하여 서로 곱한다(S500). 여기서, S200은 3단계로 이루어지는데 도 2를 참조하여 설명하기로 한다.First, in a method in which a plurality of filters track a plurality of objects respectively corresponding to them in real time, a probability of the object being shown at one pixel position at the corresponding time and the object appearing at the pixel position from the filter are obtained. . Specifically, in a method in which a plurality of filters respectively track a plurality of objects corresponding to them in real time, a probability (S100) of the object at one pixel position at a corresponding time and the pixel position at the corresponding time. In step S500, the probability of the object being seen from the filter is multiplied with each other (S500). Here, S200 has three steps, which will be described with reference to FIG. 2.

먼저, 필터에 대한 각각의 물체의 관측 가능성을 각각의 물체까지의 거리정보, 물체의 기하학적 특징, 및 물체의 표면특징에 해당하는 화소들에 대한 물체들의 가중치를 축적하여 이미지 공간에 반영한다(S210).First, the observability of each object with respect to the filter is reflected in the image space by accumulating weights of objects for pixels corresponding to distance information to each object, geometric characteristics of the object, and surface features of the object (S210). ).

이후에, 각각의 화소에 대하여 축적된 물체의 가중치를 정규화한다(S220).Thereafter, the weights of the accumulated objects for each pixel are normalized (S220).

이후에, 해당 물체의 화소 위치에 대하여 정규화된 물체의 가중치를 재 정규화하여 이미지 공간으로부터 파티클 공간으로 정규화된 화소의 가중치를 다시 반영한다(S230).Subsequently, the weight of the normalized object is renormalized with respect to the pixel position of the object to reflect the weight of the pixel normalized from the image space to the particle space again (S230).

둘째, 다수 개의 필터가 이들에 각각 대응하는 다수 개의 물체를 각각 실시간으로 추적하는 방법에서, 해당 시간에 상기 필터로부터 상기 화소 위치에서 상기 물체가 보이지 않고, 상기 물체가 다른 물체에 의해 가려져 있을 확률을 구한다. 구체적으로는, 다수 개의 필터가 이들에 각각 대응하는 다수 개의 물체를 각각 실시간으로 추적하는 방법에서, 해당 시간에 상기 물체가 상기 화소 위치에서 상기 필터로부터 다른 물체에 의해 가려져 있을 확률(S300)과, 해당 시간에 상기 필터로부터 상기 화소 위치에서 상기 물체가 보이지 않을 확률(S400)을 구하여 서로 곱한다(S600).Second, in a method in which a plurality of filters track a plurality of objects respectively corresponding to them in real time, the probability that the object is not visible at the pixel position from the filter at that time and that the object is covered by another object is determined. Obtain Specifically, in a method in which a plurality of filters track a plurality of objects respectively corresponding to them in real time, a probability (S300) of the object being covered by another object from the filter at the pixel position at the corresponding time, At this time, a probability S400 is obtained from the filter at the pixel position and multiplied with each other (S600).

셋째, 첫째와 둘째에서 최종적으로 구한 확률을 더한다(S700).Third, the probability finally obtained in the first and second is added (S700).

3. 필터가 물체 추적 중에 다른 하나의 물체가 생성되거나 하나의 물체가 사라지게 되는 경우의 원리에 대하여 도 3 내지 도 5를 통하여 살펴보기로 한다.3. The principle in which another object is generated or one object disappears during object tracking will be described with reference to FIGS. 3 to 5.

필터 생성(filter creation)은 다른 하나의 물체가 생성되면 이를 실시간으로 추적하는 다른 하나의 필터가 생성되는 것을 의미하며, 배경필터(background filter)라고 정의한다. 이 배경필터는 모든 필터에서 상호 배타적으로 작용하여 다른 필터가 추적하고 있는 것을 제외시킨다. 그러나, 이 필터는 전체 필터의 분포도에 영향을 미치게 해서는 안 되기 때문에 정규화 작업시 제외된다.Filter creation means that when another object is created, another filter is created that tracks it in real time, and is defined as a background filter. This background filter works mutually exclusive on all filters, excluding what other filters are tracking. However, this filter is excluded from normalization because it should not affect the distribution of the entire filter.

도 3에서 제1 물체(100), 제2 물체(200), 제3물체(300)의 3개의 물체가 있고, 이들 각각에 대응하여 이를 실시간으로 추적하는 제1 필터(110), 제2 필터(210), 제3 필터(310)가 있다. 도 4에서는 제4 물체(400)가 생성되었기 때문에, 이를 실시간으로 추적하는 제4 필터(410)가 생성되었다.In FIG. 3, there are three objects of the first object 100, the second object 200, and the third object 300, and the first filter 110 and the second filter corresponding to each of them are tracked in real time. 210, there is a third filter 310. In FIG. 4, since the fourth object 400 is generated, a fourth filter 410 is generated to track the same in real time.

필터제거(filter deletion)는 물체 중에서 하나의 물체가 사라지게 되면 이를 실시간으로 추적하는 필터가 제거되는 것을 의미한다. 필터제거는 추적하고 있는 물체가 다른 물체에 가려 사라지는 것을 의미하는 것이 아니라, 전체 이미지상에서 사라지는 경우를 의미한다. Filter deletion means that if one of the objects disappears, the filter that tracks it in real time is removed. Filter removal does not mean that the object you are tracking disappears from other objects, but disappears from the entire image.

도 3에서 제1 물체(100), 제2 물체(200), 제3물체(300)의 3개의 물체가 있고, 이들 각각에 대응하여 이를 실시간으로 추적하는 제1 필터(110), 제2 필터(210), 제3 필터(310)가 있다. 도 5에서는 제3 물체(300)가 사라졌기 때문에, 이를 실시간으로 추적하는 제3 필터(310)가 제거되었다.In FIG. 3, there are three objects of the first object 100, the second object 200, and the third object 300, and the first filter 110 and the second filter corresponding to each of them are tracked in real time. 210, there is a third filter 310. In FIG. 5, since the third object 300 disappears, the third filter 310 that tracks this in real time has been removed.

이와 같이 필터가 자동적으로 제거됨으로써, 전체 추적작업에서 부담을 덜어 주는 효과가 있다. 따라서,

Figure 112007077157402-pat00033
확률분포도가 정의되고, 이것은 필터 k와 관련된 물체가 존재한다는 것을 의미하며, 임계값을 정의하여 추적하고 있는 필터의 분포도를 언제 제거하는지를 결정한다. 수학식 8은 물체가 존재할 때의 계산식이다.As such, the filter is automatically removed, thereby reducing the burden on the entire tracking operation. therefore,
Figure 112007077157402-pat00033
A probability distribution is defined, which means that there is an object associated with filter k, and defines a threshold to determine when to remove the distribution of the filter being tracked. Equation 8 is calculated when an object exists.

Figure 112007077157402-pat00034
Figure 112007077157402-pat00034

일반적인 공동 파티클 필터(joint particle filter)는 각각의 물체가 Kd 차원이기 때문에 계산상의 어려움을 갖는다. 여기서, K는 추적하고자하는 물체의 수이고, d는 각각의 필터의 차원이다. 만약, 각각의 파티클 필터가 N개의 물체가 필요하다면, K개의 물체의 공동 분포를 추적하기 위해서는 NK개의 물체가 필요하다. 그리고, 물체 재생성 단계를 O(N)이라 가정하고 물체가 있는 화소의 크기를 M이라 하면, 공동 파티클 필터(joint particle filter)의 복잡성(complexity)은 0(MNK)가 된다.A common joint particle filter has a computational difficulty because each object is a Kd dimension. Where K is the number of objects you want to track and d is the dimension of each filter. If each particle filter requires N objects, then N K objects are needed to track the co-distribution of the K objects. If the object regeneration step is assumed to be O (N) and the size of the pixel with the object is M, the complexity of the joint particle filter is 0 (MN K ).

공동 파티클 필터의 복잡성을 단순화하기 위해 본 발명에서는 측정모델을 분해하여 선형으로 단순화하였다. 물체 재생성 단계를 O(N)이라 하면, 기본적인 파티 클 필터는 O(MN)가 소요되고, 제안된 측정모델은 O(3MNK)가 소요된다. 제안된 측정모델에서 O(3MNK)가 소요되는 이유는, 물체가 있는 공간에서 이미지 공간으로 반영하기 위해서는 O(MNK)가 소요되고, 이를 정규화하기 위해서는 O(MNK)가 소요된다. 그리고, 이를 물체가 있는 공간으로 다시 반영하기 위해서는 O(MNK)가 소요되기 때문이다.In order to simplify the complexity of the common particle filter, the present invention resolves the measurement model linearly. If the object regeneration step is called O (N), the basic particle filter takes O (MN) and the proposed measurement model takes O (3MNK). The reason why O (3MNK) is required in the proposed measurement model is that O (MNK) is required to reflect the image space in the object space and O (MNK) is required to normalize it. This is because O (MNK) is required to reflect this back into the space where the object is located.

도 1은 본 발명의 파티클 필터를 이용한 다중물체 추적방법의 흐름도이다.1 is a flowchart of a multi-object tracking method using a particle filter of the present invention.

도 2는 도 1의 해당 시간에 화소 위치에서 필터로부터 물체가 보일 확률을 구하는 단계의 상세 흐름도이다.FIG. 2 is a detailed flowchart of the step of obtaining the probability of seeing an object from a filter at a pixel position at the corresponding time of FIG. 1.

도 3은 본 발명의 물체와 해당 물체를 추적하고 있는 필터를 나타낸 개념도이다.3 is a conceptual diagram illustrating an object of the present invention and a filter tracking the object.

도 4는 도 3에서 다른 하나의 물체가 생성되었을 때의 물체와 해당 물체를 추적하고 있는 필터를 나타낸 개념도이다.FIG. 4 is a conceptual diagram illustrating an object and a filter tracking the object when another object is generated in FIG. 3.

도 5는 도 3에서 하나의 물체가 사라졌을 때의 물체와 해당 물체를 추적하고 있는 필터를 나타낸 개념도이다.FIG. 5 is a conceptual diagram illustrating an object when one object disappears from FIG. 3 and a filter tracking the object.

<도면의 주요 부분에 대한 부호의 설명>                 <Explanation of symbols for the main parts of the drawings>

100 : 제1 물체 110 : 제1 필터100: first object 110: first filter

200 : 제2 물체 210 : 제2 필터200: second object 210: second filter

300 : 제3 물체 310 : 제3 필터300: third object 310: third filter

400 : 제4 물체 410 : 제4 필터400: fourth object 410: fourth filter

Claims (6)

다수 개의 파티클 필터가 이들에 각각 대응하는 다수 개의 물체를 각각 실시간으로 추적하는 방법에 있어서,In the method of the plurality of particle filters to track each of a plurality of objects respectively corresponding to them in real time, 해당 시간에 상기 물체가 하나의 화소 위치에 있고, 상기 필터로부터 상기 화소 위치에서 상기 물체가 보일 확률을 구하는 제1단계;A first step of obtaining a probability that the object is seen at one pixel position at that time and the object is visible at the pixel position from the filter; 해당 시간에 상기 필터로부터 상기 화소 위치에서 상기 물체가 보이지 않고, 상기 물체가 다른 물체에 의해 가려져 있을 확률을 구하는 제2단계; 및A second step of obtaining a probability that the object is not visible at the pixel position from the filter at that time and the object is covered by another object; And 상기 제1단계에서 구한 확률과 상기 제2단계에서 구한 확률을 더함으로써, 상기 화소위치에 상기 물체가 위치할 확률을 구하여 상기 물체를 추적하는 제3단계;A third step of tracking the object by obtaining a probability that the object is located at the pixel position by adding the probability obtained in the first step and the probability obtained in the second step; 를 포함하는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법.Multi-object tracking method using a particle filter comprising a. 제1항에 있어서,The method of claim 1, 상기 제1단계는,The first step, 해당 시간에 상기 물체가 하나의 화소 위치에 있을 확률을 구하는 제1-1단계;Calculating a probability that the object is at one pixel position at a corresponding time; 해당 시간에 상기 화소 위치에서 상기 필터로부터 상기 물체가 보일 확률을 구하는 제1-2단계; 및Calculating a probability of the object being seen from the filter at the pixel position at the corresponding time; And 상기 제1-1단계에서 구한 확률과 상기 제1-2단계에서 구한 확률을 곱하는 제1-3단계;A first to third step of multiplying the probability obtained in the first-first step by the probability obtained in the first-second step; 를 포함하는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법.Multi-object tracking method using a particle filter comprising a. 제2항에 있어서,The method of claim 2, 상기 제1-2단계는,Step 1-2, 상기 필터에 대한 각각의 물체의 관측 가능성을 상기 물체까지의 거리정보, 상기 물체의 기하학적 특징, 및 상기 물체의 표면특징에 해당하는 화소들에 대한 물체들의 가중치를 축적하여 이미지 공간에 반영하는 제1-2-1단계;A first reflecting the observation possibility of each object with respect to the filter in the image space by accumulating weights of objects with respect to pixels corresponding to distance information to the object, geometric characteristics of the object, and surface features of the object; -2-1 step; 각각의 화소에 대하여 상기 축적된 물체의 가중치를 정규화하는 제1-2-2단계;1-2-2 normalizing the weights of the accumulated objects for each pixel; 해당 물체의 화소 위치에 대하여 상기 정규화된 물체의 가중치를 재 정규화하여 이미지 공간으로부터 파티클 공간으로 정규화된 화소의 가중치를 다시 반영하는 제1-2-3단계;Re-normalizing the weight of the normalized object with respect to the pixel position of the object to reflect the weight of the pixel normalized from the image space to the particle space again; 를 포함하는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법.Multi-object tracking method using a particle filter comprising a. 제1항에 있어서,The method of claim 1, 상기 제2단계는,The second step, 해당 시간에 상기 물체가 상기 화소 위치에서 상기 필터로부터 다른 물체에 의해 가려져 있을 확률을 구하는 제2-1단계;Calculating a probability that the object is covered by another object from the filter at the pixel position at the corresponding time; 해당 시간에 상기 필터로부터 상기 화소 위치에서 상기 물체가 보이지 않을 확률을 구하는 제2-2단계; 및Calculating a probability of the object not being visible at the pixel position from the filter at the corresponding time; And 상기 제2-1단계에서 구한 확률과 상기 제2-2단계에서 구한 확률을 곱하는 제2-3단계;Steps 2 to 3 multiplying the probability obtained in step 2-1 and the probability obtained in step 2-2; 를 포함하는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법.Multi-object tracking method using a particle filter comprising a. 제1항에 있어서,The method of claim 1, 다른 하나의 물체가 생성되면 이를 실시간으로 추적하는 다른 하나의 필터가 생성되는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법.The method of tracking a multi-object using a particle filter, characterized in that another filter is generated to track another in real time when another object is generated. 제1항에 있어서,The method of claim 1, 상기 물체 중에서 하나의 물체가 사라지게 되면 이를 실시간으로 추적하는 필터가 제거되는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법.When one of the objects disappears, the multi-object tracking method using a particle filter, characterized in that the filter for tracking it in real time is removed.
KR1020070108619A 2007-10-29 2007-10-29 Method for tracking multiple objects using particle filter KR100902771B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070108619A KR100902771B1 (en) 2007-10-29 2007-10-29 Method for tracking multiple objects using particle filter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070108619A KR100902771B1 (en) 2007-10-29 2007-10-29 Method for tracking multiple objects using particle filter

Publications (2)

Publication Number Publication Date
KR20090043016A KR20090043016A (en) 2009-05-06
KR100902771B1 true KR100902771B1 (en) 2009-06-15

Family

ID=40853919

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070108619A KR100902771B1 (en) 2007-10-29 2007-10-29 Method for tracking multiple objects using particle filter

Country Status (1)

Country Link
KR (1) KR100902771B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101254087B1 (en) * 2011-07-28 2013-04-12 전남대학교산학협력단 Multiple object tracking based on penalty graph for avoiding hijacking problem of trackers
KR101480834B1 (en) * 2013-11-08 2015-01-13 국방과학연구소 Target motion analysis method using target classification and ray tracing of underwater sound energy
CN105654510A (en) * 2015-12-29 2016-06-08 江苏精湛光电仪器股份有限公司 Adaptive object tracking method suitable for night scene and based on feature fusion
KR102136111B1 (en) * 2018-05-23 2020-07-22 한국과학기술원 Particle resampling method for particle filter
KR20220164836A (en) 2021-06-04 2022-12-14 동명대학교산학협력단 Method for underwater objects recognizing and tracking multi target employing lidar sensor and image photographing device
KR20230166626A (en) 2022-05-31 2023-12-07 동명대학교산학협력단 Underground object of recognization and tracking method using sonar image of real-time image processing

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030045624A (en) * 2001-12-03 2003-06-11 마이크로소프트 코포레이션 Automatic detection and tracking of multiple individuals using multiple cues
JP2005165688A (en) 2003-12-02 2005-06-23 Fuji Xerox Co Ltd Multiple objects tracking method and system
US20050185834A1 (en) 2004-02-20 2005-08-25 Microsoft Corporation Method and apparatus for scene learning and three-dimensional tracking using stereo video cameras

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030045624A (en) * 2001-12-03 2003-06-11 마이크로소프트 코포레이션 Automatic detection and tracking of multiple individuals using multiple cues
JP2005165688A (en) 2003-12-02 2005-06-23 Fuji Xerox Co Ltd Multiple objects tracking method and system
US20050185834A1 (en) 2004-02-20 2005-08-25 Microsoft Corporation Method and apparatus for scene learning and three-dimensional tracking using stereo video cameras

Also Published As

Publication number Publication date
KR20090043016A (en) 2009-05-06

Similar Documents

Publication Publication Date Title
KR100902771B1 (en) Method for tracking multiple objects using particle filter
Zhu et al. Visual tracking of construction jobsite workforce and equipment with particle filtering
Li et al. Unscented Kalman filter for visual curve tracking
JP5539680B2 (en) Object tracking using linear features
Fan et al. Real-time stereo vision-based lane detection system
Black et al. Multi-camera image measurement and correspondence
Chen et al. Dynamic environment modeling with gridmap: a multiple-object tracking application
Xiao et al. Two-dimensional visual tracking in construction scenarios: A comparative study
US8395659B2 (en) Moving obstacle detection using images
CN111273763A (en) Augmented reality implementation method and computer system for implementing augmented reality
JP2005235222A (en) Tracking method of object and its device
EP2352128A1 (en) Mobile body detection method and mobile body detection apparatus
Zhang et al. Towards scale-aware, robust, and generalizable unsupervised monocular depth estimation by integrating IMU motion dynamics
WO2020157138A1 (en) Object detection apparatus, system and method
KR20180027242A (en) Apparatus and method for environment mapping of an unmanned vehicle
Iswanto et al. Object tracking based on meanshift and particle-kalman filter algorithm with multi features
Sardari et al. An object tracking method using modified galaxy-based search algorithm
Hirsenkorn et al. Learning sensor models for virtual test and development
Dulai et al. Mean shift tracking through scale and occlusion
CN110942474A (en) Robot target tracking method, device and storage medium
KR101470367B1 (en) Apparatus and method for detecting and tracking multiple objects by using dual-layer particle filter
Tay et al. The Bayesian occupation filter
Rozsa et al. Immediate vehicle movement estimation and 3D reconstruction for Mono cameras by utilizing epipolar geometry and direction prior
Wu et al. Probability-hypothesis-density filter for multitarget visual tracking with trajectory recognition
CN112356845B (en) Method, device and equipment for predicting motion state of target and vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120412

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130531

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee