KR100902771B1 - Method for tracking multiple objects using particle filter - Google Patents
Method for tracking multiple objects using particle filter Download PDFInfo
- Publication number
- KR100902771B1 KR100902771B1 KR1020070108619A KR20070108619A KR100902771B1 KR 100902771 B1 KR100902771 B1 KR 100902771B1 KR 1020070108619 A KR1020070108619 A KR 1020070108619A KR 20070108619 A KR20070108619 A KR 20070108619A KR 100902771 B1 KR100902771 B1 KR 100902771B1
- Authority
- KR
- South Korea
- Prior art keywords
- filter
- probability
- tracking
- pixel position
- objects
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
본 발명의 일 측면은 파티클 필터를 이용한 다중물체 추적방법에 관한 것으로, 특히 비선형 추정방법인 파티클 필터를 이용하여 다중 형태의 사후 분포도를 추정하여 다중 물체의 추적이 가능하게 하는 방법에 관한 것이다.One aspect of the present invention relates to a multi-object tracking method using a particle filter, and more particularly, to a method for enabling tracking of multiple objects by estimating a posterior distribution of a multiple shape using a particle filter which is a nonlinear estimation method.
본 발명의 파티클 필터를 이용한 다중물체 추적방법은, 다수 개의 파티클 필터가 이들에 각각 대응하는 다수 개의 물체를 각각 실시간으로 추적하는 방법에 있어서, 해당 시간에 상기 물체가 하나의 화소 위치에 있고, 상기 필터로부터 상기 화소 위치에서 상기 물체가 보일 확률을 구하는 제1단계; 해당 시간에 상기 필터로부터 상기 화소 위치에서 상기 물체가 보이지 않고, 상기 물체가 다른 물체에 의해 가려져 있을 확률을 구하는 제2단계; 및 상기 제1단계에서 구한 확률과 상기 제2단계에서 구한 확률을 더함으로써, 상기 화소위치에 상기 물체가 위치할 확률을 구하여 상기 물체를 추적하는 제3단계;를 포함하는 것을 특징으로 한다.In the multi-object tracking method using the particle filter of the present invention, a plurality of particle filters each track a plurality of objects corresponding to each of them in real time, the object is located at one pixel position at the time, A first step of obtaining a probability of the object being seen at the pixel position from a filter; A second step of obtaining a probability that the object is not visible at the pixel position from the filter at that time and the object is covered by another object; And a third step of tracking the object by obtaining a probability that the object is located at the pixel position by adding the probability obtained in the first step and the probability obtained in the second step.
파티클 필터, 다중물체, 추적, 화소값, 가중치 Particle Filters, Multi-Objects, Tracking, Pixel Values, Weights
Description
본 발명의 일 측면은 파티클 필터를 이용한 다중물체 추적방법에 관한 것으로, 특히 비선형 추정방법인 파티클 필터를 이용하여 다중 형태의 사후 분포도를 추정하여 다중 물체의 추적이 가능하게 하는 방법에 관한 것이다.One aspect of the present invention relates to a multi-object tracking method using a particle filter, and more particularly, to a method for enabling tracking of multiple objects by estimating a posterior distribution of a multiple shape using a particle filter which is a nonlinear estimation method.
로봇을 이용하는 임베디드 시스템들은 산업장비로부터 개인의 계산장치에 이르기까지 점점 널리 퍼져 복잡하게 되어 왔고, 일상의 적용에 요구되어 왔다. 로봇들 또는 자동화 시스템들은 이용할 수 있는 시각정보를 이용하여 일과 관계있는 물체들을 확인하고 추적해야만 한다. 이것들을 성취하기 위해, 실시간 물체추적이 로봇의 시각적인 서보 동작, 감시, 인간-기계 인터페이스, 스마트 환경 등과 같은 많은 컴퓨터 시각 응용에서 중대한 문제가 되어왔다.Embedded systems using robots have become increasingly widespread and complex, from industrial equipment to personal computing devices, and have been required for everyday applications. Robots or automation systems must use visual information available to identify and track objects related to the job. To accomplish these, real-time object tracking has been a significant problem in many computer vision applications such as visual servo operation of robots, monitoring, human-machine interfaces, smart environments, and the like.
이것에 있어 주요한 도전 중의 하나는 정확한 물체인식을 유지하고 있는 동안, 실시간으로 한 세트의 물체들을 추적하고 위치를 밝혀내는 방법이다.One of the major challenges in this is how to track and locate a set of objects in real time, while maintaining accurate object recognition.
다중 물체 추적에 관한 연구에 있어서, Jaco Vermaak, Arnaud Doucet, Patrick Perez는 단일 물체 추적 필터를 찾으려 하는 물체의 수만큼 증가시켜 다중 물체 추적이 가능하게 하였다. 그러나, 이 방법은 물체가 서로 겹치거나 사려졌을 때 어떤 필터가 어떤 물체를 추적하고 있는지에 대한 정보를 잃어버리게 되는 문제점이 있다.In the study of multi-object tracking, Jaco Vermaak, Arnaud Doucet, and Patrick Perez increased the number of objects to find a single object tracking filter to enable multi-object tracking. However, this method suffers from the loss of information about which filter is tracking which object when the objects overlap or are considered.
필터의 상태공간(state space)을 확정하는 방법으로는 인디케이터 (indicator)를 분포도의 여러 피크에 부여하여 물체의 위치를 계속해서 추정하는 방법이 있다. 이 방법도 또한 같은 물체를 추적하는 경우에 각각에 부여된 레이블정보가 서로 교차되는 경우가 발생하고, 추적하는 물체가 증가하는 경우에는 상태 공간의 확장과 더불어 인디케이터의 레이블 문제가 계산상 기하급수적으로 증가하는 문제점이 있다.As a method of determining the state space of the filter, there is a method of continuously estimating the position of an object by applying an indicator to various peaks of the distribution. This method also occurs when the label information given to each other crosses each other when tracking the same object, and when the tracking object increases, the labeling problem of the indicator along with the expansion of the state space is exponentially calculated. There is an increasing problem.
본 발명의 일 측면은 컴퓨터의 계산량이 기하급수적으로 증가하기 때문에 현실적으로 불가능하였던 다중 물체의 추적을 가능하게 하는 방법을 제공하는 것을 목적으로 한다.One aspect of the present invention is to provide a method for enabling the tracking of multiple objects that has been impossible in reality because the computational amount of the computer increases exponentially.
본 발명의 일 측면은, 다수 개의 파티클 필터가 이들에 각각 대응하는 다수 개의 물체를 각각 실시간으로 추적하는 방법에 있어서, 해당 시간에 상기 물체가 하나의 화소 위치에 있고, 상기 필터로부터 상기 화소 위치에서 상기 물체가 보일 확률을 구하는 제1단계; 해당 시간에 상기 필터로부터 상기 화소 위치에서 상기 물체가 보이지 않고, 상기 물체가 다른 물체에 의해 가려져 있을 확률을 구하는 제2단계; 및상기 제1단계에서 구한 확률과 상기 제2단계에서 구한 확률을 더함으로써, 상기 화소위치에 상기 물체가 위치할 확률을 구하여 상기 물체를 추적하는 제3단계;를 포함하는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법을 제공한다.According to an aspect of the present invention, in a method in which a plurality of particle filters track a plurality of objects respectively corresponding to them in real time, the objects are located at one pixel position at a corresponding time, and at the pixel positions from the filter. A first step of obtaining a probability of seeing the object; A second step of obtaining a probability that the object is not visible at the pixel position from the filter at that time and the object is covered by another object; And a third step of tracking the object by obtaining a probability that the object is located at the pixel position by adding the probability obtained in the first step and the probability obtained in the second step. Provides a multi-object tracking method using.
그리고, 상기 제1단계는, 해당 시간에 상기 물체가 하나의 화소 위치에 있을 확률을 구하는 제1-1단계; 해당 시간에 상기 화소 위치에서 상기 필터로부터 상기 물체가 보일 확률을 구하는 제1-2단계; 및 상기 제1-1단계에서 구한 확률과 상기 제1-2단계에서 구한 확률을 곱하는 제1-3단계;를 포함하는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법을 제공한다.The first step may include: a first-first step of obtaining a probability that the object is at one pixel position at a corresponding time; Calculating a probability of the object being seen from the filter at the pixel position at the corresponding time; And a first to third step of multiplying the probability obtained in step 1-1 and the probability obtained in step 1-2.
또한, 상기 제1-2단계는, 상기 필터에 대한 각각의 물체의 관측 가능성을 상기 각각의 상기 물체까지의 거리정보, 상기 물체의 기하학적 특징, 및 상기 물체의 표면특징에 해당하는 화소들에 대한 물체들의 가중치를 축적하여 이미지 공간에 반영하는 제1-2-1단계; 각각의 화소에 대하여 상기 축적된 물체의 가중치를 정규화하는 제1-2-2단계; 해당 물체의 화소 위치에 대하여 상기 정규화된 물체의 가중치를 재 정규화하여 이미지 공간으로부터 파티클 공간으로 정규화된 화소의 가중치를 다시 반영하는 제1-2-3단계;를 포함하는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법을 제공한다.In addition, the first and second steps may include determining the observability of each object with respect to the filter for pixels corresponding to distance information to each of the objects, geometric characteristics of the object, and surface features of the object. A step 1-2-1 of accumulating the weights of the objects and reflecting them in the image space; 1-2-2 normalizing the weights of the accumulated objects for each pixel; And re-normalizing the weight of the normalized object with respect to the pixel position of the object to reflect the weight of the pixel normalized from the image space to the particle space again. Provides a multi-object tracking method.
또한, 상기 제2단계는, 해당 시간에 상기 물체가 상기 화소 위치에서 상기 필터로부터 다른 물체에 의해 가려져 있을 확률을 구하는 제2-1단계; 해당 시간에 상기 필터로부터 상기 화소 위치에서 상기 물체가 보이지 않을 확률을 구하는 제2-2단계; 및 상기 제2-1단계에서 구한 확률과 상기 제2-2단계에서 구한 확률을 곱하는 제2-3단계;를 포함하는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법을 제공한다.Also, the second step may include: a second step of obtaining a probability that the object is covered by another object from the filter at the pixel position at the corresponding time; Calculating a probability of the object not being visible at the pixel position from the filter at the corresponding time; And a second to third multiplication of the probability obtained in step 2-1 and the probability obtained in step 2-2.
또한, 다른 하나의 물체가 생성되면 이를 실시간으로 추적하는 다른 하나의 필터가 생성되는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법을 제공한다.In addition, the present invention provides a multi-object tracking method using a particle filter, wherein another filter is generated to track another in real time when another object is generated.
또한, 상기 물체 중에서 하나의 물체가 사라지게 되면 이를 실시간으로 추적하는 필터가 제거되는 것을 특징으로 하는 파티클 필터를 이용한 다중물체 추적방법을 제공한다.The present invention also provides a multi-object tracking method using a particle filter, wherein when one of the objects disappears, a filter for tracking it in real time is removed.
본 발명의 일 측면에 따르면, 하나의 물체만 추적할 수 있는 비선형 확률 분 포도를 수식적으로 개선함으로써 다중 물체 추적이 가능하게 한다.According to one aspect of the present invention, by multiplying the non-linear probability distribution that can track only one object can be multi-object tracking.
그리고, 본 발명의 다른 측면에 따르면, 다중 물체 추적시 계산상의 어려움을 극복하여 기하급수적인 계산 의 복잡성을 선형적인 복잡성으로 개선함으로써 다중 물체를 실시간으로 추적할 수 있게 한다.In addition, according to another aspect of the present invention, by overcoming the computational difficulties in tracking multiple objects, it is possible to track multiple objects in real time by improving the complexity of the exponential calculation to linear complexity.
또한, 본 발명의 또 다른 측면에 따르면, 물체의 추적뿐만 아니라 로봇의 위치인식도 가능하게 할 수 있다.In addition, according to another aspect of the present invention, it is possible not only to track the object but also to recognize the position of the robot.
이하, 첨부된 도면을 참조하여 본 발명의 실시형태를 설명한다. 그러나, 본 발명의 실시형태는 여러 가지의 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시형태로만 한정되는 것은 아니다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있으며, 도면상의 동일한 부호로 표시되는 요소는 동일한 요소이다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. However, embodiments of the present invention may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. Shapes and sizes of the elements in the drawings may be exaggerated for clarity, elements denoted by the same reference numerals in the drawings are the same elements.
Christopher Rasmussen는 LLF(Joint Likelihood Filter)를 개발하였다. LLF를 이용하면, JPDAF(Joint Probability Data Association Filter)의 이론적인 원리를 바탕으로 물체까지의 거리정보, 물체의 기하학적 특징, 및 물체의 표면특징 등을 이용하여 물체를 추적할 수 있다.Christopher Rasmussen developed the Joint Likelihood Filter (LLF). Using the LLF, the object can be tracked using distance information to the object, geometrical features of the object, and surface features of the object based on the theoretical principle of the Joint Probability Data Association Filter (JPDAF).
본 발명에서는 이와 같은 물체추적방법을 이용하여 다음의 3가지 사항을 살펴보기로 한다.In the present invention, the following three items will be described using the object tracking method.
1. 기하급수적으로 증가하는 컴퓨터 실행능력의 복잡성을 회피하기 위해, 공동 베이시안 분포도(Joint Bayesian Distribution)가 아닌 MPF(Mixture Particle Filter)에 관하여 살펴보기로 한다.In order to avoid the exponentially increasing computational complexity, we will discuss the MPF (Mixture Particle Filter) rather than the Joint Bayesian Distribution.
1) 물체 필터링 분포도(target filtering distribution)1) target filtering distribution
일반적인 파티클 필터(particle filter)의 사후 분포도를 대략적으로 계산하는 것이다. 여기서,는 현재시간 t에서의 물체의 상태이고, 는 현재의 시간까지 측정된 데이터를 나타낸다. 다중물체 필터링 분포도(multi-target filtering distribution)를 베이시안(Bayesian) 필터 형식으로 나타내면 수학식 1과 같다.The post-distribution of a general particle filter is roughly calculated. here, Is the state of the object at the current time t, Represents data measured up to the current time. The multi-target filtering distribution is represented by Equation 1 in the form of a Bayesian filter.
관측 가능성 함수(observation likelihood function)인 는 측정확률에 대한 값을 계산하고, 각각의 물체에 대한 변환모델(transition model)인 는 전 상태를 기준으로 한 현재상태의 예측모델이다.Observation likelihood function Computes the value for the probability of measurement and computes the transition model for each object. Is a prediction model of the current state based on the previous state.
2. MPF에서 서로 교차할 경우에 나타나는 물체와 추적하고 있는 물체의 교차 문제를 극복하기 위해 측정모델부분은 공동 관측 가능성 모델(joint observation likelihood model)로 유지하고, 현재의 데이터에서 이 물체가 보일 때의 확률 분포도와 보이지 않을 때의 확률 분포도로 분해하여 실시간으로 계산하는 것이 가능하도록 하는 원리에 관하여 살펴보기로 한다.2. In order to overcome the problem of intersecting objects and tracking objects in the MPF, keep the measurement model part as a joint observation likelihood model, and when the objects are visible in the current data. The principle distribution that can be calculated in real time by decomposing the probability distribution and the probability distribution when not shown.
1) 공동 관측 가능성 모델(joint observation likelihood model)Joint observation likelihood model
공동 확률 분포도에서 다중물체를 추적하는 것은 가장 정확한 방법이지만 컴퓨터의 능력으로는 불가능하다. 여기에서는 각각의 필터가 서로 독립적이라는 가정하에 기본적인 측정모델을 분해하여 물체의 교차현상에 대한 더 정확한 분석을 제시한다.Tracking multiple objects in a joint probability distribution is the most accurate method, but it is not possible with computer capabilities. Here we present a more accurate analysis of the intersection of objects by decomposing the basic measurement model, assuming each filter is independent of each other.
각각의 필터가 하나의 물체만 추적한다는 가정하에 업데이트 단계는 각각의 물체에 대해 독립적으로 실행될 수 없다. 이러한 문제를 극복하기 위해 각 물체의 에 대한 관측 가능성 모델을 분해하게 된다. 는 수학식 2와 같이 표현할 수 있다.Under the assumption that each filter tracks only one object, the update step cannot be executed independently for each object. To overcome these problems, Decompose the observability model for. Can be expressed as in Equation 2.
수학식 2에서 은 물체수 K에 대한 필터를 의미하고, 는 물체 k가 보인다는 것을 의미하며,는 물체 k가 보이지 않는다는 것을 의미한다. 수학식 2는 4개의 요소들로 구성된다.In equation (2) Means filter for the number of objects K, Means that the object k is visible, Means that the object k is not visible. Equation 2 consists of four elements.
(A) 관측 가능성(observation likelihood) : (A) Observation likelihood:
(B) 물체 k가 보일 가능성(likelihood of target k being visible) : (B) likelihood of target k being visible:
(C) 숨겨진 물체에 대한 관측 모델(observation model for hidden targets) : (C) Observation model for hidden targets:
(D) : 물체 k가 보이지 않을 가능성((likelihood of target k not being visible)(D) (Likelihood of target k not being visible)
그러면, 위의 분해된 4개의 요소들(A, B, C, D)에 대하여 각각 설명하기로 한다.Then, the above four decomposition elements (A, B, C, D) will be described.
(1) 은 일반적인 관측모델과 같다.(One) Is the same as a general observation model.
(2) 은 물체가 보일 가능성(visibility likelihood)을 나타낸다. 이 확률분포도는 3단계의 과정을 거쳐 계산된다. 먼저, 필터에 대한 각각의 물체의 관측 가능성을 각각의 물체까지의 거리정보, 물체의 기하학적 특징, 및 물체의 표면특징에 해당하는 화소들에 대한 물체들의 가중치를 축적하여 이미지 공간에 반영한다. 이후에, 각각의 화소에 대하여 축적된 물체의 가중치를 정규화한다. 이후에, 해당 물체의 화소 위치에 대하여 정규화된 물체의 가중치를 재 정규화하여 이미지 공간으로부터 파티클 공간으로 정규화된 화소의 가중치를 다시 반영한다.(2) The likelihood of an object being visible Indicates. This probability distribution is calculated in three steps. First, the observability of each object with respect to the filter is reflected in the image space by accumulating weights of objects for pixels corresponding to distance information to each object, geometric characteristics of the object, and surface features of the object. Thereafter, the weights of the accumulated objects for each pixel are normalized. Thereafter, the weight of the normalized object is renormalized with respect to the pixel position of the object to reflect the weight of the pixel normalized from the image space to the particle space again.
물체가 보일 가능성을 베이즈 법칙에 따라 나타내면 수학식 3과 같다.The probability of the object being shown according to Bayes' law is given by Equation 3.
수학식 3에서 첫 번째 단계를 해석하면 수학식 4와 같다.The first step in Equation 3 is interpreted as Equation 4.
여기서, : 물체 k가 있는 위치에서 화소값이 물체 k와 얼마나 유사한지를 나타내는 가중치here, Is a weight indicating how similar a pixel value is to object k at the location of object k
: 현재의 추적 대상 물체 k의 화소 위치 : Pixel position of current tracking object k
: 추적 대상 물체 k의 모든 화소 위치 : All pixel positions of tracked object k
수학식 4는 단지 물체에 속해 있는 화소의 위치에 대한 가중치를 의미한다. 여기서, 수학식 4는 하나의 화소는 유일하게 하나의 물체에만 속해야만 한다는 가정하에서 성립된다.Equation 4 merely means a weight for the position of the pixel belonging to the object. Here, Equation 4 is established on the assumption that one pixel must belong to only one object.
수학식 3은 어떤 물체가 다른 물체에 가려진 경우에 이미지상에서 파티클 가중치에 의한 정규화를 나타낸다.Equation 3 shows normalization by particle weight on an image when an object is covered by another object.
수학식 5는 현재의 화소들이 추적하고 있는 물체 중에서 어느 물체에서 왔는지를 나타낸다. 여기서, 은 정규화 요소인데, 모든 화소값은 각각의 이미지상에서 같은 위치에 있는 화소값을 합하여 그 합한 값으로 각각의 이미지상에 있는 값들을 정규화해야 한다.Equation 5 indicates which of the objects the current pixels are tracking comes from. here, Is a normalization factor, and every pixel value must sum the pixel values at the same location on each image and normalize the values on each image to that sum.
정규화 작업 후에는 각각의 이미지상에서 정규화 작업이 수학식 6과 같이 이루어진다. 수학식 6에서는 정규화된 화소값들이 모든 이미지상에서 어떻게 적용되는지를 보인다.After the normalization operation, the normalization operation is performed on Equation 6 on each image. Equation 6 shows how normalized pixel values are applied on all images.
여기서, 의 Xj는 화소 위치이고, Pixel(xk,t)는 추적하고 있는 물체의 위치()이다. 모든 물체가 추적되고 있고, 그 물체들의 모든 화소 위치를 나타내고 정규화하기 위해 E라는 함수를 사용한다.here, Where X j is the pixel position and Pixel (x k , t ) is the position of the object being tracked ( )to be. All objects are being tracked, and we use a function called E to represent and normalize all pixel positions of those objects.
(3)은 숨겨진 물체에 대한 관측 모델(observation model for hidden targets)을 나타낸다. 수학식 2에서 는 물체가 다른 물체에 가려 보이지 않을 때의 확률분포도를 표현한다. 이 확률분포가 중요한 이유는, 가려진 물체에 너무 많은 가중치가 주어지면 가리고 있는 물체의 분포도가 변하게 되고 그 반대로 가리고 있는 물체에 너무 많은 가중치를 두면 가려진 물체의 분포도가 결국 사라지게 되기 때문이다. 이런 문제점들을 극복하기 위해 수학식 7에서 그 값을 구한다.(3) Represents an observation model for hidden targets. In equation (2) Represents the probability distribution when the object is hidden from other objects. This probability distribution is important because, if too many weights are placed on an obscured object, the distribution of the obscured object will change, and vice versa, if too much weight is placed on the obscured object, the distribution of the obscured object will eventually disappear. To overcome these problems, the value is obtained from Equation 7.
(4) 는 1에서 를 뺀 값인데, 물체 k가 보이지 않을 가능성을 나타낸다.(4) At 1 Minus, indicating the probability that object k is invisible.
상기 살펴본 수학식 2를 구하는 과정을 정리하면 도 1을 참조하여 설명하기로 한다.A process of obtaining Equation 2 described above will be described with reference to FIG. 1.
첫째, 다수 개의 필터가 이들에 각각 대응하는 다수 개의 물체를 각각 실시간으로 추적하는 방법에서, 해당 시간에 상기 물체가 하나의 화소 위치에 있고, 상기 필터로부터 상기 화소 위치에서 상기 물체가 보일 확률을 구한다. 구체적으로는, 다수 개의 필터가 이들에 각각 대응하는 다수 개의 물체를 각각 실시간으로 추 적하는 방법에서, 해당 시간에 상기 물체가 하나의 화소 위치에 있을 확률(S100)과, 해당 시간에 상기 화소 위치에서 상기 필터로부터 상기 물체가 보일 확률(S200)을 구하여 서로 곱한다(S500). 여기서, S200은 3단계로 이루어지는데 도 2를 참조하여 설명하기로 한다.First, in a method in which a plurality of filters track a plurality of objects respectively corresponding to them in real time, a probability of the object being shown at one pixel position at the corresponding time and the object appearing at the pixel position from the filter are obtained. . Specifically, in a method in which a plurality of filters respectively track a plurality of objects corresponding to them in real time, a probability (S100) of the object at one pixel position at a corresponding time and the pixel position at the corresponding time. In step S500, the probability of the object being seen from the filter is multiplied with each other (S500). Here, S200 has three steps, which will be described with reference to FIG. 2.
먼저, 필터에 대한 각각의 물체의 관측 가능성을 각각의 물체까지의 거리정보, 물체의 기하학적 특징, 및 물체의 표면특징에 해당하는 화소들에 대한 물체들의 가중치를 축적하여 이미지 공간에 반영한다(S210).First, the observability of each object with respect to the filter is reflected in the image space by accumulating weights of objects for pixels corresponding to distance information to each object, geometric characteristics of the object, and surface features of the object (S210). ).
이후에, 각각의 화소에 대하여 축적된 물체의 가중치를 정규화한다(S220).Thereafter, the weights of the accumulated objects for each pixel are normalized (S220).
이후에, 해당 물체의 화소 위치에 대하여 정규화된 물체의 가중치를 재 정규화하여 이미지 공간으로부터 파티클 공간으로 정규화된 화소의 가중치를 다시 반영한다(S230).Subsequently, the weight of the normalized object is renormalized with respect to the pixel position of the object to reflect the weight of the pixel normalized from the image space to the particle space again (S230).
둘째, 다수 개의 필터가 이들에 각각 대응하는 다수 개의 물체를 각각 실시간으로 추적하는 방법에서, 해당 시간에 상기 필터로부터 상기 화소 위치에서 상기 물체가 보이지 않고, 상기 물체가 다른 물체에 의해 가려져 있을 확률을 구한다. 구체적으로는, 다수 개의 필터가 이들에 각각 대응하는 다수 개의 물체를 각각 실시간으로 추적하는 방법에서, 해당 시간에 상기 물체가 상기 화소 위치에서 상기 필터로부터 다른 물체에 의해 가려져 있을 확률(S300)과, 해당 시간에 상기 필터로부터 상기 화소 위치에서 상기 물체가 보이지 않을 확률(S400)을 구하여 서로 곱한다(S600).Second, in a method in which a plurality of filters track a plurality of objects respectively corresponding to them in real time, the probability that the object is not visible at the pixel position from the filter at that time and that the object is covered by another object is determined. Obtain Specifically, in a method in which a plurality of filters track a plurality of objects respectively corresponding to them in real time, a probability (S300) of the object being covered by another object from the filter at the pixel position at the corresponding time, At this time, a probability S400 is obtained from the filter at the pixel position and multiplied with each other (S600).
셋째, 첫째와 둘째에서 최종적으로 구한 확률을 더한다(S700).Third, the probability finally obtained in the first and second is added (S700).
3. 필터가 물체 추적 중에 다른 하나의 물체가 생성되거나 하나의 물체가 사라지게 되는 경우의 원리에 대하여 도 3 내지 도 5를 통하여 살펴보기로 한다.3. The principle in which another object is generated or one object disappears during object tracking will be described with reference to FIGS. 3 to 5.
필터 생성(filter creation)은 다른 하나의 물체가 생성되면 이를 실시간으로 추적하는 다른 하나의 필터가 생성되는 것을 의미하며, 배경필터(background filter)라고 정의한다. 이 배경필터는 모든 필터에서 상호 배타적으로 작용하여 다른 필터가 추적하고 있는 것을 제외시킨다. 그러나, 이 필터는 전체 필터의 분포도에 영향을 미치게 해서는 안 되기 때문에 정규화 작업시 제외된다.Filter creation means that when another object is created, another filter is created that tracks it in real time, and is defined as a background filter. This background filter works mutually exclusive on all filters, excluding what other filters are tracking. However, this filter is excluded from normalization because it should not affect the distribution of the entire filter.
도 3에서 제1 물체(100), 제2 물체(200), 제3물체(300)의 3개의 물체가 있고, 이들 각각에 대응하여 이를 실시간으로 추적하는 제1 필터(110), 제2 필터(210), 제3 필터(310)가 있다. 도 4에서는 제4 물체(400)가 생성되었기 때문에, 이를 실시간으로 추적하는 제4 필터(410)가 생성되었다.In FIG. 3, there are three objects of the
필터제거(filter deletion)는 물체 중에서 하나의 물체가 사라지게 되면 이를 실시간으로 추적하는 필터가 제거되는 것을 의미한다. 필터제거는 추적하고 있는 물체가 다른 물체에 가려 사라지는 것을 의미하는 것이 아니라, 전체 이미지상에서 사라지는 경우를 의미한다. Filter deletion means that if one of the objects disappears, the filter that tracks it in real time is removed. Filter removal does not mean that the object you are tracking disappears from other objects, but disappears from the entire image.
도 3에서 제1 물체(100), 제2 물체(200), 제3물체(300)의 3개의 물체가 있고, 이들 각각에 대응하여 이를 실시간으로 추적하는 제1 필터(110), 제2 필터(210), 제3 필터(310)가 있다. 도 5에서는 제3 물체(300)가 사라졌기 때문에, 이를 실시간으로 추적하는 제3 필터(310)가 제거되었다.In FIG. 3, there are three objects of the
이와 같이 필터가 자동적으로 제거됨으로써, 전체 추적작업에서 부담을 덜어 주는 효과가 있다. 따라서, 확률분포도가 정의되고, 이것은 필터 k와 관련된 물체가 존재한다는 것을 의미하며, 임계값을 정의하여 추적하고 있는 필터의 분포도를 언제 제거하는지를 결정한다. 수학식 8은 물체가 존재할 때의 계산식이다.As such, the filter is automatically removed, thereby reducing the burden on the entire tracking operation. therefore, A probability distribution is defined, which means that there is an object associated with filter k, and defines a threshold to determine when to remove the distribution of the filter being tracked. Equation 8 is calculated when an object exists.
일반적인 공동 파티클 필터(joint particle filter)는 각각의 물체가 Kd 차원이기 때문에 계산상의 어려움을 갖는다. 여기서, K는 추적하고자하는 물체의 수이고, d는 각각의 필터의 차원이다. 만약, 각각의 파티클 필터가 N개의 물체가 필요하다면, K개의 물체의 공동 분포를 추적하기 위해서는 NK개의 물체가 필요하다. 그리고, 물체 재생성 단계를 O(N)이라 가정하고 물체가 있는 화소의 크기를 M이라 하면, 공동 파티클 필터(joint particle filter)의 복잡성(complexity)은 0(MNK)가 된다.A common joint particle filter has a computational difficulty because each object is a Kd dimension. Where K is the number of objects you want to track and d is the dimension of each filter. If each particle filter requires N objects, then N K objects are needed to track the co-distribution of the K objects. If the object regeneration step is assumed to be O (N) and the size of the pixel with the object is M, the complexity of the joint particle filter is 0 (MN K ).
공동 파티클 필터의 복잡성을 단순화하기 위해 본 발명에서는 측정모델을 분해하여 선형으로 단순화하였다. 물체 재생성 단계를 O(N)이라 하면, 기본적인 파티 클 필터는 O(MN)가 소요되고, 제안된 측정모델은 O(3MNK)가 소요된다. 제안된 측정모델에서 O(3MNK)가 소요되는 이유는, 물체가 있는 공간에서 이미지 공간으로 반영하기 위해서는 O(MNK)가 소요되고, 이를 정규화하기 위해서는 O(MNK)가 소요된다. 그리고, 이를 물체가 있는 공간으로 다시 반영하기 위해서는 O(MNK)가 소요되기 때문이다.In order to simplify the complexity of the common particle filter, the present invention resolves the measurement model linearly. If the object regeneration step is called O (N), the basic particle filter takes O (MN) and the proposed measurement model takes O (3MNK). The reason why O (3MNK) is required in the proposed measurement model is that O (MNK) is required to reflect the image space in the object space and O (MNK) is required to normalize it. This is because O (MNK) is required to reflect this back into the space where the object is located.
도 1은 본 발명의 파티클 필터를 이용한 다중물체 추적방법의 흐름도이다.1 is a flowchart of a multi-object tracking method using a particle filter of the present invention.
도 2는 도 1의 해당 시간에 화소 위치에서 필터로부터 물체가 보일 확률을 구하는 단계의 상세 흐름도이다.FIG. 2 is a detailed flowchart of the step of obtaining the probability of seeing an object from a filter at a pixel position at the corresponding time of FIG. 1.
도 3은 본 발명의 물체와 해당 물체를 추적하고 있는 필터를 나타낸 개념도이다.3 is a conceptual diagram illustrating an object of the present invention and a filter tracking the object.
도 4는 도 3에서 다른 하나의 물체가 생성되었을 때의 물체와 해당 물체를 추적하고 있는 필터를 나타낸 개념도이다.FIG. 4 is a conceptual diagram illustrating an object and a filter tracking the object when another object is generated in FIG. 3.
도 5는 도 3에서 하나의 물체가 사라졌을 때의 물체와 해당 물체를 추적하고 있는 필터를 나타낸 개념도이다.FIG. 5 is a conceptual diagram illustrating an object when one object disappears from FIG. 3 and a filter tracking the object.
<도면의 주요 부분에 대한 부호의 설명> <Explanation of symbols for the main parts of the drawings>
100 : 제1 물체 110 : 제1 필터100: first object 110: first filter
200 : 제2 물체 210 : 제2 필터200: second object 210: second filter
300 : 제3 물체 310 : 제3 필터300: third object 310: third filter
400 : 제4 물체 410 : 제4 필터400: fourth object 410: fourth filter
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070108619A KR100902771B1 (en) | 2007-10-29 | 2007-10-29 | Method for tracking multiple objects using particle filter |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070108619A KR100902771B1 (en) | 2007-10-29 | 2007-10-29 | Method for tracking multiple objects using particle filter |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090043016A KR20090043016A (en) | 2009-05-06 |
KR100902771B1 true KR100902771B1 (en) | 2009-06-15 |
Family
ID=40853919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070108619A KR100902771B1 (en) | 2007-10-29 | 2007-10-29 | Method for tracking multiple objects using particle filter |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100902771B1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101254087B1 (en) * | 2011-07-28 | 2013-04-12 | 전남대학교산학협력단 | Multiple object tracking based on penalty graph for avoiding hijacking problem of trackers |
KR101480834B1 (en) * | 2013-11-08 | 2015-01-13 | 국방과학연구소 | Target motion analysis method using target classification and ray tracing of underwater sound energy |
CN105654510A (en) * | 2015-12-29 | 2016-06-08 | 江苏精湛光电仪器股份有限公司 | Adaptive object tracking method suitable for night scene and based on feature fusion |
KR102136111B1 (en) * | 2018-05-23 | 2020-07-22 | 한국과학기술원 | Particle resampling method for particle filter |
KR20220164836A (en) | 2021-06-04 | 2022-12-14 | 동명대학교산학협력단 | Method for underwater objects recognizing and tracking multi target employing lidar sensor and image photographing device |
KR20230166626A (en) | 2022-05-31 | 2023-12-07 | 동명대학교산학협력단 | Underground object of recognization and tracking method using sonar image of real-time image processing |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030045624A (en) * | 2001-12-03 | 2003-06-11 | 마이크로소프트 코포레이션 | Automatic detection and tracking of multiple individuals using multiple cues |
JP2005165688A (en) | 2003-12-02 | 2005-06-23 | Fuji Xerox Co Ltd | Multiple objects tracking method and system |
US20050185834A1 (en) | 2004-02-20 | 2005-08-25 | Microsoft Corporation | Method and apparatus for scene learning and three-dimensional tracking using stereo video cameras |
-
2007
- 2007-10-29 KR KR1020070108619A patent/KR100902771B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030045624A (en) * | 2001-12-03 | 2003-06-11 | 마이크로소프트 코포레이션 | Automatic detection and tracking of multiple individuals using multiple cues |
JP2005165688A (en) | 2003-12-02 | 2005-06-23 | Fuji Xerox Co Ltd | Multiple objects tracking method and system |
US20050185834A1 (en) | 2004-02-20 | 2005-08-25 | Microsoft Corporation | Method and apparatus for scene learning and three-dimensional tracking using stereo video cameras |
Also Published As
Publication number | Publication date |
---|---|
KR20090043016A (en) | 2009-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100902771B1 (en) | Method for tracking multiple objects using particle filter | |
Zhu et al. | Visual tracking of construction jobsite workforce and equipment with particle filtering | |
Li et al. | Unscented Kalman filter for visual curve tracking | |
JP5539680B2 (en) | Object tracking using linear features | |
Fan et al. | Real-time stereo vision-based lane detection system | |
Black et al. | Multi-camera image measurement and correspondence | |
Chen et al. | Dynamic environment modeling with gridmap: a multiple-object tracking application | |
Xiao et al. | Two-dimensional visual tracking in construction scenarios: A comparative study | |
US8395659B2 (en) | Moving obstacle detection using images | |
CN111273763A (en) | Augmented reality implementation method and computer system for implementing augmented reality | |
JP2005235222A (en) | Tracking method of object and its device | |
EP2352128A1 (en) | Mobile body detection method and mobile body detection apparatus | |
Zhang et al. | Towards scale-aware, robust, and generalizable unsupervised monocular depth estimation by integrating IMU motion dynamics | |
WO2020157138A1 (en) | Object detection apparatus, system and method | |
KR20180027242A (en) | Apparatus and method for environment mapping of an unmanned vehicle | |
Iswanto et al. | Object tracking based on meanshift and particle-kalman filter algorithm with multi features | |
Sardari et al. | An object tracking method using modified galaxy-based search algorithm | |
Hirsenkorn et al. | Learning sensor models for virtual test and development | |
Dulai et al. | Mean shift tracking through scale and occlusion | |
CN110942474A (en) | Robot target tracking method, device and storage medium | |
KR101470367B1 (en) | Apparatus and method for detecting and tracking multiple objects by using dual-layer particle filter | |
Tay et al. | The Bayesian occupation filter | |
Rozsa et al. | Immediate vehicle movement estimation and 3D reconstruction for Mono cameras by utilizing epipolar geometry and direction prior | |
Wu et al. | Probability-hypothesis-density filter for multitarget visual tracking with trajectory recognition | |
CN112356845B (en) | Method, device and equipment for predicting motion state of target and vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120412 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20130531 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |