KR20140122981A - 이중 모델링과 학습 및 폐기학습을 통한 영상 내의 물체 추적 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체 - Google Patents
이중 모델링과 학습 및 폐기학습을 통한 영상 내의 물체 추적 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체 Download PDFInfo
- Publication number
- KR20140122981A KR20140122981A KR20130040141A KR20130040141A KR20140122981A KR 20140122981 A KR20140122981 A KR 20140122981A KR 20130040141 A KR20130040141 A KR 20130040141A KR 20130040141 A KR20130040141 A KR 20130040141A KR 20140122981 A KR20140122981 A KR 20140122981A
- Authority
- KR
- South Korea
- Prior art keywords
- learning
- tracking
- model
- background
- discard
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 이중 모델링과 학습 및 폐기학습을 통하여 영상 내의 물체 추적 방법에 관한 것이다. 더욱 상세하게는, 본 발명은 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 기술을 통해 입력 영상에서 물체를 추적할 때 발생할 수 있는 각종 장애 요인, 예컨대 물체의 가려짐, 배경 간섭, 드리프팅의 문제를 동시에 해결할 수 있는 기술에 관한 것이다. 본 발명에 따르면 입력 영상으로부터 어떠한 물체 영역을 지속적으로 추적함에 있어서 종래의 문제점인 배경 간섭, 가려짐, 드리프팅 문제를 모두 해결할 수 있는 장점이 있다. 즉, 두 모델이 결합되어 생성되는 우도를 활용함으로써 배경 간섭 및 가려짐에 강인한 성능을 보이며, 추적 결과를 이용한 모델의 학습/폐기학습을 통하여 드리프팅에도 강인한 특성을 갖는 장점을 제공한다.
Description
본 발명은 이중 모델링과 학습 및 폐기학습을 통하여 영상 내의 물체 추적 방법에 관한 것이다. 더욱 상세하게는, 본 발명은 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 기술을 통해 입력 영상에서 물체를 추적할 때 발생할 수 있는 각종 장애 요인, 예컨대 물체의 가려짐, 배경 간섭, 드리프팅(drifting)의 문제를 동시에 해결할 수 있는 기술에 관한 것이다.
영상 내에서 특정 물체를 지속적으로 추적하는 것은 컴퓨터 비전 분야에 있어서 매우 중요한 연구 주제이다. 영상 추적은 로봇 비전, 영상 감시, 동영상 분석, 홈 자동화 및 행동 인식 등 다양한 응용에 있어서 기초적인 처리 단계로 사용되며 이들 응용들은 정확한 추적 결과를 필요로 한다. 이를 위하여 다양한 추적 방법이 지속적으로 제안되어 왔다.
하지만 영상 내의 물체 추적 과정에서는 몇가지 장애 요인이 발생하는데, 예를 들어 추적 대상이 다른 물체에 의해 가려지는 경우나 배경에 비해 추적 대상이 별달리 두드러지지 않을 경우에 추적 성능이 떨어지게 된다. 또한, 장기간 물체를 추적하는 경우에는 드리프팅 문제라고 일컬어지는 물체 모델의 분별성능 저하 문제가 여전히 미해결 상태로 남아있다.
이에 따라, 추적 대상이 가려지거나 배경 간섭이 존재하는 상황에서의 물체 추적과 관련하여 다양한 방법이 제안되었다. A. Adam et al. "Robust fragments-based tracking using the integral histogram," In Computer Vision and Pattern Recognition, 2006 IEEE Computer Society Conference(이하, "Adam 논문")에서는 종래의 커널 기반을 분할-기반으로 확장함으로써 가려짐 문제에 강인하게끔 하는 방법론이 제안되었다.
X. Mei and H. Ling, "Robust visual tracking using l1 minimization," In Computer Vision, 2009 IEEE 12th International Conference(이하, "Mei 논문")에서는 종래의 파티클 필터틀에서 추적 문제를 스파스 근사화로 다룸으로써 가려짐 문제를 해결하고자 하였다. 그들의 방법에서는 트리비알 템플릿과 l1 최소화 기법을 사용하여 물체에 대한 스파스한 표현을 생성하였고, 이를 통해 기존 방법에 비하여 가려짐 문제에 강인한 특성을 나타내었다.
배경 간섭문제를 해결하기 위해 H. Grabner et al. "Real-time tracking via on-line boosting," In Proceedings of the British Machine Vision Conference, 2006(이하, "Grabner 논문")은 배경과 물체를 구분하는 분류기를 온라인으로 학습하는 방법을 제안하였다. 이 방법은 물체 추적을 두 개의 클래스로 분류하는 방법의 범주 안에 속하며, 이는 S. Stalder et al. "Beyond semi-supervised tracking: Tracking should be as simple as detection, but not simpler than recognition," In Computer Vision Workshops (ICCV Workshops), 2009(이하, "Stalder 논문")에서 확장되어 드리프팅 문제도 함께 고려되었다.
그러나 위에서 기술된 방법들의 경우에는 가려짐 상황 또는 배경 간섭 상황 중의 하나만 고려하였으며, 이러한 장애 요인이 동시에 일어날 경우에는 추적 성능이 저하된다는 단점을 나타낸다.
또한, 드리프팅은 종래의 추적 방법이 갖는 문제이다. 추적대상 물체는 도중에 다양한 변화를 보이는데, 이에 대응하기 위해서는 추적을 수행하는 동시에 온라인으로 물체 모델을 업데이트할 필요성이 있다.
종래에는 추적 과정에 있어서 이전 프레임의 결과를 사용하여 추적 대상을 업데이트하는데, 이 업데이트 과정에 부정확한 정보가 포함될 수 있다. 이처럼 부정확한 정보에 의한 업데이트가 지속되면 모델이 올바른 물체 모델로부터 "드리프팅"하여 잘못된 모델이 생성되게 된다.
이러한 드리프팅 문제를 해결하기 위하여 B. Babenko et al. "Robust object tracking with online multiple instance learning," Pattern Analysis and Machine Intelligence, IEEE Transactions, 2011(이하, "Babenko 논문")에서 기존의 Grabner 논문을 확장하여 다중 인스턴스 학습을 적용하였다. 이를 통하여 Babenko 논문에서는 이전 프레임의 추적 결과뿐만 아니라 주변의 다양한 랜덤 변화들을 학습함으로써 잘못된 정보를 학습할 위험을 감소시켰다. 또한 Stalder 논문에서는 학습을 하지 않는 부분을 포함하는 다중 분류 시스템을 활용하여 이러한 드리프팅을 방지하였다.
Z. Kalal et al. "P-n learning: Bootstrapping binary classifiers by structural constraints," In Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference(이하, "Kalal 논문")은 추적 방법과 분류 방법을 혼합하여 두가지 방법이 동일한 결과를 보일 경우에만 학습함으로써 두 방법이 상호보완적으로 드리프팅을 방지하도록 하였다. 하지만 이들 방법들은 주로 가려짐 상황을 고려하지 않았기에 그에 따른 한계점을 갖는다.
본 발명의 목적은 이중 모델링과 학습 및 폐기학습을 통하여 영상 내의 물체 추적 방법을 제공하는 것이다. 더욱 상세하게는, 본 발명의 목적은 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 기술을 통해 입력 영상에서 물체를 추적할 때 발생할 수 있는 각종 장애 요인, 예컨대 물체의 가려짐, 배경 간섭, 드리프팅의 문제를 동시에 해결할 수 있는 기술을 제공하는 것이다.
이러한 과제를 달성하기 위한 본 발명에 따른 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법은, 각각 개별적인 두 개의 단일 가우시안 모델을 사용하여 전경 모델과 배경 모델을 설정하는 제 1 단계; 입력 영상에서 특징 기반으로 배경 움직임을 보상함으로써 배경 모델을 업데이트하는 제 2 단계; 전경 모델에 변화를 인가한 후 배경 모델과 결합하여 현재의 관측 값과 가장 유사하도록 재구성하고, 재구성할 때의 오류에 반비례 하는 우도 값 연산을 통해 전경 모델과 배경 모델로부터 우도를 계산하는 제 3 단계; 랜덤 샘플링을 활용한 평균이동 처리를 반복 실행하여 우도를 최대화함으로써 추적대상 물체에 대한 추적 결과를 획득하는 제 4 단계; 우도 계산에 전경 모델이 반영되었는지 배경 모델이 반영되었는지에 따라 학습 및 폐기학습을 선택적으로 적용하여 전경 모델을 업데이트하는 제 5 단계;를 포함하여 구성된다.
본 발명에서 제 3 단계에서 배경 모델과 전경 모델은 각각 하나의 평균적인 RGB 색으로 표현된 이미지 및 추가적으로 각 모델 이미지에서의 픽셀 별로 얼마나 많은 정보가 관측되었는지 기억하기 위한 에이지 이미지를 활용하여 우도 값을 연산하는 것이 바람직하다.
또한, 본 발명에서 제 3 단계는 전경 모델에 적용되는 변환을 나타내는 벡터를 변환()로 설정하고, 변환()를 사용한 이미지()에 대한 호모그래피 변환을 라고 설정하는 경우, 변환()을 적용시킨 전경 모델을 수학식
또한, 본 발명에서 제 3 단계는 입력 이미지()에서 추적 후보 영역()을 잘라내어 확대/축소하여 를 구하는 경우, 추적 후보 영역()에서 변환()에 대한 우도 는 픽셀 인텍스 j에 대해
에 의해 연산하는 것이 바람직하다.
또한, 본 발명에서 제 5 단계는 전경 모델을 업데이트할 때
에 의해 업데이트가 수행되며, 및 는 시간 t일 때 픽셀 j에 대한 전경 모델이며, 는 시간 t일 때 픽셀 j에 대한 확대/축소된 관측 값이며, 는 시간 t까지 관측된 프레임 수로 설정된다.
또한, 본 발명에서 제 5 단계에서 전경 모델이 사용된 픽셀들을 , 배경 모델이 사용된 픽셀들을 라 할 경우, j ∈ 의 경우 (학습 - learning) 사용하며, j ∈ 의 경우 (폐기학습 - unlearning)을 사용하는 것이 바람직하다.
로 정의하는 것이 바람직하다.
또한, 본 발명에서 제 2 단계는 배경 모델을 업데이트할 때
한편, 본 발명에 따른 컴퓨터로 판독가능한 기록매체는 본 발명에 따른 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법을 실행하는 물체추적 프로그램을 기록한 것이다.
본 발명에 따르면 입력 영상으로부터 어떠한 물체 영역을 지속적으로 추적함에 있어서 종래의 문제점인 배경 간섭, 가려짐, 드리프팅 문제를 모두 해결할 수 있는 장점이 있다. 즉, 두 모델이 결합되어 생성되는 우도를 활용함으로써 배경 간섭 및 가려짐에 강인한 성능을 보이며, 추적 결과를 이용한 모델의 학습/폐기학습을 통하여 드리프팅에도 강인한 특성을 갖는 장점을 제공한다.
[도 1]은 본 발명에 따른 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 알고리즘의 전체 구성을 나타내는 도면.
[도 2]는 본 발명에서 이중 모델을 예시적으로 나타내는 도면.
[도 3]는 본 발명에서 우도 계산의 재구성을 예시적으로 나타내는 도면.
[도 4]는 본 발명의 작용효과를 설명하기 위한 도표.
[도 5]는 본 발명의 작용효과를 설명하기 위한 실험 영상 및 알고리즘별 주요 추적 결과 프레임을 나타낸 도면.
[도 2]는 본 발명에서 이중 모델을 예시적으로 나타내는 도면.
[도 3]는 본 발명에서 우도 계산의 재구성을 예시적으로 나타내는 도면.
[도 4]는 본 발명의 작용효과를 설명하기 위한 도표.
[도 5]는 본 발명의 작용효과를 설명하기 위한 실험 영상 및 알고리즘별 주요 추적 결과 프레임을 나타낸 도면.
이하에서는 도면을 참조하여 본 발명을 상세하게 설명한다.
[도 1]은 본 발명에 따른 물체 추적 알고리즘의 전체 구성을 나타내는 도면이다. 본 발명에 따른 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법은 [도 1]과 같은 전체 구성을 통해 배경 간섭, 가려짐, 드리프팅 문제를 동시에 해결하기 위한 알고리즘을 제시한다.
즉, 사람 눈의 경우 물체와 배경을 쉽게 구분할 수 있고, 이를 통하여 배경 간섭, 가려짐, 드리프팅 문제를 간단히 해결한다는 점에서 착안되며, 본 발명의 물체 추적 방법은 배경과 추적대상 물체를 이중 모델링(Dual Modeling)으로 표현하고 이를 동시에 활용하여 우도를 구성한다.
이에 따라 구성된 우도를 사용함으로써 본 발명은 추적대상 물체 이외로부터 제공되는 정보를 배제하는 것이 가능하며, 이를 통하여 배경 간섭 및 가려짐 문제에 강인한 성능을 얻을 수 있다.
또한, 추적대상 물체로부터 오는 정보가 아닌 경우 이를 물체 모델로부터 폐기학습(unlearn)함으로써 드리프팅 문제를 해결한다. 마지막으로 본 발명의 방법은 랜덤 샘플링을 사용하는 평균이동 처리를 반복 실행(iteration)함으로써 우도를 최대화한다.
이러한 알고리즘을 채택함에 따라, 본 발명에 따르면 예컨대 PTZ 감시카메라에서 얻은 입력 영상에서 특정의 사람을 선택하여 자동적으로 추적하는 경우에, 두 개의 단일 가우시안 모델을 사용하여 전경과 배경을 각각 묘사하며(이중 모델링), 이들 두 모델을 결합한 우도(likelihood)를 형성하고, 우도를 랜덤샘플링을 활용한 평균이동법을 통하여 효율적으로 최대화하여 물체를 추적할 수 있다. 이와 같은 구성을 채택함으로써 본 발명에 따르면 지속적인 물체 추적에 있어서 배경 간섭, 가려짐, 드리프팅 문제를 극복할 수 있다.
이하에서는 [도 1]을 기초로 [도 2] 내지 [도 5]를 참조하여 본 발명을 구체적으로 살펴본다.
먼저, 본 발명에서 현재의 입력 영상(입력 이미지)를 표현하기 위해 사용하는 이중 모델링에 대해 살펴본다. 이중 모델은 두 개의 모델로 구성되는데, 각각의 모델은 단일 가우시안 모델(SGM) 내지 이와 유사한 방식으로 표현된다. 이들 두가지 모델은 전경 모델(foreground model)과 배경 모델(background model)인데, 두 모델을 결합하여 추적에 사용될 우도를 계산한다.
이후 우도를 사용하여 랜덤 샘플링을 활용한 평균이동을 통해 물체의 최종 위치를 얻는다.
배경 모델과 전경 모델은 바람직하게는 하나의 평균적인 RGB 색으로 표현되는데, 이는 다시 말해 배경과 추적대상 물체는 각각 한 장의 이미지로 표현됨을 의미한다. 추가로, 각 모델 이미지에서의 픽셀 별로 얼마나 많은 정보가 관측되었는지를 기억하기 위한 에이지(age) 이미지가 존재한다.
이후 설명에 있어서 전경에 대한 RGB 이미지와 에이지 이미지를 , , 로 표기하고 배경에 대한 RGB 이미지와 에이지 이미지를 , , 로 표기한다. 또한, 입력 이미지는 로 표기한다.
한편 [도 2]는 , , , , , 의 예시이다. 즉, [도 2]는 본 발명에 따른 이중 모델의 예시로서 전경 모델에 대한 평균 이미지 (가), 분산 이미지 (나), 에이지 이미지 (다)로 나타내며, 배경 모델에 대한 평균 이미지 (라), 분산 이미지 (마), 에이지 이미지 (바)로 나타낸 것이다
다음으로 본 발명에서 물체 추적에 사용하는 이중 모델링의 우도 계산에 대해서 살펴본다. 추적 후보 영역()에 대해 추적 절차에서 사용될 우도는 배경 모델과 전경 모델을 복합적으로 사용하여 계산된다. 우도는 두 모델을 이용하여 현재 후보 영역의 관측 값을 잘 표현할수록 높은 값을 갖도록 설계한다. 이는 다시 말해 전경 모델에 변화를 준 후 배경 모델과 결합하여 현재의 관측 값(입력 영상)과 가장 유사하도록 재구성하고, 재구성할 때의 오류가 적을수록 높은 우도 값을 갖도록 설계하였음을 의미한다.
한편 [도 3]는 본 발명에서 우도 계산의 재구성을 예시적으로 나타내는 도면이다. [도 3(가)]는 후보 영역의 관측된 이미지를 나타내며, [도 3(나)]는 후보 영역의 재구성된 이미지를 나타내며, [도 3(다)]는 전경 모델의 평균값을 나타내며, [도 3(라)]는 배경 모델의 평균값을 나타낸다. 한편, 이들 도면에서 픽셀 별로 이루어진 정보 관측에 대한 정보 관측 기억을 의미하는 에이지가 일정 이하인 부분은 하늘색으로 표시되었다.
본 발명에서 사용되는 임의의 변환()는 전경 모델에 적용되는 변환을 표현하는 벡터이다. 변환()를 사용한 이미지 에 대한 호모그래피 변환을 라 할 때, 이 변환을 적용시킨 전경 모델을 수학식
를 통하여 구한다.
또한 이에 대응되는 배경 모델인 와 를 와 에서 추적 후보 영역()을 잘라내어 및 와 동일한 크기로 확대/축소함으로써 구한다. 이후 마찬가지로 입력 이미지()에서 추적 후보 영역()을 잘라내어 확대/축소하여 를 구한다. 이 경우 추적 후보 영역()에서 변환()에 대한 우도 은 다음과 같이 [수학식 1]에 의해 정의된다.
여기서 j는 픽셀 인덱스이다. 이 수학식들은 각 픽셀 j마다 전경 및 배경 모델들을 비교하여 둘 중 적은 값을 우도 값에 포함시키도록 설계되었음을 의미한다. 하지만 만약 또는 변환 절차에 의해 가 존재하지 않는 픽셀들의 경우(경계를 벗어난 픽셀들의 경우) 이는 특별한 경우로 취급하며 만을 사용하였다.
이를 통해, 본 발명에서는 우도 계산에서 어떠한 모델이 사용되었는지, 즉, 와 중 어떠한 모델이 사용되었는지에 기초하여 이를 전경 모델 업데이트에서 학습(learning)을 적용할 것인지 아니면 폐기학습(unlearning)을 적용할 것인지를 결정한다.
다음으로 이중 모델링의 전경 모델 업데이트에 대해서 구체적으로 살펴본다. 전경 모델 업데이트는 일반적인 온라인 SGM(Stalder 논문 참조)과 유사하게 진행되나 어떠한 모델이 사용되었는지에 기초하여 학습 또는 폐기학습을 적용한다. 주어진 후보 영역(: 이 경우는 추적 결과 영역)에 대하여 다음과 같은 [수학식 3]에 의해 업데이트가 수행된다.
여기서 및 는 시간 t일 때 픽셀 j에 대한 전경 모델이며 는 시간 t일 때 픽셀 j에 대한 확대/축소된 관측 값이다. 는 시간 t까지 관측된 프레임 수, 즉 픽셀의 에이지로부터 구할 수 있다. 픽셀 j의 시간 t일 때의 에이지를 라 하면 는 [수학식 4]와 같이 정의할 수 있다.
여기서 는 업데이트 파라미터로서 일반적인 응용에서는 = 1로 설정된다. 하지만 본 발명의 경우에 업데이트 파라미터 는 [-1, 1] 범위 안에 속하게 되며 학습과 폐기학습을 조율한다.
학습 및 폐기학습 여부는 [수학식 1]로부터 어떤 모델이 사용되었는지를 바탕으로 결정된다. 전경 모델이 사용된 픽셀들을 , 배경 모델이 사용된 픽셀들을 라 할 경우, j ∈ 의 경우 을 사용하며(학습 - learning), j ∈ 의 경우 을 사용한다(폐기학습 - unlearning).
이는 로 표현하면 가 를 에 학습함으로써 얻어진 결과, 즉 가 로부터 를 r-에 비례한 양 만큼 제거한 폐기학습된 결과임을 의미한다. [수학식 3]의 경우에도 마찬가지로 해석이 가능하다. 이를 통하여 모델로부터 물체가 아닌 정보를 제거하는 동시에 지속적으로 물체의 변화를 학습하는 것이 가능하다. 따라서 본 발명에 따른 알고리즘은 드리프팅 문제에 강인한 성능을 갖게 된다.
다음으로 이중 모델링의 배경 모델 업데이트에 대해서 구체적으로 살펴본다. 일반적으로 물체를 추적할 때에는 고정 배경이 아닌 움직이는 배경하에서 물체 추적이 이루어진다. 따라서 배경 모델을 사용하기 위해서는 먼저 배경 움직임을 보상하는 것이 필수적이다.
이를 위하여 본 발명에서는 종래의 특징(feature) 기반 움직임 보상법을 사용한다. 먼저 입력 이미지 를 32×24의 균등 구역으로 나눈 후, 각 구역의 귀퉁이 점마다 로의 KLT [C. Tomasi and T. Kanade, "Detection and tracking of point features," Technical report, Carnegie Mellon University, Apr. 1991 참조]를 수행한다.
이어서, 이들 점 추적 결과를 바탕으로 RANSAC [M. A. Fischler and R. C. Bolles, "Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography," Commun. ACM, 1981 참조]을 수행하여 로부터 의 호모그래피 변환행렬 를 구한다. 이후 호모그래피 변환행렬 를 이용하여 , , 를 현재 관측 값에 대응되도록 , , 로 변환한다.
이들 변환된 모델 , , 를 바탕으로 전경 모델과 유사한 방법을 사용하여 하기의 [수학식 6] 내지 [수학식 7]을 통해 , , 를 구한다. 다만 배경 모델의 경우 전경 모델과는 반대로 전경 모델에서 학습이 수행된 부분에 폐기학습이 수행되어야 한다. 따라서 배경 모델의 경우 j ∈ 일 경우 , j ∈ 일 경우 를 사용한다.
실제 구현 상에서는 전체 배경 모델에 대하여 학습을 적용한 후 추적 결과를 이용하여 폐기학습이 필요한 부분에 의 양 만큼 폐기학습을 적용한다. 이러한 업데이트 과정을 통하여 추적 대상이 또한 배경에 학습되는 것을 방지하는 것이 가능하다.
다음으로, 랜덤 샘플링 및 평균이동을 활용한 추적에 대해서 구체적으로 살펴보도록 한다. 물체 추적 문제는 시간 t에 대해 물체가 위치한 영역에 대한 추정치 을 찾는 과정이며 하기의 [수학식 8]로 표기할 수 있다.
이는 다시 말해 전경 모델에 어떠한 변화를 주지 않아도 가장 큰 값을 갖는 을 찾는 것이다. 이를 위하여 R을 고정시킨 후 평균이동 벡터 를 구하고, 다시 이 벡터를 활용하여 을 업데이트시킨다.
평균이동 벡터를 구하는 방법은 종래 제안된 기술(A. P. Leung and S. Gong, "Mean shift tracking with random sampling," In Proc. BMVC 2005 참조)에서와 유사하게 이루어진다. 하지만 본 발명의 경우 기존의 픽셀을 샘플링하던 방식이 아닌 각 랜덤 변환을 샘플링한다.
시간 t에서의 k번째 반복 실행에서의 후보 영역을 , 시간 t에서의 추적 결과를 라 할 경우, 로 시작한다. 이후 매 반복실행 마다 M개의 샘플을 이용할 경우 첫 M/2개는 다음의 [수학식 9]와 같이 선택된다.
여기서 N(0,σ2)은 0을 평균으로 σ2을 분산으로 하는 가우시안 분포이며, i는 샘플 인덱스이다. 이들 샘플을 평균이동에 효과적으로 사용하기 위하여 나머지 M/2개의 경우 로 대칭이 되도록 한다. 이후 각 에 대하여 [수학식 1]을 이용하여 를 계산하고, 다음의 [수학식 10]에 의해 평균이동 벡터 를 계산한다.
여기서 l은 벡터의 원소를 의미한다. [수학식 10]의 평균이동 벡터를 활용하여 다음의 [수학식 11]에 따라 후보 영역을 업데이트한다.
이러한 반복 실행은 수렴이 이루어질 때까지 진행되나 실험적으로 살펴본 결과 미리 설정된 횟수, 예컨대 10번 수행하는 것으로 고정하여 실행하더라도 결과에는 큰 차이가 없다.
본 발명의 작용효과에 대한 비교 평가를 위하여 본 발명의 방법을 C++로 구현하였다. 구현시 KLT의 경우 openCV 라이브러리를 활용하였다. 모델의 최대 에이지는 30으로 제한하여 모델이 최소 0.03의 학습률을 갖도록 하였다. Th의 경우 5로 설정하였으며 r+ = 1, r- = -0.05이다. 샘플링 σ의 경우 x, y축 방향으로 모델 크기의 10%로 설정하였다(단, FaceOcc의 경우 5%로 하였다). 본 발명의 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법에 따른 알고리즘은 초당 10프레임 이상의 성능을 보였다.
본 발명의 추적 성능을 평가하기 위하여 여섯 개의 다른 방법과 비교 실험을 수행하였다. FRAG(Adam 논문 참조)과 L1(Mei 논문 참조)의 방법들은 주로 가려짐과 관련된 방법들이며, SEMI(Stalder 논문)와 OAB(Grabner 논문)의 경우 배경 간섭과 드리프팅 문제를 동시에 다루며, MIL(Babenko 논문)과 TLD(Kalal 논문)의 경우 드리프팅에 주안점을 둔 최신 방법들이다.
실험은 아홉 개의 영상에 대해 수행되었는데 이중 일곱 개는 가려짐, 배경 간섭, 대상의 모양 변화를 포함하고 나머지 둘은 일곱 개 중 두 영상을 앞뒤로 반복함으로써 생성된 긴 영상이다. Caviar 영상은 C. project page. Caviar test case scenarios. http://homepages.inf.ed.ac.uk/rbf/CAVIARDATA1/, visited on 9/15/2010.에서 사용된 영상이며, FaceOcc와 Woman은 Adam 논문에서 사용되었다. Sylvester와 Tiger의 경우 Babenko 논문에서 사용되었으며 CupOcc와 Cheetah의 경우 자체 제작되었다. 본 비교 실험에서는 각 논문의 저자들이 제공한 프로그램 코드를 사용하였다.
여기서, 양적 분석을 위하여 추적 결과 상자의 네 귀퉁이 점의 평균 오류를 사용하였다. 실제 추적 결과로는 사람이 직접 표기한 지점을 사용하였다. 평균 오류를 계산할 때 추적 방법이 결과를 반환하지 않은 경우(즉 추적 실패를 인식한 경우)는 제외하였다. 또한 평균 오류 외에 올바르게 추적한 프레임 수를 고려하였다. 올바르게 추적된 프레임의 경우 평균 오류가 사람이 설정한 물체의 현재 넓이 및 높이 중 작은 값보다 작을 경우를 올바르게 추적되었다고 생각하였다. [도 4]의 표는 각 알고리즘의 수치적인 실험 결과(평균오류, 추적성공 %)를 나타내며, 올바르게 추적된 프레임 비율을 기준으로 가장 좋은 결과는 진한 글씨와 밑줄로, 두 번째 좋은 결과는 진한 글씨로 표기하였다.
Caviar, FaceOcc, Woman, CupOcc 영상은 가려짐에 대한 성능 평가를 위한 영상이다. [도 4]에 도시된 바와 같이 본 발명의 방법은 모든 비교된 방법에 비해 우수한 성능을 보인다. 주의할 점은 Woman 영상의 경우 Adam 논문에서 FRAG가 매우 우수한 성능을 보인다고 보고되었으나 영상의 일부분이 아닌 전체를 사용할 경우에는 성능이 낮음을 확인할 수 있었다. 또한 CupOcc영상의 경우 물체가 처음부터 가려진 영상으로 다른 알고리즘은 실패하는 반면 본 발명의 방법은 성공하는 것을 확인할 수 있다. Cheetah 영상의 경우 물체가 배경으로부터 크게 눈에 띄지 않는 경우인데 이 경우 L1, OAB, MIL과 본 발명의 DM을 제외한 모든 방법이 실패하는 것을 볼 수 있다.
드리프팅에 대한 성능 평가를 위해 Sylvester, Tiger, Sylv_rep, Tiger_rep 영상을 사용하였다. Sylvester와 Tiger 영상은 다양한 변화를 보이는 영상으로 이 두 영상을 앞뒤로 반복하여 늘임으로써 긴 시간 동안 드리프팅이 일어나게끔 한 것으로, 본 발명의 방법을 반복 실행한 결과와 기존 결과를 비교함으로써 드리프팅 효과를 확인할 수 있다. 실험 결과 본 발명의 방법에서는 별달리 드리프팅이 일어나지 않음을 확인할 수 있었다. SEMI와 FRAG의 경우 드리프팅이 크게 일어나지는 않지만 전체적으로 추적 성능이 떨어지는 것을 확인할 수 있었다. OAB와 MIL의 경우 Sylvester영상은 잘 되지만 Tiger의 경우 큰 드리프트를 보이는 것을 확인할 수 있었다. TLD는 Tiger의 경우 성능 향상이 보이지만 이를 실제 실험 결과를 확인할 경우 추적 결과로 사용하기는 힘든 결과를 보이며 수치적으로도 성능이 향상된 후에도 부족함을 볼 수 있었다. 마지막으로 L1의 경우 드리프팅에 의해 심하게 성능이 저하됨을 확인할 수 있었다.
한편, [도 5]는 본 발명의 작용효과를 설명하기 위한 실험 영상 및 알고리즘별 주요 추적 결과 프레임을 도시한 참조도면이다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드의 형태로 구현하는 것이 가능하다. 이때, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 캐리어웨이브(예: 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산된 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인 프로그램, 코드, 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이상과 같이, 본 명세서와 도면에는 본 발명의 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예가 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명하다.
Claims (11)
- 각각 개별적인 두 개의 단일 가우시안 모델을 사용하여 전경 모델과 배경 모델을 설정하는 제 1 단계;
입력 영상에서 특징 기반으로 배경 움직임을 보상함으로써 상기 배경 모델을 업데이트하는 제 2 단계;
상기 전경 모델에 변화를 인가한 후 상기 배경 모델과 결합하여 현재의 관측 값과 가장 유사하도록 재구성하고, 상기 재구성할 때의 오류에 반비례 하는 우도 값 연산을 통해 상기 전경 모델과 상기 배경 모델로부터 우도를 계산하는 제 3 단계;
랜덤 샘플링을 활용한 평균이동 처리를 반복 실행하여 상기 우도를 최대화함으로써 추적대상 물체에 대한 추적 결과를 획득하는 제 4 단계;
상기 우도 계산에 전경 모델이 반영되었는지 배경 모델이 반영되었는지에 따라 학습 및 폐기학습을 선택적으로 적용하여 상기 전경 모델을 업데이트하는 제 5 단계;
를 포함하여 구성되는 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법.
- 청구항 1에 있어서,
상기 제 3 단계에서 상기 배경 모델과 상기 전경 모델은 각각 하나의 평균적인 RGB 색으로 표현된 이미지 및 추가적으로 각 모델 이미지에서의 픽셀 별로 얼마나 많은 정보가 관측되었는지 기억하기 위한 에이지 이미지를 활용하여 상기 우도 값을 연산하는 것을 특징으로 하는 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법.
- 청구항 1 내지 청구항 10 중 어느 하나의 항에 따른 이중 모델링과 학습 및 폐기학습을 통한 물체 추적 방법을 실행하는 물체추적 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130040141A KR101460517B1 (ko) | 2013-04-11 | 2013-04-11 | 이중 모델링과 학습 및 폐기학습을 통한 영상 내의 물체 추적 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130040141A KR101460517B1 (ko) | 2013-04-11 | 2013-04-11 | 이중 모델링과 학습 및 폐기학습을 통한 영상 내의 물체 추적 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140122981A true KR20140122981A (ko) | 2014-10-21 |
KR101460517B1 KR101460517B1 (ko) | 2014-11-12 |
Family
ID=51993881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130040141A KR101460517B1 (ko) | 2013-04-11 | 2013-04-11 | 이중 모델링과 학습 및 폐기학습을 통한 영상 내의 물체 추적 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101460517B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654508A (zh) * | 2015-12-24 | 2016-06-08 | 武汉大学 | 基于自适应背景分割的监控视频移动目标跟踪方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7885463B2 (en) | 2006-03-30 | 2011-02-08 | Microsoft Corp. | Image segmentation using spatial-color Gaussian mixture models |
JP4208898B2 (ja) | 2006-06-09 | 2009-01-14 | 株式会社ソニー・コンピュータエンタテインメント | 対象物追跡装置および対象物追跡方法 |
US8467570B2 (en) | 2006-06-14 | 2013-06-18 | Honeywell International Inc. | Tracking system with fused motion and object detection |
TWI348659B (en) | 2007-10-29 | 2011-09-11 | Ind Tech Res Inst | Method and system for object detection and tracking |
-
2013
- 2013-04-11 KR KR1020130040141A patent/KR101460517B1/ko active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654508A (zh) * | 2015-12-24 | 2016-06-08 | 武汉大学 | 基于自适应背景分割的监控视频移动目标跟踪方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
KR101460517B1 (ko) | 2014-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7236545B2 (ja) | ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム | |
Von Stumberg et al. | Gn-net: The gauss-newton loss for multi-weather relocalization | |
Işık et al. | SWCD: a sliding window and self-regulated learning-based background updating method for change detection in videos | |
CN108665487B (zh) | 基于红外和可见光融合的变电站作业对象和目标定位方法 | |
EP2548174B1 (en) | Method and apparatus for trajectory estimation, and method for segmentation | |
Kalsotra et al. | Background subtraction for moving object detection: explorations of recent developments and challenges | |
CN110929593B (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
Bešić et al. | Dynamic object removal and spatio-temporal RGB-D inpainting via geometry-aware adversarial learning | |
CN114022759A (zh) | 一种融合神经网络时空特性的空域有限像素目标检测系统及方法 | |
US20110091074A1 (en) | Moving object detection method and moving object detection apparatus | |
Chetverikov et al. | Dynamic texture as foreground and background | |
Cheng et al. | Advanced background subtraction approach using Laplacian distribution model | |
Roy et al. | Foreground segmentation using adaptive 3 phase background model | |
Ali et al. | Space–time spectral model for object detection in dynamic textured background | |
Liang et al. | Methods of moving target detection and behavior recognition in intelligent vision monitoring. | |
CN114170570A (zh) | 一种适用于拥挤场景下的行人检测方法及系统 | |
Abdullah et al. | Objects detection and tracking using fast principle component purist and kalman filter. | |
Zhu et al. | Tracking multiple objects through occlusion with online sampling and position estimation | |
Roy et al. | A comprehensive survey on computer vision based approaches for moving object detection | |
Liu et al. | Scene background estimation based on temporal median filter with Gaussian filtering | |
CN114049531A (zh) | 一种基于弱监督人体协同分割的行人再识别方法 | |
KR101460517B1 (ko) | 이중 모델링과 학습 및 폐기학습을 통한 영상 내의 물체 추적 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체 | |
CN109951705B (zh) | 一种面向监控视频中车辆对象编码的参考帧合成方法及装置 | |
Malavika et al. | Moving object detection and velocity estimation using MATLAB | |
Zhou et al. | Real-time detection and spatial segmentation of difference image motion changes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20171023 Year of fee payment: 4 |