KR102465960B1 - 변화점 검출을 활용한 다중클래스 다중물체 추적 방법 - Google Patents

변화점 검출을 활용한 다중클래스 다중물체 추적 방법 Download PDF

Info

Publication number
KR102465960B1
KR102465960B1 KR1020170109109A KR20170109109A KR102465960B1 KR 102465960 B1 KR102465960 B1 KR 102465960B1 KR 1020170109109 A KR1020170109109 A KR 1020170109109A KR 20170109109 A KR20170109109 A KR 20170109109A KR 102465960 B1 KR102465960 B1 KR 102465960B1
Authority
KR
South Korea
Prior art keywords
tracking
segments
trajectory
segment
change point
Prior art date
Application number
KR1020170109109A
Other languages
English (en)
Other versions
KR20190023389A (ko
Inventor
이필규
이병재
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020170109109A priority Critical patent/KR102465960B1/ko
Publication of KR20190023389A publication Critical patent/KR20190023389A/ko
Application granted granted Critical
Publication of KR102465960B1 publication Critical patent/KR102465960B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 물체 검출 기반 다중물체 추적 기술에 변화점 검출 기술의 결합을 이용하여 무제한으로 물체의 클래스를 추적할 수 있는 다중클래스 다중물체 추적 방법에 관한 것이다.

Description

변화점 검출을 활용한 다중클래스 다중물체 추적 방법{Multi-Class Multi-Object Tracking Method using Changing Point Detection}
본 발명은 다중 물체 추적 방법에 관한 것으로서, 특히, 물체 검출 기반 다중물체 추적 기술에 변화점 검출 기술의 결합을 이용하여 무제한으로 물체의 클래스를 추적할 수 있는 다중클래스 다중물체 추적 방법에 관한 것이다.
다중 물체 추적은 영상 보안, 제스쳐 인식, 로봇 비전, 그리고 휴먼 로봇 인터랙션 등 다양한 현실 세계에 적용할 수 있는 기술로써 부상하고 있다. 다중 물체 추적의 도전적인 문제는 노이즈, 빛의 변화, 포즈, 복잡한 배경, 상호 작용, 물체로 인한 가림, 카메라의 움직임 등으로 발생한 외관의 변화에 의한 추적 궤도의 드리프트 발생이다. 대부분의 다중 물체 추적 방법들은 매 프레임마다 변화하는 물체의 개수 때문에 성능 저하를 겪으며, 복잡한 배경에서 이러한 현상은 더욱 두드러진다. 또한, 대부분의 다중 물체 추적 방법들은 주로 보행자나 자동차 추적 등 오로지 제한된 개수의 카테고리에 집중하고 있다. 물체의 클래스를 무제한적으로 활용하는 다중물체 추적 기술은 매우 높은 복잡도와 높은 계산량의 요구로 인해 매우 드물게 연구되어 왔다.
베이지안 필터는 사후 확률을 추정하기 위한 모션 모델과 관측 모델로 구성된다. 베이지안 필터를 기반으로 한 물체 추적 방법 중 하나는 마르코프 체인 몬테 카를로 기반의 방법이다. 이는 다중 물체 간의 상호 작용과 다양한 물체의 움직임을 다룰 수 있다. 대부분의 마르코프 체인 몬테 카를로 기반의 방법들은 물체의 개수가 시간에 따라 변화하지 않는다고 가정하고 있지만, 이러한 가정은 실제 세계에서 응용하기에는 적합하지 않다. 기존의 마르코프 체인 몬테 카를로 기반 추적 방법에는 한 가지 제한된 가정으로 인한 문제가 있다. 그래서 이를 해결하기 위해, 가역 점프 마르코프 체인 몬테 카를로가 제안되었다. 가역 점프 마르코프 체인 몬테 카를로는 시간에 따라 물체의 개수가 변하는 현상을 수용하기 위해 업데이트, 교체, 생성, 그리고 소멸 등의 모션 변화를 다룰 수 있다. 가역 점프 마르코프 체인 몬테 카를로는 새로운 물체를 초기화함으로써 새로운 추적을 시작하거나, 물체를 제거함으로써 현재 추적을 종료한다.
이처럼 마르코프 체인 몬테 카를로 기반의 다중 물체 추적 접근방법이 어느 정도 성공적이었다. 그럼에도 고차원의 상태 공간으로 인해 매우 높은 계산량이 요구된다. 물체 모습의 변화, 상호 작용, 물체로 인한 가림, 그리고 변화하는 물체의 개수 또한 높은 계산량 과부하를 야기한다.
예를 들어, 발명, "Sakaino, H.: Video-based tracking, learning, and recognition method for multiple moving objects. IEEE trans. on circuits and systems for video technology 23 (2013) 1661-1674"에서는 물체의 생성과 소멸 상태를 결정하는 모션 모델을 분리시키고, 마르코프 체인의 반복 루프는 업데이트와 교체 상태만을 결정함으로써 마르코프 체인 몬테 카를로 샘플링의 계산 과부하를 감소시켰다. 만약 물체의 생성과 소멸을 결정하는 행동을 마르코프 체인 몬테 카를로 체인 내부에서 결정하게 되면, 마르코프 체인 몬테 카를로 샘플링에서 차원의 변화가 요구된다. 생성과 소멸을 결정하는 행동이 마르코프 체인 반복 루프로부터 분리됨으로써 더 이상 마르코프 체인은 차원의 변화가 발생하지 않게 되고, 이는 보다 적은 양의 계산량으로 안정적인 상태에 도달할 수 있게 된다. 하지만, 이러한 생성과 소멸을 결정하는 행동을 분리하는 간단한 접근방법으로는 다중 물체 추적에서 발생하는 복잡한 상황들을 효율적으로 처리할 수 없다. 대부분의 경우, 물체 외형 변화로 인해 추적 드리프트 문제가 발생한다.
따라서, 본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은, 물체 검출 기반 다중물체 추적 기술에 변화점 검출 기술의 결합을 이용하여 무제한으로 물체의 클래스를 추적할 수 있는 다중클래스 다중물체 추적 방법을 제공하는 데 있다.
본 발명에서 변화점 검출 모델은 드리프트나 물체로 인한 가림으로 인해 발생하는 특이점이나, 급작스러운 변화를 추적 상태의 공간과 시간상의 특성을 기반으로 검출한다. 컨볼루션 신경망 기반의 물체 검출기와 Lucas-Kanade 추적기 기반의 모션 검출기는 제안한 영역의 다른 물체 클래스에 대한 우도(likelihood)를 계산하기 위해 적용되었다. 본 발명은 최근 소개된 영상 벤치마크 데이터셋인 ImageNet VID와 MOT 벤치마크를 기반으로 이루어진 실험에서, 최신의 다중 물체 추적 기술들과도 비견될 만한 매우 고무적인 결과를 확인하였다.
먼저, 본 발명의 특징을 요약하면, 상기의 목적을 달성하기 위한 본 발명의일면에 따른 입력 영상 시퀀스에 대한 다중클래스 다중물체 추적 방법은, 입력 영상 시퀀스에 포함된 물체의 존재와 비존재에 대한 관측 우도를 계산하는 단계; 상기 우도의 계산에 기초하여, 물체 존재 가능성 위치에 대한 세그먼트들을 결정하고 세그먼트들을 연결하는 복수의 추적 궤도를 설정하는 단계; 추적 궤도 상의 상기 세그먼트들의 데이터가 임계값 이상으로 변화하는 시간 지점에 대한 변화점을 검출하는 단계; 및 상기 변화점이 포함된 추적 궤도 상의 세그먼트들에 대해 포워드-백워드 확인을 수행하고, 확인 결과에 기초하여 추적 궤도 상의 세그먼트들을 결합하여 최종 추적 세그먼트들을 결정하는 단계를 포함한다.
상기 결정하는 단계에서, 상기 변화점의 검출에 대한 점수화를 이용하여 해당 세그먼트를 확신 세그먼트와 드리프트된 불안정 세그먼트로 분류하고, 상기 확신 세그먼트를 유지하고 상기 불안정 세그먼트를 제외시켜, 해당 추적 궤도 상의 세그먼트들을 결합할 수 있다.
상기 결정하는 단계에서, 해당 추적 궤도 상의 세그먼트들에 대해 포워드-백워드 에러로서의 확신도를 추정하여 상기 확신 세그먼트의 유지와 상기 불안정 세그먼트의 제외에 이용하되, 상기 확신도는 소정의 시간 동안의 포워드 추적에 기초한 세그먼트들 연결 궤도와 백워드 추적에 기초한 그 역순의 연결궤도 사이의 유클리디안 거리를 이용해 계산될 수 있다.
그리고, 본 발명의 다른 일면에 따른 입력 영상 시퀀스에 대한 다중클래스 다중물체 추적을 위한 컴퓨터로 읽을 수 있는 코드로 구현된 기록 매체는, 입력 영상 시퀀스에 포함된 물체의 존재와 비존재에 대한 관측 우도를 계산하는 기능; 상기 우도의 계산에 기초하여, 물체 존재 가능성 위치에 대한 세그먼트들을 결정하고 세그먼트들을 연결하는 복수의 추적 궤도를 설정하는 기능; 추적 궤도 상의 상기 세그먼트들의 데이터가 임계값 이상으로 변화하는 시간 지점에 대한 변화점을 검출하는 기능; 및 상기 변화점이 포함된 추적 궤도 상의 세그먼트들에 대해 포워드-백워드 확인을 수행하고, 확인 결과에 기초하여 추적 궤도 상의 세그먼트들을 결합하여 최종 추적 세그먼트들을 결정하는 기능을 수행하는 것을 포함한다.
본 발명에 따른 다중클래스 다중물체 추적 방법에 따르면, 다양하게 변화하는 다중물체 무제한-클래스를 이상적으로 움직이는 제안 영역의 우도(likelihood)를 공식화함으로써 추적할 수 있다. 오직 보행자나 자동차와 같은 제한된 종류의 물체들에 한정하여 우도를 추정하던 기존 기술과 달리, 효율적인 컨볼루션 신경망 기반의 다중클래스 물체 검출기가 다중 물체 클래스의 우도를 계산하기 위해 적용될 수 있다.
또한, 정적인 관측과 동적인 관측을 기반으로 한 변화점 검출 알고리즘이 추적의 실패를 평가한다. 추적 세그먼트가 표현하는 변화 없는 시계열 내의 급작스런 변화점을 검출함으로써, 다중 물체 추적의 드리프트를 조사할 수 있다.
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는 첨부도면은, 본 발명에 대한 실시예를 제공하고 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.
도 1은 본 발명의 일 실시예에 따른 다중클래스 다중물체 추적을 위한 프레임워크의 주요 개념을 보여준다.
도 2는 본 발명의 일 실시예에 따른 변화점 검출을 설명하기 위한 흐름도이다.
도 3a 및 도 3b는 본 발명의 MCMOT를 적용하여 MOT16-02와 MOT16-09 시퀸스의 세그먼트로부터 변화점을 검출한 예시이다.
도 4는 본 발명의 MCMOT를 적용하여 ImageNet VID 데이터셋의 검증 시퀸스에서의 MCMOT 추적 결과를 나타낸 예시이다.
도 5는 본 발명의 MCMOT를 적용하여 테스트 영상 시퀸스에서 MCMOT의 추적 결과를 시각화한 예시를 보여준다.
이하에서는 첨부된 도면들을 참조하여 본 발명에 대해서 자세히 설명한다. 이때, 각각의 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타낸다. 또한, 이미 공지된 기능 및/또는 구성에 대한 상세한 설명은 생략한다. 이하에 개시된 내용은, 다양한 실시 예에 따른 동작을 이해하는데 필요한 부분을 중점적으로 설명하며, 그 설명의 요지를 흐릴 수 있는 요소들에 대한 설명은 생략한다. 또한 도면의 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시될 수 있다. 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니며, 따라서 각각의 도면에 그려진 구성요소들의 상대적인 크기나 간격에 의해 여기에 기재되는 내용들이 제한되는 것은 아니다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시 예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되는 것은 아니며, 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
먼저, 본 발명에서는, 물체 검출 반응과 변화점 검출 알고리즘을 결합한 강인한 다중클래스 다중물체 추적을 제안한다. Faster R-CNN, 그리고 ResNet 과 같은 딥러닝 기반의 물체 검출 기술의 발달로 인해, 물체의 클래스를 무제한적으로 다룰 수 있는 물체 검출이 현실적으로 가능하게 되었다. 물체 검출의 앙상블은 Faster R-CNN 기반의 물체 검출기와 Lucas-Kanade 추적 알고리즘 기반의 모션 검출기로 구현하였다. 베이지안 필터의 모션 다이내믹 모델을 분리하는 방법은 엔터티(entity) 전환과 모션 이동으로 구현하였다. 엔터티 전환은 생성과 소멸의 이벤트로 모델링한다. 딥러닝 기반의 알고리즘이 사후 확률을 계산한다. 다중 물체 추적의 가장 성가신 문제들 중 하나인 드리프트 문제는 변화점 검출 알고리즘을 통해 해결한다. 모션 다이나믹의 부드러움을 가정하면, 조명, 복잡한 배경, 포즈, 스케일 등과 연관되는 관찰의 급격한 변화하는 변화점 검출 알고리즘으로 처리할 수 있다. 본 발명의 주요 기여는 다음과 같다.
즉, 본 발명에 따른 다중클래스 다중물체 추적 방법에 따르면, 다양하게 변화하는 다중물체 무제한-클래스를 이상적으로 움직이는 제안 영역의 우도(likelihood)를 공식화함으로써 추적할 수 있다. 오직 보행자나 자동차와 같은 제한된 종류의 물체들에 한정하여 우도를 추정하던 기존 기술과 달리, 효율적인 컨볼루션 신경망 기반의 다중클래스 물체 검출기가 다중 물체 클래스의 우도를 계산하기 위해 적용될 수 있다. 또한, 정적인 관측과 동적인 관측을 기반으로 한 변화점 검출 알고리즘이 추적의 실패를 평가한다. 추적 세그먼트가 표현하는 변화 없는 시계열 내의 급작스런 변화점을 검출함으로써, 다중 물체 추적의 드리프트를 조사할 수 있다.
<다중 물체 추적>
최근의 다중 물체 추적 연구는 연속적인 영상에 존재하는, 물체 검출을 연결시키는 데이터 군집을 수행하기 위한 검출-기반-추적 이론에 집중되어 있다. 오프라인 기반 다중 물체 추적 방법은 사전 프레임의 정보를 사용하여 보다 나은 다중물체추적을 계층적 트랙 군집화, 네트워크 흐름, 그리고 글로벌 추적 궤도 최적화 등을 활용하여 수행한다. 하지만, 오프라인 방법은 높은 계산량을 요구한다. 이와 달리, 온라인 방법은 오직 과거와 현재 프레임의 정보만을 다중물체추적 문제를 해결하는데 사용하여 요구하는 계산량이 적다. 온라인 방법은 현실 문제에 적용하기 위해 더 적합하지만, 노이즈, 광량 변화, 포즈, 카메라 앵글, 그림자, 물체 개수의 변화, 그리고 급작스런 변화 등으로 인한 드리프트가 쉽게 발생한다. 역동적으로 변화하는 물체의 개수는 다루기가 어려우며, 특히 군중이나 군집도가 높은 물체들에서 자주 발생한다. 대부분의 다중 물체 추적 방법은 다른 종류의 특징을 기반으로 한 관측에 의존하고 있어 드리프트에 취약하다. 이러한 비정상성(nonstationary)와 비선형성(nonlinearity)에 대해, 칼만 필터 또는 파티클 필터와 같은 확률-기반의 추적 방법이 결정론적 기반의 추적 방법보다 우세하다고 알려져 있다.
<컨볼루션 신경망 기반 물체 검출>
최근 몇 년 동안, 컴퓨터 비전 분야에서 컨볼루션 신경망을 사용하여 괄목할만한 성과를 보이고 있다. 그 중에서 특히 주목할 만한 연구는 R-CNN(Region based Convolutional Neural Networks)이다. R-CNN에서는 관심영역 기반 접근을 통해 컨볼루션 신경망 기반의 물체 분류기를 컨볼루션 신경망 기반의 물체 검출기로 전환하는 방법을 제안하였다. SPPNet(Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition)과 Fast R-CNN은 R-CNN 방법을 확장하여 컨볼루션 특징 지도로부터 컨볼루션 특징 벡터를 풀링하였다. 보다 최근에는, R-CNN 프레임워크 내부에서 관심영역들을 생성해낼 수 있는 RPN(Region Proposal Networks)이 제안되었다. 이러한 영역기반 컨볼루션 신경망 프레임워크는 거의 모든 이전 연구들보다 큰 폭으로 우월한 성능을 보여주었다. 이처럼 컨볼루션 신경망의 큰 성공에도 불구하고, 오로지 적은 수의 다중 물체 추적 알고리즘이 컨볼루션 신경망 기반의 표현을 적용하여 제안되었다. 기존 방법에서, 컨볼루션 신경망 기반의 프레임워크와 함께 간단한 물체 추적 알고리즘을 적용한 다중 물체 추적을 ImageNet VID 데이터셋에서 검증한 경우도 있으며, 컨볼루션 신경망 기반 물체 검출기가 MOT Challenge에서 사용된 경우도 있었다.
본 발명에서는 이러한 영역 기반의 컨볼루션 신경망 패러다임을 적용하여 관측 모델을 구축한다.
<다중클래스 다중물체 추적의 개요>
본 발명에서는 물체의 생성, 소멸, 물체로 인한 가림, 상호작용, 그리고 드리프트를 효과적으로 다룰 수 있는 효율적인 다중클래스 다중물체 추적기 MCMOT(Multi-Class Multi-Object Tracking unit)를 제안한다. MCMOT는 사후확률 계산, 상호작용 모델, 엔터티 모델, 모션 모델에서 발생할 수 있는 잘못된 계산으로 인해 실패할 수 있다. 따라서 MCMOT의 목적은 드리프트가 발생했을 때, 가능한 한 빨리 중단시키고, 잘못된 검출로부터 회복한 뒤, 다시 추적을 재개하는 것이다.
본 발명의 일 실시예에 따른 다중클래스 다중물체 추적기(MCMOT)는 각 기능을 실현하는 구성 요소들은 반도체 프로세서와 같은 하드웨어를 통하여 이루어질 수도 있고, 응용 프로그램과 같은 소프트웨어를 통하여 이루어질 수도 있으며, 또는 하드웨어와 소프트웨어의 결합으로 구현될 수도 있다.
특히, 이와 같은 본 발명의 일 실시예에 따른 다중클래스 다중물체 추적기(MCMOT)에서 데이터 처리에 사용되는 기능은 컴퓨터 등 장치로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하며, 이와 같은 기록 매체와 컴퓨터 등 장치의 결합으로 기능 수행에 필요한 데이터나 정보를 입력하거나 출력하고 디스플레이하도록 구현할 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치, 하드 디스크, 이동형 저장장치 등의 저장 매체를 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크(예, 인터넷, 이동통신 네트워크 등)로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장된 형태가 가능하며 네트워크를 통해 실행될 수도 있다.
도 1은 본 발명의 일 실시예에 따른 다중클래스 다중물체 추적을 위한 프레임워크의 주요 개념을 보여준다. 도 1과 같이 본 발명의 일 실시예에 따른 다중클래스 다중물체 추적기(MCMOT)에서 다중클래스 다중물체 추적을 위한 프레임워크는, 입력 영상 시퀀스에 대하여 (a) 관측 모델에 기반한 우도 계산, (b) 추적 세그먼트 생성, (c) 변화점 검출, (d) 추적 궤도 결합을 주요 단계로 하는 수행하는 과정으로 이루어져, 무제한으로 물체의 클래스를 추적할 수 있다. 세그먼트의 드리프트는 변화점 검출과 함께 포워드-백워드 확인을 통해 효과적으로 제어된다.
본 발명의 MCMOT에서는 추적 알고리즘으로 추적한 제안 영역들로 물체를 표현한다. 추적 알고리즘은, 우도 계산에 기초하여 만약 가능한 상호작용이나 가림이 발생했을 경우를 고려하여 추적 궤도를 여러 개의 세그먼트로 나눈다. 오류에 빠지기 쉬운 추적기의 결정을 고려하면, 세그먼트 내에서 관찰하고 지역화한 경계 상자를 비교하여, 변화점 검출을 통해 급격한 변화를 모니터링한다. 모션 기반의 추적 컴포넌트는 Lucas-Kanade 추적기를 적응적으로 적용하여 현재의 추적 포인트로부터 다음 추적 포인트의 영역을 예측한다. 본 발명에서는 깊은 특징점 기반의 다중클래스 물체 검출기를 글로벌 물체 검출기와 지역적 물체 검출기로써 사용한다. 이때, 물체 검출기의 능력에 따라 물체 카테고리의 개수가 확장될 수도 있다.
이하 본 발명의 일 실시예에 따른 다중클래스 다중물체 추적기(MCMOT)의 동작에 대하여 자세히 설명한다.
<다중클래스 다중물체 추적>
본 발명의 MCMOT는 물체 단계의 이벤트인 물체 생성과 물체 소멸, 물체간 단계 이벤트인 상호작용과 물체간의 가림, 추적-단계 이벤트인 추적 생성, 업데이트, 그리고 소멸을 다루기 위한 데이터 중심의 접근 방식을 채택한다. 관측 실패로부터 오는 가능한 드리프트는 이상 검출 방법 기반의 변화점 검출을 활용해 대응한다.
추적 세그먼트는 생성과 소멸 검출을 사용해 정의한다. 오직 시각적으로 보이는 물체만을 추적하며, 만약 가려짐이 발생할 경우 전체적인 추적 궤도를 여러 개의 추적 세그먼트로 분할한다. 만일 물체가 가림이나 노이즈로 인해 모호해질 경우, 해당 추적 세그먼트는 종료한다(물체 소멸과 연관). 그리고 종료한 영역 근처에서 동일한 물체가 다시 발생했을 경우 해당 추적기는 다시 추적을 시작하며 (물체 생성과 연관), 추적 세그먼트를 연속적으로 구축한다.
<관측 모델>
본 발명의 도 1의 "(a) 관측 모델에 기반한 우도 계산"에서, 관측 모델(관측 우도)은 다음과 같이 정의된다. 추적된 개체의 관측 우도는 객체 클래스와 정확한 위치를 모두 평가해야 한다. MCMOT에서는 다른 특성을 지닌 검출기들의 영상 검출을 앙상블하여 입력 영상 시퀀스에 대하여 그에 포함된 물체의 존재와 비존재에 대한 관측 우도를 정확하게 계산한다. 영상의 장면 상태의 차원은 변경될 수 있기 때문에, 측정 값은 시간 t에서의 물체 id의 존재와 비존재를 [수학식1]과 같이 우도의 비율로 정의한다. 비존재의 우도를 측정할 수 없기 때문에, 본 발명에서는 [수학식1]과 같이, 확률 모델의 소프트맥스(Softmax)를 채택한다.
[수학식1]
Figure 112017083426555-pat00001
여기서, oid,t는 시간 t에서의 물체 id(identification)의 존재, øid,t는 시간 t에서의 물체 id(identification)의 비존재, λe는 물체 검출기 e에 대한 가중치, f는 소프트맥스 함수이다.
Figure 112017083426555-pat00002
는 시간 t에서의 물체가 검출되는 경우를 나타낸다.
각 검출기가 자신의 장점과 단점을 가지고 있기 때문에, 이러한 앙상블 접근 방식은 산발적인 노이즈에 강인할 것으로 예상된다. 본 발명에서는 글로벌 물체 검출기 (GT), 색상 검출기 (CT), 그리고 모션 검출기 (MT)로 이루어진 물체 검출기 앙상블을 사용한다. 글로벌 물체 검출기(GT)로서 깊은 특징점 기반의 물체 검출기가 사용되어 깊은 특징점 기반으로 물체를 검출한다. 색상 검출기(CT)는 관찰된 외관 모델과 기준 대상 사이의 유사성 점수를 경계 상자의 RGB(Red, Green, Blue) 또는 HSV(Hue, Saturation, Value) 컬러 히스토그램을 사용하여 Bhattacharyya 거리를 통해 계산한다. 모션 검출기(MT)는 물체의 존재 여부를 장면의 모션 존재 여부를 검출하는 Lucas-Kanade 추적기 기반의 모션 검출기를 사용하여 판정한다.
<추적 세그먼트 생성>
여기서, 본 발명의 도 1의 "(b) 추적 세그먼트 생성"에 관하여 설명한다. 위와 같은 우도 계산에 기초하여, 추적 알고리즘은, 만약 가능한 상호작용이나 가림이 발생했을 경우에 대한 판단을 이용하여 물체 존재 가능성 위치에 대한 세그먼트들을 결정하고 세그먼트들을 연결하는 여러 개의 추적 궤도를 설정하는 방식을 적용한다.
MOCOT는 주어진 영상 시퀸스로부터 이상적인 장면 파티클들을 결정하는 추적 문제로 모델링된다. MCMOT는 현재 장면 상태로부터 다음 장면 상태로 물체들을 재할당하는 단계의 연속적인 반복을 수행한다고 생각할 수 있다. 우선, 생성과 소멸 할당을 엔터티 상태 전이 단계에서 수행한다. 두 번째로, 즉각적인 추적 세그먼트들을 데이터 중심의 마르코프 체인 몬테 카를로 샘플링 단계에서 추적 세그먼트의 모습과 위치가 부드럽게 변화한다는 가정 아래에서 구축한다. 마지막 단계에서는, 추적 드리프트의 검출이 변화점 검출 알고리즘을 통해 실시되어 드리프트 가능성을 방지한다. 변화점은 데이터의 특성이 급작스럽게 변화하는 시간 지점을 의미하며, 이는 드리프트가 발생하는 시작점일 확률이 높다고 기대할 수 있다. 데이터 중심의 마르코프 체인 몬테 카를로 샘플링과 엔터티 상태 전이의 보다 자세한 논의가 아래에서 기술된다.
<데이터 기반 마르코프 체인 몬테 카를로 샘플링>
마르코프 체인 몬테 카를로 샘플링에서, 제안 밀도 함수는 중요한 요소 중 하나이다. 왜냐하면 이는 안정된 분포의 마르코프 체인을 구축하는데 많은 영향을 주기 때문에 추적 성능에 많은 영향을 주는 것이 실제로 확인되었다. 제안 밀도 함수는 측정이 가능해야만 하며, 원하는 목표 분포에 비례하는 제안 분포로부터 효율적으로 샘플되어질 수 있어야 한다. 본 발명에서는 'one object at a time'전략, 즉 각각 하나의 물체 상태가 수정되어진다는 전략이 논문 "Khan, Z., Balch, T., Dellaert, F.: MCMC-based particle filtering for tracking a variable number of interacting targets. TPAMI 27 (2005) 1805-1819", 논문 "Kalal, Z., Mikolajczyk, K., Matas, J.: Forward-backward error: Automatic detection of tracking failures. In: ICPR. (2010)"에 기술된 것을 토대로 적용될 수 있다. 영상 중의 파티클 xt가 시간 t에서 주어졌을 때, xt에 대한 x'의 확률 밀도 함수
Figure 112017083426555-pat00003
의 분포를 다음 시간(t+1)의 파티클을 제안하기 위해 사용한다. MCMOT에서는 위와 같은 논문에서 기술한
Figure 112017083426555-pat00004
수식처럼, 마르코프 체인 몬테 카를로 샘플링을 위한 제안 밀도가 순수한 모션 모델을 따른다고 가정한다. 파티클 또는 물체 상태 xt의 집합인 장면 파티클이 주어졌을 때, 후보 장면 파티클 xt'가 랜덤하게 물체 존재 oid,t를 선택함으로써 결정되고, 물체 존재 oid,t에 의존하는 결정 상태 xt'가 균일 확률 분포 가정 아래에서 결정된다. 본 발명에서는, 데이터 중심의 제안 밀도가 논문 "Zhao, T., Nevatia, R., Wu, B.: Segmentation and tracking of multiple humans in crowded environments. TPAMI 30 (2008) 1198-1211"을 참조하여 보다 나은 마르코프 체인 수용률을 위해 채택되었다. MCMOT에서 새로운 물체 상태 o'id,t가 [수학식2]와 같이 표현된다.
[수학식2]
Figure 112017083426555-pat00005
여기서, λ1 + λ2 =1이다. [수학식2]에서 첫 번째 항은 모션 모델의 형태이며, 두 번째 항은 물체 id와 가까운 모든 검출을 사용한 검출기 앙상블을 나타낸다. 시간 단계 t-1을 위한 사후 확률은 N개(자연수)의 샘플들 (장면 파티클)로 표현되어진다고 가정한다. 현재 시간 t에서 관측이 초기에 주어졌을 때, 현재의 우도는 N개의 샘플을 사용한 마르코프 체인 몬테 카를로 샘플링에 의해 계산한다. 여기서 초기 B개의 샘플이 번인(burn-in) 샘플로 사용된다. B개의 번인(burn-in) 샘플은 초기에 사용하고 이후에 안정된 상태 분포로 수렴시키기 위해 제거한다. 마르코프 체인 몬테 카를로의 보다 실용적인 고려사항들은 논문 "Gilks, W. R., Richardson, S., Spiegelhalter, D. J.: Introducing markov chain monte carlo. Markov chain Monte Carlo in practice 1 (1996)"에서 찾아볼 수 있다.
<엔터티 상태 전이의 판단>
엔터티 상태 전이는 시간 단계 t와 t-1에서의 시간 모델에 따라 두 개의 이항 확률인 생성 상태와 소멸 상태 확률에 따라 예측할 수 있다. 수식
Figure 112017083426555-pat00006
에 따라 물체 id가 위치 (x,y)에 존재할 때, 생성을 긍정하는 상태는 v=1으로, v=0은 생성을 부정하는 상태를 가리킨다. 마찬가지로,
Figure 112017083426555-pat00007
는 소멸 상태를 나타내고, 즉, 소멸을 긍정하는 상태는 v=1으로, v=0은 소멸을 부정하는 상태를 가리킨다. 시간 t에서의 엔터티 상태 사후 확률(posterior probability) PES(oid,t/oid,t-1)은 [수학식3]과 같이 각 경우에 대해 Pb, Pd, Pa, Pø로 나타낼 수 있다.
[수학식3]
Figure 112017083426555-pat00008
만약, 새로운 물체 id가 시간 t의 위치 (x,y)에서 관측 우도에 의해 관찰되고 시간 t-1에서는 관찰되지 않았을 경우,
Figure 112017083426555-pat00009
는 1로 설정되며, 그렇지 않을 경우에는 0으로 설정된다. 만약 물체 id가 시간 t의 위치 (x,y)에서 관찰되지 않고 시간 t-1에서 관찰되었을 경우, 물체 id의 소멸 상태
Figure 112017083426555-pat00010
는 1로 설정되며, 그렇지 않을 경우 이는 0으로 설정된다.
<변화점 검출>
여기서 본 발명의 도 1의 "(c) 변화점 검출"에 관하여 설명하기 위하여, 도 2를 참조한다.
도 2는 본 발명의 일 실시예에 따른 변화점 검출을 설명하기 위한 흐름도이다.
위와 같이 우도 계산에 기초하여, 추적 궤도가 복수의 세그먼트로 나누어지면, 도 2와 같이, MCMOT는 먼저 해당 추적 세그먼트에 대하여, 변화점(change point)을 검출한다(S100). 변화점은 추적궤도 상의 세그먼트들의 데이터가 임계값 이상으로 급작스럽게 변화하는 시간 지점을 의미하며, 이는 추적 궤도의 드리프트 발생의 시작점일 확률이 높은 점이다.
변화점 검출(CPD)에 대한 점수는 변화점 검출 알고리즘에 의해 계산될 수 있다(S200). 만약 해당 변화점에 대해 높은 변화점 점수가 검출되면, 해당 변화점이 포함된 추적 궤도 상의 세그먼트들에 대해 포워드-백워드 에러(FB error)가 체크된다(S300). 포워드-백워드 에러(FB error)는 해당 세그먼트가 드리프트되었는지 여부를 판단하는 기초가 된다. 해당 변화점에 대해 변화점 검출(CPD)에 대한 점수가 낮거나 포워드-백워드 에러(FB error)가 낮으면 해당 세그먼트를 확신하는 세그먼트로서 유지하고(S500), 포워드-백워드 에러(FB error)가 높으면 드리프트된 불안정한 세그먼트로서 제외시킨다(S600). 이와 같이 추적 세그먼트의 드리프트 가능성에 대해 포워드-백워드 확인과 함께 변화점 검출을 통해 효율적으로 추적 궤도 상의 세그먼트들을 결합하여 최종 추적 세그먼트들에 따른 추적 궤도를 결정할 수 있게 된다. 포워드-백워드 에러(FB error) 확인에 대하여는 논문, "Kalal, Z., Mikolajczyk, K., Matas, J.: Forward-backward error: Automatic detection of tracking failures. In: ICPR. (2010)"이 참조될 수 있다. 이와 같이, 변화점의 검출에 대한 점수화를 이용하여 해당 세그먼트를 확신 세그먼트와 드리프트된 불안정 세그먼트로 분류하고, 확신 세그먼트를 유지하고 불안정 세그먼트를 제외시켜, 해당 추적 궤도 상의 세그먼트들을 결합함으로써, 효과적으로 최종 추적 세그먼트들을 결정할 수 있다.
MCMOT는 어수선한 배경에 의해 물체가 혼동되는 경우, 물체를 추적하는 데 실패할 수 있다. MCMOT는 추적을 종료 또는 추적을 계속할지 여부를 결정한다. MCMOT의 드리프트 문제는 트랙 세그먼트를 나타내는 고정된 시계열에서 급작스런 변화점 검출을 통해 조사한다. 높은 반응은 드리프트 발생 가능성이 높은 불확실성을 나타낸다. 추적 드리프트 가능성을 변화점 검출 방법을 통해 결정한다. 여기서 2단계 시계열 학습 알고리즘이 논문 "Takeuchi, J. I., Yamanishi, K.: A unifying framework for detecting outliers and change points from time series. IEEE transactions on Knowledge and Data Engineering 18 (2006) 482-492" 에 기술된 것과 유사하게 적용될 수 있다. 시계열의 아웃라이어를 감소시키기 위해 1단계 시계열의 평균 반응을 사용하여 2단계 시계열이 구축된다. 도 2와 같은 과정에 따라 드리프트를 방지할 수 있다.
예를 들어, 추적 세그먼트에서 높은 변화점 검출 응답이 발견될 경우, 다음과 같이 포워드-백워드 에러(FB error) 확인에서 추적 대상 세그먼트를 역추적함으로써 해당 추적 궤도 상의 세그먼트들에 대한 확신도(Conf)를 추정할 수 있다. 이에 따른 확신도(Conf)를 유지될 확신 세그먼트와 제외될 드리프트된 불안정한 세그먼트의 결정에 이용할 수 있다. 예를 들어, 영상이 주어졌을 때, 영상 프레임의 1부터 t까지 추적 궤도 상의 세그먼트들(
Figure 112017083426555-pat00011
)의 연결 궤도를 나타내는 포워드 궤도 τt 를 예측할 수 있다. τt r
Figure 112017083426555-pat00012
의 역순 연결 상태
Figure 112017083426555-pat00013
로 표현된 백워드 궤도에 해당한다. 랜덤한 추적 경로인 백워드 추적은 올바른 포워드 추적과 유사할 것으로 기대한다. 추적 세그먼트의 확신도는 포워드와 백워드 두 가지 추적 세그먼트 사이의 유클리디안 거리
Figure 112017083426555-pat00014
로 정의된다. 여기서 거리 함수는
Figure 112017083426555-pat00015
와 같이 포워드와 백워드 두 가지 추적 세그먼트에 기초한 유효한 추적궤도들(시작점과 끝점 사이)의 유클리디안 거리로써 표현될 수 있다. 예를 들어, 포워드-백워드 에러(FB error)가 임계치를 넘지만 이와 같은 유클리디안 거리(Conf)가 작고 FB error가 소정의 값 이하이면, 확신 세그먼트가 될 수 있다.
위와 같이 제안된 본 발명의 MCMOT 알고리즘은 다음과 같이 요약할 수 있다.
Figure 112017083426555-pat00016
이하, 본 발명의 MCMOT 실험에 대한 보다 자세한 내용에 대해 기술하고, 도전적인 영상 시퀸스에서 최첨단의 방법들과 비교를 통해 성능을 설명한다.
<실험 설정>
글로벌 물체 검출기와 지역적 물체 검출기를 구축하기 위해, 본 발명에서는 공개적으로 사용 가능한 16개의 레이어를 가진 VGG-Net [논문 참조, Simonyan, K., Zisserman, A.: Very deep convolutional networks for large-scale image recognition. In: arXiv preprint arXiv:1409.1556. (2014)] 과 ResNet [논문 참조, He, K., Zhang, X., Ren, S., Sun, J.: Deep residual learning for image recognition. arXiv pre-print arXiv:1512.03385. (2015)]을 ImageNet 물체 분류 데이터셋에서 사전-학습시킨 모델을 사용한다. 초기 모델을 ImageNet 챌린지 물체 검출 데이터셋 (ImageNet DET)을 활용해 280,000 번의 반복과 학습율(learning rate) 0.001의 설정으로 미세조정(fine-tune)을 진행한다. 280,000 번의 반복 이후에, learning rate를 1/10으로 더 낮춘 값으로 70,000 번의 반복을 수행한다. 제안 영역 생성을 위해서, 빠르고 정확한 제안영역을 컨볼루션 특징을 공유하는 방법으로 생성해낼 수 있는 RPN [논문참조, Ren, S., He, K., Girshick, R., Sun, J.: Faster R-CNN: Towards real-time object detection with region proposal networks. In: NIPS. (2015)]을 적용한다. 초기 모델을 구축한 뒤, 각각의 데이터셋에 대해 fine-tuning을 위에서 기술한 방법과 유사하게 진행하여 각 도메인에 적응적인 모델을 구축한다. 변화점 검출 알고리즘에는 효과적인 계산량과 높은 검출 정확도를 보이는 2단계 시계열 학습 알고리즘 [논문참조, Takeuchi, J. I., Yamanishi, K.: A unifying framework for detecting outliers and change points from time series. IEEE transactions on Knowledge and Data Engineering 18 (2006) 482-492]이 사용되었다. 변화점은 변화점 점수가 변화점 점수 임계치보다 높을 경우에 고려한다. 변화점 점수 임계치는 경험적으로 0.3으로 설정한다.
<실험 데이터셋>
현존하는 다중 물체 추적 벤치마크 데이터셋은 오직 2가지 또는 3가지 클래스에 대해 다루고 있는 상태이. 본 발명에서는 MCMOT를 30가지 물체 클래스를 지닌 ImageNet VID [논문참조, Russakovsky, O., Deng, J., Su, H., Krause, J., Satheesh, S., Ma, S., ... Berg, A. C.: Imagenet large scale visual recognition challenge. IJCV 115 (2015) 211-252] 와 최신의 다중 물체 추적 벤치마크인 MOT 2016 [논문참조, Magee, D. R.: Tracking multiple vehicles using foreground, background and motion models. Image and vision Computing 22 (2004) 143-155] 벤치마크 데이터셋을 활용해 성능을 평가한다. 최첨단의 방법들과 MCMOT의 성능 비교를 ImageNet VID와 MOT 벤치마크 2016에서 수행한다.
<ImageNet VID>
본 발명에서 제안하는 알고리즘을 ImageNet 영상 물체 검출(VID, object detection from Videos, Video Image Detection 또는 Visual Identicalness Detection) 데이터셋을 통해 검증한다. ImageNet VID 는 영상 데이터에 대한 물체 검출 성능을 평가하기 위해 사용되는 데이터셋이다. 그럼에도 불구하고, 해당 데이터셋은 다중클래스 다중물체 추적을 평가하는데도 사용할 수 있다. 왜냐하면 해당 데이터셋은 현실세계에서 움직이는 카메라를 통해 녹화된 영상 시퀸스들로 구성되어 있으며, 30가지 물체 카테고리가 장면과 시간 흐름에 따라 개수가 변화하기 때문이다. 장면에 존재하는 물체 카테고리들은 각기 다른 시점에서 촬영되고 다양한 단계의 가려짐이 존재한다. 다른 최첨단의 방법들과의 쉬운 비교를 위해, 해당 데이터셋에서 측정하는 MCMOT의 성능은 우선적으로 ImageNet 챌린지 [논문참조, Russakovsky, O., Deng, J., Su, H., Krause, J., Satheesh, S., Ma, S., ... Berg, A. C.: Imagenet large scale visual recognition challenge. IJCV 115 (2015) 211-252]에서 사용된 평균 정밀도 (mean average precision, mAP)를 기준으로 측정한다. 본 발명에서 사용된 ImageNet VID 데이터셋은 최초로 공개된 버전을 사용하며, 이는 학습, 검증, 그리고 테스트 세 가지로 구성되어 있다.
<MOT Benchmark 2016>
본 발명에서 제안하는 다중 물체 추적 프레임워크는 MOT Benchmark [논문참조, Milan, A., Leal-Taixe, L., Reid, I., Roth, S., Schindler, K.: MOT16: A Benchmark for Multi-Object Tracking. arXiv preprint arXiv:1603.00831. (2016)]를 통해 성능을 측정한다. MOT 벤치마크는 최신의 다중 물체 추적 벤치마크이다. MOT 벤치마크는 몇몇의 새로운 도전적인 시퀸스들과 기존 다중 물체 추적 커뮤니티에서 범용적으로 사용하던 영상 시퀸스들로 구성되어 있다. MOT 벤치마크 2016은 총 14개의 제약적인 환경에서 고정된 카메라와 움직이는 카메라로 데이터를 작성하였다. 모든 시퀸스들은 오직 보행자만을 포함하고 있으며, 이러한 도전적인 시퀸스들은 다양한 설정들로 구성되어 있다. 예를 들면 다른 시점이나 다른 날씨 상태 등이 이러한 설정에 포함된다. 따라서, 특정 시나리오나 장면에 맞춰진 추적 알고리즘은 성능발휘를 제대로 할 수 없다. 본 발명에서는 MOT Benchmark Development Kit에 포함된 CLEAR MOT 추적 측정[논문참조, Bernardin, K., Stiefelhagen, R.: Evaluating multiple object tracking performance: the CLEAR MOT metrics. EURASIP Journal on Image and Video Processing 2008 (2008)]을 사용해 성능 평가를 진행한다.
<MCMOT 변화점 검출 분석>
도 3a 및 도 3b는 본 발명의 MCMOT를 적용하여 MOT16-02와 MOT16-09 시퀸스의 세그먼트로부터 변화점을 검출한 예시이다. 도 3a 및 도 3b에는 아래쪽에 해당 영상 프레임에 대한 관측 우도와 검출된 변화점의 그래프를 나타내었다. 높은 변화점 반응은 높은 불확실성과 함께 높은 드리프트 발생 가능성을 나타낸다. 본 발명에서 제안하는 방법이 도전적인 환경에서 효과적으로 드리프트를 검출할 수 있음을 그림에서 확인할 수 있다.
제안하는 MCMOT 변화점 검출 컴포넌트를 검증하기 위해서, MOT 2016 학습 데이터로부터 두 개의 시퀸스인 MOT16-02(도 3a)와 MOT16-09(도 3b)를 선택하였다. 변화점 검출을 위해서, 만약 변화점 점수가 변화점 임계치인 0.3 보다 높을 경우 이를 변화점으로 인정하였다. 도 3a 및 도 3b에서와 같이, 낮은 우도 또는 급작스런 우도의 변화하는 변화점 가능성을 검출하기 위한 중요한 요소이다. MOT16-02(도 3a) 시퀸스의 추적 결과를 보면, 모션 블러된, 상체만 존재하는 사람이 이동함에 따라 불안정한 우도가 영상 프레임 #438까지 지속됨을 관찰할 수 있다. 이러한 경우에, 드리프트가 발생하는 영역의 제안 영역은 불안정하기 때문에, 우도의 강한 변동을 관측할 수 있다. 본 발명의 변화점 검출 알고리즘은 이러한 변동을 검출하여 높은 변화점 점수를 영상 프레임 #440에서 나타낸다. MOT16-09(도 3b) 시퀸스 또한 마찬가지로 앞서 설명한 상황과 비슷한 현상을 관측할 수 있다. 이러한 관측 결과로 볼 때, 변화점 검출 방법이 추적 드리프트 가능성을 암시적으로 처리한다는 것을 알 수 있다.
<ImageNet VID 성능 평가>
아래 [표1]은 ImageNet VID 검증 셋에서의 다른 컴포넌트의 영향력 측정 결과를 보여준다.
[표1]
Figure 112017083426555-pat00017
공식적인 ImageNet 챌린지 테스트 서버가 매년 개최되는 대회에 우선적으로 사용되고 있으며 평가 횟수에 제한이 있기 때문에, 본 발명에서의 ImageNet VID 성능 평가는 실용적으로 테스트 셋 대신 검증 셋에서 평가를 진행한다[논문참조, Kang, K., Ouyang, W., Li, H., Wang, X.: Object detection from video tubelets with convolutional neural networks. In: arXiv preprint arXiv:1604.04053. (2016)]. ImageNet VID 학습/검증 실험에서, 모든 학습과 테스트에 사용되는 이미지들은 이미지의 짧은 쪽의 길이가 600 픽셀이 되도록 스케일링한다. 해당 스케일링 값은 VGG16(데이터셋 분류방법)이나 ResNet을 fine-tuning하는 과정에서 GPU(Graphical Processing Unit) 메모리의 한계 때문에 선택하였다.
[표1]은 MCMOT의 각 컴포넌트가 주는 영향력을 보여준다. 각각의 방법은 MCMOT와 변화점 알고리즘(MCMOT CPD), 그리고 MCMOT와 변화점 알고리즘에 포워드-백워드 확인(MCMOT CPD FB)로 표기한다. 세그먼트의 평균 관측 점수가 0.3보다 낮은 세그먼트들은 필터링한 뒤 평가를 진행하였다. [표1]에서 볼 수 있듯이, MCMOT CPD를 적용함으로써 기본 검출 성능으로부터 9.8%의 상당한 개선을 얻은 71.1%에 도달함을 확인할 수 있으며, 포워드-백워드 확인을 적용한 후에는 종합적으로 74.5% mAP를 ImageNet VID 검증 셋에서 얻을 수 있음을 확인할 수 있다.
아래 [표2]는 ImageNet VID 검증 셋에서 최첨단 알고리즘들과의 추적 성능 비교 결과를 나타낸다.
[표2]
Figure 112017083426555-pat00018
[표2]는 MCMOT의 정확도 요약과 함께, 281개의 검증 영상 시퀸스들을 통해 평가를 진행, 최첨단의 알고리즘들과의 비교를 수행한다. 본 발명에서 제안하는 MCMOT는 종합적으로 74.5% mAP를 달성하였으며, 이는 최첨단의 알고리즘인 T-CNN [논문참조, Kang, K., Li, H., Yan, J., Zeng, X., Yang, B., Xiao, T., Ouyang, W.: T-cnn: Tubelets with convolutional neural networks for object detection from videos. In: arXiv preprint arXiv:1604.02532. (2016)]과 같은 방법보다 높은 점수임을 확인할 수 있다. 이러한 결과는 주로 높은 정확도의 세그먼트를 변화점 검출을 통해 구축할 수 있는 MCMOT 접근 방법 때문이다.
도 4는 본 발명의 MCMOT를 적용하여 ImageNet VID 데이터셋의 검증 시퀸스에서의 MCMOT 추적 결과를 나타낸 예시이다. 각각의 물체 경계 상자에 대하여, 식별자(identifier) 번호가 부여되고 각 물체에 예측된 클래스, 그리고 해당 세그먼트의 신뢰도 점수 등을 관리해 식별자와 함께 영상에 표시될 수 있다. 본 그림들은 디지털 기기로 확대해서 보는 것이 권장된다.
도 4에서 확인할 수 있듯이, MCMOT를 사용했을 때, 무제한적이고 다양한 종류의 클래스를 높은 정확도로 추적하는 것을 볼 수 있다.
<MOT Benchmark 2016 성능 평가>
본 발명의 MCMOT를 평가하기 위해 MOT 챌린지 2016 벤치마크에서 제안하는 접근방법과 다른 최첨단의 알고리즘들과의 비교를 진행한다. MOT 2016 실험을 위해서, 모든 학습 이미지와 테스트 이미지는 이미지의 짧은 쪽 길이가 800 픽셀이 되도록 스케일한다. 위에서사용한 스케일 픽셀 값보다 큰 값이 선택된 이유는 평균적으로 보행자의 경계상자가 ImageNet VID보다 크기가 작기 때문이다. 추적 실행 시간은 물체 검출 시간을 제외하고 측정하였다.
아래 [표3]은 MOT 벤치마크 2016에서의 추적 성능 평가 및 비교 결과를 나타낸다(2016년 7월 14일 결과 기준). ↑표기는 높은 점수가 더 나은 성능을 보임을 나타내고, ↓표기는 낮은 점수가 더 나은 성능을 보임을 나타낸다. [표3]은 MCMOT의 평가 측정 기준을 요약하고, 다른 최첨단의 방법과의 비교를 테스트 영상 시퀸스에서 수행한 결과이다.
[표3]
Figure 112017083426555-pat00019
도 5는 본 발명의 MCMOT를 적용하여 테스트 영상 시퀸스에서 MCMOT의 추적 결과를 시각화한 예시를 보여준다. 도 5에서는 MOT Benchmark 2016 테스트 시퀸스에서의 MCMOT 추적 결과 예시이다. 각 프레임은 매 100 프레임마다 샘플링하였다. 각 경계 상자의 색상은 타겟의 identifier을 표현한다. 해당 그림은 컬러 이미지 환경에서 보는 것이 권장된다.
[표3]에서도 볼 수 있듯이, MCMOT가 이전에 공개된 최첨단의 방법들보다 종합적인 성능 측정 기준인 MOTA(Multi Object Tracking Accuracy)에서 보다 뛰어난 결과를 보여준다. 또한 훨씬 적은 숫자의 ML(mostly lost targets)를 큰 폭으로 달성함을 보여준다. 본 발명에서 제안하는 방법이 대부분의 평가 기준에서 뛰어난 결과를 보여줌에도 불구하고, 추적기의 속도를 측정하는 초당 추적기 프레임 속력, tracker speed in frames per second (HZ)에서도 다른 추적기보다 더욱 빠른 속도를 보임을 확인할 수 있다. 이러한 결과는 간결한 마르코프 체인 몬테 카를로 기반 추적 구조와 함께 엔터티 상태 전이, 그리고 변화점 검출을 통한 선택적인 포워드-백워드 에러 확인을 통해 다중 물체 추적에서 추적 속도를 향상시켰기 때문이다. 하지만, 최첨단의 알고리즘들에 비해 높은 identity switch (IDS)와 높은 fragmentation (FRAG) 가 관측됨을 확인할 수 있는데 이는 추적 세그먼트 간의 identifier 맵핑이 부족하기 때문이다. 더욱 중요한 것은, 제안하는 MCMOT가 다른 두 개의 데이터셋에서 최첨단의 성능을 달성하였으므로, 제안하는 방법이 어떠한 종류의 상황과 함께 무제한의 클래스 개수에서 범용적인 다중클래스 다중물체 추적 적용 가능성이 높음을 증명하였다.
상술한 바와 같이, 본 발명의 일 실시예에 따른 다중클래스 다중물체 추적 장치(MCMOT)는, ImageNet VID와 MOT Benchmark 2016에서 최첨단의 알고리즘들과 비교하여 보다 뛰어난 성능 결과를 보여주었다. MCMOT는 물체 검출 결과를 바탕으로 무제한의 물체 클래스의 연결관계를 형성한다. 변화점 검출 모델이 추적 드리프트로 인해 발생하는 급작스러운 변화나 이상점을 관측한다. Lucas-Kanade 기반의 모션 검출기와 컨볼루션 신경망 기반의 물체 검출기의 앙상블을 기반으로 우도를 계산하였다.
따라서, 본 발명의 다중클래스 다중물체 추적 장치(MCMOT)에 따라, 다양하게 변화하는 다중물체 무제한-클래스를 이상적으로 움직이는 제안 영역의 우도(likelihood)를 공식화함으로써 추적할 수 있다. 오직 보행자나 자동차와 같은 제한된 종류의 물체들에 한정하여 우도를 추정하던 기존 기술과 달리, 효율적인 컨볼루션 신경망 기반의 다중클래스 물체 검출기가 다중 물체 클래스의 우도를 계산하기 위해 적용될 수 있다. 또한, 정적인 관측과 동적인 관측을 기반으로 한 변화점 검출 알고리즘이 추적의 실패를 평가한다. 추적 세그먼트가 표현하는 변화 없는 시계열 내의 급작스런 변화점을 검출함으로써, 다중 물체 추적의 드리프트를 조사할 수 있다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (4)

  1. 물체 추적기에서의 입력 영상 시퀀스에 대한 다중클래스 다중물체 추적 방법에 있어서,
    입력 영상 시퀀스에 포함된 물체의 존재와 비존재에 대한 관측 우도를 계산하는 단계;
    상기 우도의 계산에 기초하여, 물체 존재 가능성 위치에 대한 세그먼트들을 결정하고 세그먼트들을 연결하는 복수의 추적 궤도를 설정하는 단계;
    추적 궤도 상의 상기 세그먼트들의 데이터가 임계값 이상으로 변화하는 시간 지점에 대한 변화점을 검출하는 단계; 및
    상기 변화점이 포함된 추적 궤도 상의 세그먼트들에 대해 포워드-백워드 확인을 수행하고, 확인 결과에 기초하여 추적 궤도 상의 세그먼트들을 결합하여 최종 추적 세그먼트들을 결정하는 단계
    를 포함하는 것을 특징으로 하는 다중클래스 다중물체 추적 방법.
  2. 제1항에 있어서,
    상기 결정하는 단계에서, 상기 변화점의 검출에 대한 점수화를 이용하여 해당 세그먼트를 확신 세그먼트와 드리프트된 불안정 세그먼트로 분류하고, 상기 확신 세그먼트를 유지하고 상기 불안정 세그먼트를 제외시켜, 해당 추적 궤도 상의 세그먼트들을 결합하는 것을 특징으로 하는 다중클래스 다중물체 추적 방법.
  3. 제2항에 있어서,
    상기 결정하는 단계에서, 해당 추적 궤도 상의 세그먼트들에 대해 포워드-백워드 에러로서의 확신도를 추정하여 상기 확신 세그먼트의 유지와 상기 불안정 세그먼트의 제외에 이용하되, 상기 확신도는 소정의 시간 동안의 포워드 추적에 기초한 세그먼트들 연결 궤도와 백워드 추적에 기초한 그 역순의 연결궤도 사이의 유클리디안 거리를 이용해 계산되는 것을 특징으로 하는 다중클래스 다중물체 추적 방법.
  4. 물체 추적기에서의 입력 영상 시퀀스에 대한 다중클래스 다중물체 추적을 수행하기 위한 컴퓨터로 읽을 수 있는 코드로 구현된 기록 매체에 있어서,
    입력 영상 시퀀스에 포함된 물체의 존재와 비존재에 대한 관측 우도를 계산하는 기능;
    상기 우도의 계산에 기초하여, 물체 존재 가능성 위치에 대한 세그먼트들을 결정하고 세그먼트들을 연결하는 복수의 추적 궤도를 설정하는 기능;
    추적 궤도 상의 상기 세그먼트들의 데이터가 임계값 이상으로 변화하는 시간 지점에 대한 변화점을 검출하는 기능; 및
    상기 변화점이 포함된 추적 궤도 상의 세그먼트들에 대해 포워드-백워드 확인을 수행하고, 확인 결과에 기초하여 추적 궤도 상의 세그먼트들을 결합하여 최종 추적 세그먼트들을 결정하는 기능
    을 수행하는 기록 매체.
KR1020170109109A 2017-08-29 2017-08-29 변화점 검출을 활용한 다중클래스 다중물체 추적 방법 KR102465960B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170109109A KR102465960B1 (ko) 2017-08-29 2017-08-29 변화점 검출을 활용한 다중클래스 다중물체 추적 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170109109A KR102465960B1 (ko) 2017-08-29 2017-08-29 변화점 검출을 활용한 다중클래스 다중물체 추적 방법

Publications (2)

Publication Number Publication Date
KR20190023389A KR20190023389A (ko) 2019-03-08
KR102465960B1 true KR102465960B1 (ko) 2022-11-11

Family

ID=65801415

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170109109A KR102465960B1 (ko) 2017-08-29 2017-08-29 변화점 검출을 활용한 다중클래스 다중물체 추적 방법

Country Status (1)

Country Link
KR (1) KR102465960B1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11727266B2 (en) 2019-08-02 2023-08-15 International Business Machines Corporation Annotating customer data
US11797842B2 (en) * 2019-08-02 2023-10-24 International Business Machines Corporation Identifying friction points in customer data
CN111002980B (zh) * 2019-12-10 2021-04-30 苏州智加科技有限公司 基于深度学习的道路障碍物轨迹预测方法和系统
CN111182354B (zh) * 2019-12-24 2022-05-10 中移(杭州)信息技术有限公司 视频评分推荐方法、装置、设备及计算机可读存储介质
CN112183450B (zh) * 2020-10-15 2024-05-28 成都思晗科技股份有限公司 一种多目标跟踪方法
CN112308011B (zh) * 2020-11-12 2024-03-19 湖北九感科技有限公司 多特征联合目标检测方法及装置
CN113838091B (zh) * 2021-09-23 2023-12-12 哈尔滨工程大学 一种稀疏目标跟踪方法
WO2023089678A1 (ja) * 2021-11-17 2023-05-25 日本電気株式会社 分類装置、分類方法及びプログラム
CN114972417B (zh) * 2022-04-02 2023-06-30 江南大学 动态轨迹质量量化和特征重规划的多目标跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165688A (ja) 2003-12-02 2005-06-23 Fuji Xerox Co Ltd 複数対象物追跡方法及びシステム
JP2005165791A (ja) 2003-12-03 2005-06-23 Fuji Xerox Co Ltd 対象物の追跡方法及び追跡システム
KR101409810B1 (ko) 2012-10-24 2014-06-24 계명대학교 산학협력단 파티클 필터를 이용한 움직임 카메라에서의 실시간 객체 추적 방법
CN106970370A (zh) 2017-04-25 2017-07-21 西安电子科技大学 基于混沌神经网络的雷达多目标跟踪优化方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102399974B1 (ko) * 2015-05-20 2022-05-19 한화테크윈 주식회사 다중 객체 추적 방법 및 이를 위한 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165688A (ja) 2003-12-02 2005-06-23 Fuji Xerox Co Ltd 複数対象物追跡方法及びシステム
JP2005165791A (ja) 2003-12-03 2005-06-23 Fuji Xerox Co Ltd 対象物の追跡方法及び追跡システム
KR101409810B1 (ko) 2012-10-24 2014-06-24 계명대학교 산학협력단 파티클 필터를 이용한 움직임 카메라에서의 실시간 객체 추적 방법
CN106970370A (zh) 2017-04-25 2017-07-21 西安电子科技大学 基于混沌神经网络的雷达多目标跟踪优化方法

Also Published As

Publication number Publication date
KR20190023389A (ko) 2019-03-08

Similar Documents

Publication Publication Date Title
KR102465960B1 (ko) 변화점 검출을 활용한 다중클래스 다중물체 추적 방법
Lee et al. Multi-class multi-object tracking using changing point detection
Xiong et al. Spatiotemporal modeling for crowd counting in videos
JP6625220B2 (ja) シーン内のオブジェクトのアクションを検出する方法及びシステム
Jeyakar et al. Robust object tracking with background-weighted local kernels
Papadourakis et al. Multiple objects tracking in the presence of long-term occlusions
Chan et al. Vehicle detection and tracking under various lighting conditions using a particle filter
CN110998594A (zh) 检测动作的方法和系统
US9672634B2 (en) System and a method for tracking objects
EP2461292A1 (en) Mobile body detection apparatus and mobile body detection method
EP2352128B1 (en) Mobile body detection method and mobile body detection apparatus
Mahapatra et al. Human recognition system for outdoor videos using Hidden Markov model
Porikli et al. Multi-kernel object tracking
Hassan et al. An adaptive sample count particle filter
Zhu et al. Tracking multiple objects through occlusion with online sampling and position estimation
Tyagi et al. A review of deep learning techniques for crowd behavior analysis
Makris et al. A hierarchical feature fusion framework for adaptive visual tracking
Savitha et al. Motion detection in video surviellance: A systematic survey
Wang et al. Tracking objects through occlusions using improved Kalman filter
Tang et al. Salient moving object detection using stochastic approach filtering
KR101982942B1 (ko) 객체 추적 방법 및 이를 수행하는 장치들
Narayana Automatic tracking of moving objects in video for surveillance applications
Jeyabharathi New feature descriptor: Extended Symmetrical-Diagonal Hexadecimal Pattern for efficient background subtraction and object tracking
Truong et al. Single object tracking using particle filter framework and saliency-based weighted color histogram
Kapoor et al. Fast tracking algorithm using modified potential function

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant