KR20240016866A - 객체 추적 방법 및 장치 - Google Patents

객체 추적 방법 및 장치 Download PDF

Info

Publication number
KR20240016866A
KR20240016866A KR1020230030463A KR20230030463A KR20240016866A KR 20240016866 A KR20240016866 A KR 20240016866A KR 1020230030463 A KR1020230030463 A KR 1020230030463A KR 20230030463 A KR20230030463 A KR 20230030463A KR 20240016866 A KR20240016866 A KR 20240016866A
Authority
KR
South Korea
Prior art keywords
term
filter
long
short
frame image
Prior art date
Application number
KR1020230030463A
Other languages
English (en)
Inventor
첸 이웨이
판 시양
위 자첸
박창범
이현정
이서형
유병인
왕 창
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US18/355,725 priority Critical patent/US20240046486A1/en
Publication of KR20240016866A publication Critical patent/KR20240016866A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 개시는 객체 추적 방법 및 장치에 관한 것으로, 객체 추적 방법은 비디오 시퀀스에서 상기 현재 프레임 이미지의 예측을 기반으로 획득하는 단기 필터와 이전에 획득한 장기 필터이거나 객체 템플릿 특징 풀을 기반으로 이전에 획득한 장기 필터를 최적화하여 획득하는 장기 필터를 융합하여 혼합 필터를 획득하는 단계 및 상기 혼합 필터를 기반으로 현재 프레임 이미지에서 객체 추적을 수행하는 단계를 포함할 수 있다.

Description

객체 추적 방법 및 장치{METHOD AND APPARATUS FOR TRACKING OBJECT}
이하의 일 실시 예들은 이미지 처리 분야에 관한 것으로, 특히 객체 추적 방법 및 장치에 관한 것이다.
시각적 객체 추적(visual object tracking) 기술은 컴퓨터 비전에서 중요한 방향으로, 구체적인 작업은 비디오 시퀀스에서 제1 프레임 이미지와 주어진 객체의 바운딩 박스(bounding box)에 따라 후속 프레임 이미지에서 객체의 바운딩 박스를 지속적으로 예측하는 것이다. 그 핵심 아이디어는 제1 프레임 이미지에 표시된 객체에 따라 템플릿(template) 정보를 추출하고, 후속 비디오 프레임 검색 영역(search region)에서 서로 다른 후보 위치와 템플릿 정보 간의 일치도를 계산하고, 일치도가 제일 높은 위치를 선택하여 객체의 위치를 결정하는 것이다.
또한, 객체 추적에서 객체의 특징 표현(feature representation)은 전체 추적 시스템의 성능에 영향을 미치는 핵심이다. 기존의 객체 추적 방법에서는 주로 수동 특징(hand-crafted feature)과 깊이 특징(deep feature)이 사용된다. 일반적으로 사용되는 수동 특징에는 방향 기울기 히스토그램(HOG, Histogram of Oriented Gradients), 스케일 불면 특징(SIFT, Scale Invariant Feature), 그레이스케일 특징(Gray) 등이 있다. 깊이 특징은 매개변수 모델을 통해 대량의 샘플을 훈련 및 학습하여 얻어지며, 수동 특징보다 더 강한 구별 가능성과 견고성을 갖는다. 최근 몇 년 동안 깊이 특징을 기반으로 하는 객체 추적 방법의 획기적인 발전으로 견고성(robustness)과 정확도(accuracy)면에서 수공 특징 기반의 기존 방법을 넘어섰으며, 특히 컨볼루션 신경망(CNN)을 사용하여 얻은 깊이 특징이 그러하다.
또한 최근 몇 년 동안 필터 기술과 깊이 특징은 시각적 객체 추적 분야에서 높은 성능을 달성했으며 폭 넓은 주목을 받으며 적용되고 있다. 필터를 얻는 다양한 방법에 따라 오프라인의 트랜스덕티브(transductive) 학습을 기반으로 한 객체 추적과 온라인 귀납적 학습을 기반으로 한 객체 추적으로 나눌 수 있다. 그러나 이 두 필터를 얻는 기존 방법에는 일정한 한계가 존재한다. 예를 들어, 오프라인의 트랜스덕티브(transductive) 학습 기반의 객체 추적 방법은 필터를 예측할 때 보조 프레임의 정확도에 의존하는데, 보조 프레임 선택에 큰 오차가 있을 경우 추적기의 성능에 큰 영향을 미치게 된다. 따라서 이러한 유형의 추적기의 안정성은 그리 강하지 않다. 또 다른 예로, 온라인 귀납적 학습 기반의 객체 추적 방법은 필터 매개변수를 훈련/최적화하기 위해 간격을 두고 온라인 업데이트하는 방법을 사용하기 때문에, 추적 과정에서 객체의 급격한 변형을 잘 처리할 수 없다.
본 발명은 객체 추적 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명의 일 실시 예에 따른 객체 추적 방법은, 단기 필터와 장기 필터를 융합하여 혼합 필터를 획득하는 단계; 및 상기 혼합 필터를 기반으로 현재 프레임 이미지에서 객체 추적을 수행하는 단계를 포함하고, 상기 단기 필터는, 비디오 시퀀스에서 상기 현재 프레임 이미지의 예측을 기반으로 획득하고, 상기 장기 필터는, 이전에 획득한 장기 필터이거나 객체 템플릿 특징 풀을 기반으로 상기 이전에 획득한 장기 필터를 최적화하여 획득할 수 있다.
이때, 상기 혼합 필터를 획득하는 단계 이전에, 상기 비디오 시퀀스의 제1 프레임 이미지, 상기 현재 프레임 이미지 및 보조 프레임 이미지를 기반으로 상기 현재 프레임 이미지에 대응하는 상기 단기 필터를 예측하여 획득하는 단계를 더 포함하고, 상기 보조 프레임 이미지는, 상기 비디오 시퀀스에서 추적 성공 신뢰도가 제1 임계값보다 높고 시간 순서상 상기 현재 프레임에 가장 가까운 이미지 프레임일 수 있다.
이때, 상기 단기 필터를 예측하여 획득하는 단계는, 특징 추출 네트워크를 통해 상기 제1 프레임 이미지의 객체 탐색 영역인 제1 탐색 영역, 상기 보조 프레임 이미지의 객체 탐색 영역인 보조 탐색 영역 및 상기 현재 프레임 이미지의 객체 탐색 영역인 현재 탐색 영역에 대해 특징을 추출하여 상기 제1 탐색 영역의 깊이 특징인 제1 깊이 특징, 상기 보조 탐색 영역의 깊이 특징인 보조 깊이 특징 및 상기 현재 탐색 영역의 깊이 특징인 현재 깊이 특징을 획득하는 단계; 상기 제1 깊이 특징 및 상기 제1 프레임 이미지의 객체의 바운딩 박스인 제1 바운딩 박스, 상기 보조 깊이 특징 및 상기 보조 프레임 이미지의 객체의 바운딩 박스인 보조 바운딩 박스에 대해 객체 상태 인코딩을 수행하여, 객체 상태 인코딩 벡터를 획득하는 단계; 상기 현재 깊이 특징에 대해 인코딩을 수행하여 현재 프레임 인코딩 벡터를 획득하는 단계; 훈련된 트랜스포머 모델로 상기 객체 상태 인코딩 벡터와 상기 현재 프레임 인코딩 벡터를 처리하여 히든 특징을 얻는 단계; 및 상기 히든 특징을 선형 변환하여 상기 단기 필터를 획득하는 단계를 포함하고, 상기 제1 탐색 영역은, 상기 제1 바운딩 박스에 따라 결정되고, 상기 보조 탐색 영역은, 상기 보조 바운딩 박스에 따라 결정되고, 상기 현재 탐색 영역은, 상기 현재 프레임 이미지 이전의 N 프레임 이미지(상기 N은 1보다 크거나 같은 정수임)를 기반으로 예측된 객체의 바운딩 박스인 예측 바운딩 박스에 따라 결정될 수 있다.
이때, 상기 혼합 필터를 획득하는 단계 이전에, 상기 장기 필터를 획득하는 단계를 더 포함하고, 상기 장기 필터를 획득하는 단계는, 상기 현재 프레임 이미지가 상기 비디오 시퀀스의 기설정된 위치에 있는 이미지 프레임인 경우, 객체 템플릿 특징 풀을 기반으로 이전에 획득한 장기 필터를 최적화하여 상기 장기 필터를 획득하거나, 또는 상기 현재 프레임 이미지가 상기 비디오 시퀀스의 기설정된 위치에 있는 이미지 프레임이 아닌 경우, 이전에 획득한 장기 필터를 상기 장기 필터로 획득할 수 있다.
이때, 상기 이전에 획득한 장기 필터의 최적화는, 상기 객체 템플릿 특징 풀에서 소정 개수의 깊이 특징 및 상응하는 객체의 바운딩 박스를 추출하여 필터 훈련 세트로 결정하는 단계; 및 상기 필터 훈련 세트를 기반으로, 필터 최적화 알고리즘을 통해 상기 이전에 획득한 장기 필터에 대해 훈련 및/또는 최적화하는 단계를 포함할 수 있다.
이때, 상기 단기 필터와 상기 장기 필터를 융합하여 혼합 필터를 획득하는 단계는, 상기 단기 필터 및 상기 장기 필터를 이용하여 각각 상기 현재 프레임 이미지에 대해 상관 처리를 수행하여, 단기 객체 포지셔닝 응답맵(response map) 및 장기 객체 포지셔닝 응답맵을 획득하는 단계; 및 상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 획득하는 단계를 포함할 수 있다.
이때, 상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 획득하는 단계는, 상기 단기 객체 포지셔닝 응답맵의 단기 포지셔닝 맵 품질인 단기 맵 품질 및 상기 장기 객체 포지셔닝 응답맵의 장기 포지셔닝 맵 품질인 장기 맴 품질을 평가하는 단계; 상기 단기 맵 품질 및 상기 장기 맴 품질과 제2 기설정된 임계값의 비교 결과에 따라, 상기 단기 필터의 혼합 가중치 및 상기 장기 필터의 혼합 가중치를 결정하는 단계; 및 상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 얻는 단계를 포함할 수 있다.
이때, 상기 단기 필터의 혼합 가중치 및 상기 장기 필터의 혼합 가중치를 결정하는 단계는, 상기 단기 맵 품질이 상기 제2 기설정된 임계값보다 크거나 같고, 상기 장기 맵 품질이 상기 제2 기설정된 임계값보다 작을 경우, 상기 단기 필터의 혼합 가중치를 1로 설정하고 상기 장기 필터의 혼합 가중치를 0으로 설정하는 단계; 또는 상기 단기 맵 품질이 상기 제2 기설정된 임계값보다 작고 상기 장기 맴 품질이 상기 제2 기설정된 임계값보다 크거나 같을 경우, 상기 단기 필터의 혼합 가중치를 0으로 설정하고 상기 장기 필터의 혼합 가중치를 1로 설정하는 단계; 또는 상기 단기 필터의 혼합 가중치 및 상기 장기 맴 품질이 모두 상기 제2 기설정된 임계값보다 작을 경우, 상기 단기 필터의 혼합 가중치 및 상기 장기 필터의 혼합 가중치를 이전에 획득한 혼합 필터의 상응하는 가중치 값으로 설정하는 단계; 또는 상기 단기 필터의 혼합 가중치 및 상기 장기 맴 품질이 모두 상기 제2 기설정된 임계값보다 크거나 같을 경우, 상기 단기 필터의 혼합 가중치 및 상기 장기 필터의 혼합 가중치를 상기 단기 맵 품질과 상기 장기 맴 품질의 소프트맥스(Softmax) 활성화 함수의 정규화된 출력의 혼합 가중치로 설정하는 단계를 포함할 수 있다.
이때, 상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 획득하는 단계는, 상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 컨볼루션 신경망과 정규화 함수를 이용하여 상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치를 얻는 단계; 및 상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 얻는 단계를 포함할 수 있다.
이때, 상기 컨볼루션 신경망과 정규화 함수를 이용하여 상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치를 얻는 단계는, 상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵을 혼합 처리하여 혼합 응답맵을 얻는 단계; 상기 컨볼루션 신경망을 이용하여 상기 혼합 응답맵에서 특징을 추출하고, 선형 변환 레이어를 이용하여 추출된 특징을 선형 변환하여 혼합 가중치 벡터를 얻는 단계; 및 소프트맥스 활성화 함수에 따라 상기 혼합 가중치 벡터를 정규화하여 상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치를 얻는 단계를 포함할 수 있다.
이때, 상기 혼합 필터를 기반으로 상기 현재 프레임 이미지에서 객체 추적을 수행하는 단계는, 상기 혼합 필터를 이용하여 상기 현재 프레임 이미지의 객체 탐색 영역의 깊이 특징인 현재 깊이 특징에 대해 상관 처리를 수행하여 객체 포지셔닝 응답맵을 얻는 단계; 상기 객체 포지셔닝 응답맵을 기반으로, 상기 현재 프레임 이미지의 초기 객체 대상 바운딩 박스를 예측하는 단계; 및 상기 초기 객체 대상 바운딩 박스에 기초하여, 분할 네트워크를 사용하여 객체 대상을 분할하고, 상기 객체 대상의 객체 대상 분할맵 및 최종 객체 대상의 바운딩 박스를 획득하는 단계를 포함하고, 상기 현재 프레임 이미지의 객체 탐색 영역은, 상기 현재 프레임 이미지 이전의 N 프레임 이미지(상기 N은 1보다 크거나 같은 정수임)를 기반으로 예측된 객체 대상의 바운딩 박스에 따라 결정될 수 있다.
이때, 상기 객체 템플릿 특징 풀은, 상기 현재 프레임 이미지의 객체 탐색 영역의 깊이 특징; 및/또는 상기 비디오 시퀀스의 제1 프레임 이미지의 객체 탐색 영역에 대해 다중 증강(augmentation) 처리를 수행하여 복수의 증강 이미지를 획득하고 상기 복수의 증강 이미지에 대해 특징을 추출하여 획득한 복수의 깊이 특징; 및/또는 상기 비디오 시퀀스에서 상기 현재 프레임 이미지 이전의 이미지 프레임에 대해 객체 추적을 수행할 때 추적 성공 신뢰도가 제1 기설정된 임계값보다 높은 이미지 프레임의 깊이 특징을 포함할 수 있다.
본 발명의 일 실시 예에 따른 객체 추적 장치는, 단기 필터와 장기 필터를 융합하여 혼합 필터를 획득하는 혼합 필터 획득부; 및 상기 혼합 필터를 기반으로 현재 프레임 이미지에서 객체 추적을 수행하는 객체 추적부를 포함하고, 상기 단기 필터는, 비디오 시퀀스에서 상기 현재 프레임 이미지의 예측을 기반으로 획득하고, 상기 장기 필터는, 이전에 획득한 장기 필터이거나 객체 템플릿 특징 풀을 기반으로 상기 이전에 획득한 장기 필터를 최적화하여 획득할 수 있다.
이때, 객체 추적 장치는, 상기 비디오 시퀀스의 제1 프레임 이미지, 상기 현재 프레임 이미지 및 보조 프레임 이미지를 기반으로 상기 현재 프레임 이미지에 대응하는 상기 단기 필터를 예측하여 획득하는 단기 필터 획득부를 더 포함하고, 상기 보조 프레임 이미지는, 상기 비디오 시퀀스에서 추적 성공 신뢰도가 제1 임계값보다 높고 시간 순서상 상기 현재 프레임에 가장 가까운 이미지 프레임일 수 있다.
이때, 객체 추적 장치는, 상기 현재 프레임 이미지가 상기 비디오 시퀀스의 기설정된 위치에 있는 이미지 프레임인 경우, 객체 템플릿 특징 풀을 기반으로 이전에 획득한 장기 필터를 최적화하여 상기 장기 필터를 획득하거나, 또는 상기 현재 프레임 이미지가 상기 비디오 시퀀스의 기설정된 위치에 있는 이미지 프레임이 아닌 경우, 이전에 획득한 장기 필터를 상기 장기 필터로 획득하는 장기 필터 획득부를 더 포함할 수 있다.
이때, 상기 혼합 필터 획득부는, 상기 단기 필터 및 상기 장기 필터를 이용하여 각각 상기 현재 프레임 이미지에 대해 상관 처리를 수행하여, 단기 객체 포지셔닝 응답맵(response map) 및 장기 객체 포지셔닝 응답맵을 획득하고, 상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 획득할 수 있다.
이때, 상기 혼합 필터 획득부는, 상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 획득할 때, 상기 단기 객체 포지셔닝 응답맵의 단기 포지셔닝 맵 품질인 단기 맵 품질 및 상기 장기 객체 포지셔닝 응답맵의 장기 포지셔닝 맵 품질인 장기 맴 품질을 평가하고, 상기 단기 맵 품질 및 상기 장기 맴 품질과 제2 기설정된 임계값의 비교 결과에 따라, 상기 단기 필터의 혼합 가중치 및 상기 장기 필터의 혼합 가중치를 결정하고, 상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 얻을 수 있다.
이때, 상기 혼합 필터 획득부는, 상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 획득할 때, 상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 컨볼루션 신경망과 정규화 함수를 이용하여 상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치를 얻고, 상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 얻을 수 있다.
이때, 상기 객체 추적부는, 상기 혼합 필터를 이용하여 상기 현재 프레임 이미지의 객체 탐색 영역의 깊이 특징인 현재 깊이 특징에 대해 상관 처리를 수행하여 객체 포지셔닝 응답맵을 얻는 객체 포지셔닝 응답맵 획득부; 상기 객체 포지셔닝 응답맵을 기반으로, 상기 현재 프레임 이미지의 초기 객체 대상 바운딩 박스를 예측하는 초기 객체 대상 바운딩 박스 예측부; 및 상기 초기 객체 대상 바운딩 박스에 기초하여, 분할 네트워크를 사용하여 객체 대상을 분할하고, 상기 객체 대상의 객체 대상 분할맵 및 최종 객체 대상의 바운딩 박스를 획득하는 최종 객체 대상 바운딩 박스 예측부를 포함하고, 상기 현재 프레임 이미지의 객체 탐색 영역은, 상기 현재 프레임 이미지 이전의 N 프레임 이미지(상기 N은 1보다 크거나 같은 정수임)를 기반으로 예측된 객체 대상의 바운딩 박스에 따라 결정될 수 있다.
도 1은 트랜스덕션(transduction) 기반의 객체 추적 장치의 구조를 도시한 도면이다.
도 2는 귀납적 학습(inductive learning) 기반의 객체 추적 장치의 구조를 도시한 도면이다.
도 3은 본 개시의 일 실시예에 따른 객체 추적 방법을 도시한 흐름도이다.
도 4는 본 개시의 일 실시예에 따른 전체적인 추적 프레임워크를 도시한 도면이다.
도 5는 본 개시의 일 실시예에 따른 단기 필터와 장기 필터의 휴리스틱(heuristic) 융합 과정을 도시한 예시도이다.
도 6은 본 개시의 일 실시예에 따른 단기 필터와 장기 필터의 학습식 융합 과정을 도시한 예시도이다.
도 7은 본 개시의 일 실시예에 따른 현재 프레임 이미지에 대한 객체 추적 과정을 도시한 흐름도이다.
도 8은 본 개시의 일 실시예에 따른 객체 추적 장치를 도시한 블록도이다.
도 9는 본 개시의 일 실시예에 따른 객체 추적부를 도시한 블록도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.
기존의 객체 추적 기술에서 사용자는 제1 프레임 이미지에서 객체 대상을 바운딩 박스의 형태로 표시하고, 바운딩 박스에서 객체 대상은 최대한 가리고, 동시에 배경은 최소로 가리게 된다. 그런 다음, 후속 비디오 프레임에서 객체 추적 알고리즘 또한 해당 객체 대상의 위치 정보를 제공하는 동시에 이러한 바운딩 박스도 제공해야 한다. 최근에는 일부 연구 과제에서 객체 추적 표시의 형태를 객체 대상의 분할 마스크(segmentation mask)로 변경하고, 배경과 구분하기 위해 픽셀 레벨에서 객체 대상을 미세하게 표시한다. 따라서 후속 비디오 프레임에서 객체 추적 알고리즘은 객체 대상의 위치 정보와 함께 이러한 분할 마스크도 제공한다. 기존 바운딩 박스 추적과 비교할 때, 마스크 추적 또는 밀집 추적(dense track)은 비디오 객체 분할(video object segmentation) 기술과 많은 유사점이 있다. 바운딩 박스 추적 기술 외에도, 밀집 추적은 일반적으로 추가적인 분할 분기를 추가하고, 객체 분할 기술을 융합하며, 객체의 중심 위치를 출력하면서 객체의 분할 마스크를 출력한다.
객체 추적 기술의 객체 대상은 일반적으로 움직이는 사람, 동물, 차량(예, 자동차, 항공기 등)과 같은 일반적인 물체이다. 다양한 시나리오에 따라, 객체 추적 기술의 일반적인 어려움은 아래를 포함하나 이에 국한되지는 않는다.
1) 스케일 변환: 비디오 시퀀스가 진행됨에 따라 객체 대상의 스케일 변환이 커진다. 객체 추적 장치의 경우 큰 스케일 변환은 바운딩 박스 출력의 정확도에 큰 영향을 미친다. 재발견 검출기의 경우 분실 객체 대상의 크기 스케일을 알 수 없으며, 재발견 검출기는 일정 스케일 범위 내에서 분실 객체 대상을 검출해야 한다.
2) 배경 간섭: 배경에는 추적하는 객체 대상(시각적으로)과 유사한 물체, 텍스처(비물체) 또는 모양이 존재한다. 또한 일부 연구자들은 간섭하는 물체를 간섭물(distractor)로 언급하기도 한다.
3) 조명 변화: 객체 대상이 받는 빛의 강도 변화는 추출된 물체의 시각적 특징에 큰 변화를 일으킨다. 제1 프레임 이미지의 템플릿 조명이 후속 비디오 프레임 중 객체의 조명과 크게 달라지면, 객체 대상의 추적의 어려움을 증가시킨다.
4) 평면 내 회전 및 평면 외 회전: 조명의 변화와 유사하게, 회전 또한 물체 특징의 차이를 유발한다. 특히 평면 외 회전은 입체 물체의 다른 표면이 시야에 나타나게 하고 새로운 시각적 특징을 도입하며, 이전의 시각적 특징은 사라지게 하여 객체 대상 추적의 어려움을 증가시킨다.
5) 변형: 조명 변화 및 회전과 유사하게, 비강체 물체의 변형 또한 물체 특징에 변화를 일으켜 시각적 추적의 어려움을 증가시킨다.
상기와 같은 문제점을 극복하기 위해 당업자는 다양한 객체 추적 방법을 제안하였다. 그중, 깊이 특징을 기반으로 하는 객체 추적 방법의 획기적인 발전으로 견고성(robustness)과 정확도(accuracy)면에서 수공 특징 기반의 기존 방법을 넘어섰으며, 특히 컨볼루션 신경망(CNN)을 사용하여 얻은 깊이 특징이 그러하다. 또한 최근 몇 년 동안 필터 기술과 깊이 특징은 시각적 객체 추적 분야에서 높은 성능을 달성했으며 폭 넓은 주목을 받으며 적용되고 있다. 필터를 얻는 다양한 방법에 따라, 필터 기술과 깊이 특징을 기반으로 하는 객체 추적 방법은 오프라인의 트랜스덕티브(transductive) 학습을 기반으로 한 객체 추적과 온라인 귀납적 학습을 기반으로 한 객체 추적으로 나눌 수 있다.
이하 먼저 오프라인의 트랜스덕티브(transductive) 학습 기반의 객체 추적 장치와 온라인 귀납적 학습 기반의 객체 추적 장치에 대해 소개한다.
도 1은 트랜스덕션(transduction) 기반의 객체 추적 장치의 구조를 도시한 도면이다.
도 1을 참조하면, 트랜스덕티브 학습 기반의 객체 추적 장치의 입력은 두 부분으로 구성되며, 그중 한 부분은 객체 상태 정보의 초기 프레임 이미지(112) (예를 들어, 제1 프레임 이미지)와 보조 프레임 이미지(113) 및 상응하는 객체 대상의 바운딩 박스를 제공하는 것으로, 보조 프레임 이미지(1130)는 객체 추적 과정에서 비디오 시퀀스에서 시간 순서상 현재 프레임(1110)에 가장 가깝고 응답맵의 응답값이 일정 임계값보다 높은 이전 신뢰 이미지 프레임이다. 다른 부분은 비디오 시퀀스의 현재 프레임 이미지(111), 즉 객체 대상의 위치를 예측해야 하는 현재 이미지 프레임(111)이다.
특징 추출 네트워크(120)는 초기 프레임 이미지(112), 보조 프레임 이미지(113) 및 현재 프레임 이미지(111)에서 각각 깊이 특징을 추출한다. 이때, 깊이 특징을 추출하는 과정에서 특징 추출 네트워크(120)는 객체 대상의 바운딩 박스에 따라 결정된 객체 탐색 영역에서만 깊이 특징을 추출할 수 있으며, 예를 들어, 초기 프레임 이미지(112)의 객체 대상의 바운딩 박스에 따라 결정된 객체 탐색 영역, 보조 프레임 이미지(113)의 객체 대상의 바운딩 박스에 따라 결정된 객체 탐색 영역, 및 현재 프레임 이미지(111)에 의해 예측된 상기 객체 대상의 바운딩 박스에 따라 결정된 객체 탐색 영역에 대해 깊이 특징을 추출하고, 현재 프레임 이미지(111)에 의해 예측된 객체 대상의 바운딩 박스는 현재 프레임 이미지(111) 이전의 N개 프레임 이미지(N은 1 이상의 정수)의 객체 대상의 바운딩 박스가 기설정된 규칙에 따라 또는 훈련된 컨볼루션 신경망에 따라 예측될 수 있다. 예를 들어, 현재 프레임 이미지(111)의 이전 프레임 이미지의 객체 대상의 바운딩 박스에 따라 예측될 수 있다.
그런 다음, 초기 프레임 이미지(112)의 깊이 특징, 보조 프레임 이미지(1130)의 깊이 특징 및 상응하는 객체 대상의 바운딩 박스에 대해 객체 상태 인코딩(132)을 수행하여 객체 상태 인코딩 벡터를 얻는다. 동시에, 현재 프레임 이미지(111)의 깊이 특징에 대해 현재 프레임 인코딩(131)을 수행하여 현재 프레임의 인코딩 벡터를 얻는다. 그후, 어텐션 메커니즘 기반의 트랜스포머 모델(140)을 이용하여 객체 상태 인코딩 벡터와 현재 프레임 인코딩 벡터에 대해 인코딩 및 디코딩하여 히든 특징(Hidden Feature)을 얻고, 선형 변환 레이어를 통해 해당 히든 특징을 선형 변환하여 현재 장면에 적합한 필터를 얻는다. 이때, 히든 특징은 트랜스포머 모델(140)의 중간 레이어(히든 레이어라고도 함)의 출력이고, 일반적으로 마지막 히든 레이어의 출력이다.
그후, 해당 필터를 사용하여 현재 프레임 인코딩 벡터와 상관 처리하여 객체 포지셔닝 응답맵을 얻고, 해당 객체 포지셔닝 응답맵에서 응답이 가장 큰 위치는 예측된 객체 대상의 위치이다.
결론적으로, 트랜스덕티브 학습 기반의 객체 추적 장치는 오프라인으로 훈련된 네트워크를 통해 가장 가까운 신뢰 프레임과 초기 프레임 이미지의 특징을 마이닝하고, 필터 매개변수를 직접 예측하여 필터를 얻는다. 해당 방안은 단시간 내의 보조 프레임에 의존하기 때문에, 생성된 필터는 단기의 객체 정보만 포함하므로, 해당 필터는 단기 필터(150)라고 할 수 있다.
도 2는 귀납적 학습(inductive learning) 기반의 객체 추적 장치의 구조를 도시한 도면이다.
도 2를 참조하면, 온라인 귀납적 학습에 기반한 객체 추적 장치의 입력은 두 부분으로 구성된다. 이때, 객체 추적 장치의 한 부분은 객체 템플릿 풀(212)로, 객체 추적 과정에서 비디오 시퀀스에서 응답맵의 응답값이 일정 임계값보다 높은 신뢰 이미지 프레임은 해당 객체 템플릿 풀(212)에 저장되고, 다른 부분은 비디오 시퀀스의 현재 프레임 이미지(211), 즉 객체 대상의 위치를 예측해야 하는 현재 이미지 프레임(211)이다.
특징 추출 네트워크(220)는 현재 프레임 이미지(211)의 깊이 특징과 객체 템플릿 풀(212)의 이미지 프레임을 각각 추출한 후, 현재 프레임(211)의 깊이 특징과 객체 템플릿 풀(212)의 각 이미지 프레임의 깊이 특징을 획득하고, 해당 객체 템플릿 풀(212)에 있는 각 이미지 프레임의 깊이 특징은 함께 객체 템플릿 특징 풀(2241)을 구성한다. 도 1에서 설명한 깊이 특징 추출 과정과 유사하게, 특징 추출 네트워크(220)는 객체 대상의 바운딩 박스에 따라 결정된 객체 탐색 영역에 대해서만 깊이 특징을 추출하고, 예를 들어, 객체 템플릿 풀(212)의 각 이미지 프레임의 상기 객체 대상의 바운딩 박스에 따라 결정된 객체 탐색 영역, 및 현재 프레임 이미지(211)의 예측된 객체 대상의 바운딩 박스에 따라 결정된 객체 탐색 영역에 대해 깊이 특징을 추출한다.
그런 다음, 객체 추적 장치는 객체 템플릿 특징 풀(241)에서 추출된(예, 무작위 추출, 또는 기설정된 추출 방법에 따른 추출) 깊이 특징은 필터 온라인 훈련/최적화 훈련 세트로서 필터 최적화부(242)(이하, 도 8을 참조하여 설명하는 장기 필터 획득부(850)에 대응할 수 있음)에 입력된다. 해당 필터 최적화부(242)는 예를 들어 컨쥬게이트 그래디언트 (conjugate gradient) 및 가우스-뉴튼 알고리즘(Gauss-Newton algorlthm)을 통해 해당 훈련 세트로부터 효율적이고 신속하게 학습하고, 이를 통해 장기 객체 정보를 포함한 필터, 즉 장기 필터(250)를 생성한다. 그런 다음, 객체 추적 장치는 시간 영역 또는 푸리에 영역에서 해당 장기 필터(250)를 사용하여 현재 프레임 특징과 상관 처리하여 객체의 포지셔닝 응답맵(260)을 얻는다. 해당 포지셔닝 응답맵(260)에서 응답이 가장 큰 위치가 예측된 객체 대상 위치이다. 요약하면, 귀납적 학습에 기반한 객체 추적 장치는 추적 과정에서 수집된 추적 결과를 객체 추적 과정에서 훈련 세트로 취하고, 온라인에서 필터 매개변수를 지속적으로 훈련/최적화하여 장기 필터(250)를 얻을 수 있다.
그러나 트랜스덕티브 학습 기반의 객체 추적 장치와 온라인 귀납적 학습 기반의 객체 추적 장치에서는 필터를 구하는 방법에 있어 일정한 한계가 존재한다.
예를 들어, 트랜스덕티브 학습 기반의 객체 추적 장치는 필터 예측 시 초기 프레임과 보조 프레임의 특징에 의존하여 객체 상태를 표현한 다음, 트랜스포머 모델을 기반으로 객체 상태와 현재 특징을 융합하여 추적에 사용되는 필터를 얻는다. 해당 방법은 식별력이 높고 객체 대상과 간섭물을 보다 더 잘 구별할 수 있지만, 보조 프레임의 정확성에 의존하기 때문에, 보조 프레임 선택에 큰 오류가 있을 경우 추적기의 성능에 큰 영향을 미치게 된다. 따라서 이러한 유형의 추적기의 안정성은 그리 높지 않다.
또 다른 예로, 트랜스덕티브 학습 기반의 객체 추적 장치에 비해, 온라인 귀납적 학습 기반의 객체 추적 장치는 객체를 표현하기 위해 더 많은 객체 템플릿 특징을 사용하므로, 특정 프레임의 추적 오류로 인한 성능 저하를 줄일 수 있으며, 더 나은 견고성을 가지고 있으나 객체의 식별력은 떨어진다. 또한, 온라인 귀납적 학습 기반의 객체 추적 장치는 필터 매개변수를 훈련/최적화하기 위해 간격을 두고 온라인 업데이트하는 방법을 사용하기 때문에, 추적 과정에서 객체의 급격한 변형을 잘 처리할 수 없다.
따라서 본 개시는 필터 기술과 깊이 특징을 기반으로 트랜스덕티브 학습과 귀납적 학습의 두 분기 프레임워크 하에서 고정밀 밀집된 객체 추적 방법을 제공하며, 그중 두 분기 프레임워크에서, 한 분기는 온라인 귀납적 학습을 사용하여 장기 필터를 최적화하고, 다른 분기는 트랜스덕티브 학습을 사용하여 단기 필터를 예측하며, 획득한 두 개의 필터를 융합한다. 이를 통해 특정 프레임 추적 오류로 인한 성능 저하를 피할 수 있을 뿐만 아니라, 추적기의 식별력을 향상시켜 성능을 향상시킬 수 있다. 이하, 도면을 참조하여 본 개시에서 제안하는 객체 추적 방법에 대해 설명한다.
이하에서는, 본 개시의 일 실시 예에 따른 객체 추적 방법 및 장치를 첨부된 도 3 내지 도 9를 참조하여 상세히 설명한다.
도 3은 본 개시의 일 실시예에 따른 객체 추적 방법을 도시한 흐름도이다.
도 3을 참조하면, 객체 추적 방법은 단기 필터와 장기 필터를 융합하여 혼합 필터를 얻는다(310).
단기 필터(440)는 비디오 시퀀스에서 현재 프레임 이미지(411)의 예측을 기반으로 얻은 것이다. 단기 필터(440)의 예측은, 비디오 시퀀스의 제1 프레임 이미지(412), 현재 프레임 이미지(411) 및 보조 프레임 이미지(413)를 기반으로 예측하여 현재 프레임 이미지(411)에 대응하는 단기 필터(440)(fst)를 얻을 수 있다. 본 개시의 일 실시예에서, 오프라인의 트랜스덕티브 학습을 기반으로 단기 필터(440)(fst)를 예측할 수 있다. 이하, 도 4를 참조하여 이에 대해 자세히 설명한다.
도 4는 본 개시의 일 실시예에 따른 전체적인 추적 프레임워크를 도시한 도면이다.
도 4를 참조하면, 먼저, 객체 추적 방법은 비디오 시퀀스의 제1 프레임 이미지(412), 현재 프레임 이미지(411) 및 보조 프레임 이미지(413)를 획득한다. 그중, 보조 프레임 이미지(413)는 비디오 시퀀스에서 추적 성공 신뢰도가 제1 기설정된 임계값보다 높고 시간 순서상 현재 프레임에 가장 가까운 이미지 프레임이다. 예를 들어, 비디오 시퀀스에서 각 프레임에 대해 객체 추적을 수행하는 경우, 현재 프레임 이미지(411) 이전의 특정 프레임 이미지에 의해 생성된 객체 탐색 영역의 응답맵이 제1 기설정된 임계값보다 큰 응답값을 갖고, 해당 이미지가 비디오 시퀀스에서 시간 순서상 현재 프레임에 가장 가까운 이미지 프레임인 경우, 해당 이미지를 보조 프레임 이미지(413)로 설정할 수 있다.
특징 추출 네트워크(420)를 통해 제1 프레임 이미지(412)의 객체 탐색 영역인 제1 탐색 영역(C0), 보조 프레임 이미지(413)의 객체 탐색 영역인 보조 탐색 영역(Cn) 및 현재 프레임 이미지(411)의 객체 탐색 영역인 현재 탐색 영역(Ct)에 대해 특징을 추출하여 제1 탐색 영역(C0)의 깊이 특징인 제1 깊이 특징(FO), 보조 탐색 영역(Cn)의 깊이 특징인 보조 깊이 특징(Fn) 및 현재 탐색 영역(Ct)의 깊이 특징인 현재 깊이 특징(Ft)을 획득한다. 동일한 특징 추출 네트워크(420)를 사용하여 제1 탐색 영역(C0), 보조 탐색 영역(Cn) 및 현재 탐색 영역(Ct)에 대해 순차적으로 특징을 추출할 수 있다. 그리고, 가중치를 공유하는 복수의 동일한 특징 추출 네트워크(420)를 사용하여 제1 탐색 영역(C0), 보조 탐색 영역(Cn) 및 현재 탐색 영역(Ct)에 대해 동시에 특징을 추출할 수도 있다. 특징 추출 네트워크(420)는 컨볼루션 신경망(CNN), 순환신경망(RNN) 등이 될 수 있으며, 본 개시에서는 이에 대해 구체적으로 한정하지 않는다.
제1 탐색 영역(C0)은 제1 프레임 이미지(412)의 객체의 바운딩 박스인 제1 바운딩 박스(bO)에 따라 결정되며, 박스인 제1 바운딩 박스(bO)는 예를 들어 사용자에 의해 주어진다. 보조 탐색 영역(Cn)은 보조 프레임 이미지(413)의 객체 대상의 바운딩 박스인 보조 바운딩 박스(bn)에 따라 결정된다. 현재 탐색 영역(Ct)은 현재 프레임 이미지(411) 이전의 프레임 이미지를 기반으로 예측된 객체 대상의 바운딩 박스인 예측 바운딩 박스(bp)에 따라 결정된다. 구체적으로, 객체 추적 방법은 현재 프레임 이미지(411) 이전의 프레임 이미지의 객체 대상의 바운딩 박스에 따라 예측 바운딩 박스(bp)를 결정하고, 그런 다음, 예측 바운딩 박스(bp)에 따라 현재 프레임 이미지(411)에 대해 클리핑하여 현재 탐색 영역(Ct)를 얻는다.
도 4에 도시된 바와 같이, 단기 필터 생성부(430)(이하 도 8을 참조하여 설명하는 단기 필터 획득부(830)에 해당됨)에서, 제1 깊이 특징(FO) 및 제1 바운딩 박스(bO), 보조 깊이 특징(Fn) 및 보조 바운딩 박스(bn)에 대해 객체 상태 인코딩(432)을 수행하여, 객체 상태 인코딩 벡터를 획득하고, 동시에, 현재 탐색 영역(Ct)의 깊이 특징인 현재 깊이 특징(Ft)에 대해 현재 프레임 인코딩(431)을 수행하여 현재 프레임 인코딩 벡터를 획득한다.
이후, 도 4에 도시된 바와 같이, 객체 상태 인코딩 벡터와 현재 프레임 인코딩 벡터는 단기 필터 생성부(430)에서 오프라인으로 훈련된 트랜스포머 모델(433)에 입력되고, 해당 트랜스포머 모델(433)을 통해 처리(즉 먼저 인코딩 처리한 후 그 다음 디코딩 처리함)되어 히든 특징(즉 히든 특징 벡터)을 얻을 수 있다. 여기서, 히든 특징은 트랜스포머 모델(433)의 중간 레이어(즉 히든 레이어)의 출력이며, 일반적으로 마지막 히든 레이어의 출력이다. 그런 다음, 단기 필터 생성부(430)에서 선형 변환 레이어(미도시)를 통해 히든 특징을 선형 변환하여 단기 필터(fst)(440)를 얻는다. 즉, 단기 필터 생성부(430)은 시공간 정보를 융합하여, 현재 장면에 적합한 단기 필터(fst)(440)를 얻을 수 있다. 단기 필터(fst)(440)를 구하는 과정은 도 1과 유사하므로 여기서 더는 자세히 설명하지 않는다.
도 4의 객체 추적 방법은 오프라인으로 훈련된 네트워크를 통해 가장 가까운 신뢰할 수 있는 추적 프레임(즉 보조 프레임 이미지(413))과 제1 프레임 이미지(412)의 특징을 마이닝하고, 단기 필터 매개변수를 직접 예측하여 객체 단기 상태에 대한 특징 표현을 얻으며, 이는 높은 식별력 추적에 유리하다.
단기 필터(fst)를 예측하는 방법에 대해 설명하였고, 이하, 장기 필터(flt)를 얻는 방법에 대해 설명한다.
본 개시의 일 실시예에서, 310단계 이전에 310단계의 융합 과정을 위한 장기 필터(flt)를 결정하는 것이 필요하다. 해당 장기 필터(flt)(460)는 이전에 획득한 장기 필터일 수 있고, 또는 객체 템플릿 특징 풀(451)을 기반으로 이전에 획득한 장기 필터를 최적화하여 얻은 것일 수도 있다.
구체적으로, 현재 프레임 이미지(411)가 비디오 시퀀스 내 소정 위치의 이미지 프레임이 아닌 경우, 310단계의 융합 과정에서 사용된 장기 필터는 이전에 획득한 장기 필터일 수 있다. 이때, 이전 프레임 이미지에 대해 획득된 장기 필터 및 비디오 시퀀스의 제1 프레임 이미지(412)에 대한 초기 장기 필터는 이전에 획득한 장기 필터이다. 또한, 미리 결정된 위치는 비디오 시퀀스에서 예를 들어 10 프레임마다의 이미지 프레임 위치일 수 있지만, 본 개시는 미리 결정된 위치에 대해 특별히 한정하지 않는다.
현재 프레임 이미지(411)가 비디오 시퀀스의 미리 정해진 위치에 위치한 이미지 프레임인 경우, 310단계의 융합 과정에서 사용되는 장기 필터(flt)(460)는 객체 템플릿 특징 풀(451)을 기반으로 이전에 획득한 장기 필터를 최적화하여 얻은 장기 필터일 수 있다. 다시 말해, 매번 획득한 장기 필터는 적어도 하나의 이미지 프레임에 사용될 수 있다. 이하, 도 4를 참조하여 장기 필터의 최적화 과정에 대해 설명한다. 본 개시의 일 실시예에서, 온라인 귀납적 학습을 기반으로 이전에 획득한 장기 필터를 최적화하여, 현재 프레임 이미지(411)에 대응하는 장기 필터(flt)(460)를 얻을 수 있다. 이하, 도 4를 참조하여 이에 대해 자세히 설명한다.
도 4에 도시된 바와 같이, 먼저, 객체 추적 방법은 객체 템플릿 특징 풀(451)에서 소정 개수의 깊이 특징 및 상응하는 객체 대상의 바운딩 박스를 추출하여 필터 훈련 세트로 결정한다.
본 개시의 일 실시예에서, 객체 템플릿 특징 풀(451)은 현재 프레임 이미지(411)의 객체 탐색 영역인 현재 탐색 영역(Ct)의 깊이 특징, 및/또는 비디오 시퀀스의 제1 프레임 이미지(412)의 객체 탐색 영역인 제1 탐색 영역(C0)에 대해 다중 증강(augmentation) 처리를 수행하여 복수의 증강 이미지(414)를 획득하고 복수의 증강 이미지(414)에 대해 특징을 추출하여 획득한 복수의 깊이 특징, 및/또는 비디오 시퀀스에서 현재 프레임 이미지(411) 이전의 이미지 프레임에 대해 객체 추적을 수행할 때 추적 성공 신뢰도가 제1 기설정된 임계값보다 높은 이미지 프레임의 깊이 특징을 포함할 수 있다.
구체적으로, 객체 추적 방법은 먼저 제1 탐색 영역(C0)의 깊이 특징인 제1 깊이 특징(FO)을 객체 템플릿 특징 풀(451)에 추가할 수 있다. 또한, 상술한 310단계에서 언급한 제1 탐색 영역(C0)은 M번 객체 증강될 수 있는데, 예를 들어, 제1 탐색 영역(C0)에 대해 회전, 들어올리기, 뒤집기, 평행이동(translation) 등의 증강 처리를 진행하여 M개의 증강 이미지(414)를 획득할 수 있다. 그런 다음, 객체 추적 방법은 특징 추출 네트워크(420)(예를 들어, 컨볼루션 신경망)를 사용하여 M개의 증강 이미지(414)의 깊이 특징을 추출할 수 있다. 또한, 객체 추적 방법에 따라 비디오 시퀀스에 대해 객체 추적하는 과정에서, 추적 성공 신뢰도가 제1 기설정된 임계값보다 높은 이미지 프레임을 기반으로 객체 템플릿 특징 풀(451)을 업데이트할 수 있다. 예를 들어, 객체 추적 방법은 비디오 시퀀스에서 각 프레임에 대해 객체 추적을 수행하는 경우, 특정 프레임 이미지에 의해 생성된 객체 탐색 영역의 응답맵이 제1 기설정된 임계값보다 큰 응답값을 갖는 경우, 해당 이미지의 객체 탐색 영역의 깊이 특징을 객체 템플릿 특징 풀(451)에 추가하여 객체 템플릿 특징 풀(451)을 업데이트할 수 있다.
그런 다음, 도 4에 도시된 바와 같이, 객체 추적 방법은 필터 훈련 세트를 기반으로 이전에 획득한 장기 필터를 필터 최적화부(452)의 필터 최적화 알고리즘을 통해 훈련 및/또는 최적화하여 현재 프레임 이미지에 대응하는 장기 필터(460)를 획득한다.
본 개시의 일 실시예에서, 필터 훈련 세트에 기초하여, 컨쥬게이트 그래디언트 (conjugate gradient) 및 가우스-뉴튼 알고리즘(Gauss-Newton algorlthm)을 사용하여 장기 필터flt를 효율적이고 빠르게 훈련 및/또는 최적화하여 장기 필터를 얻을 수 있다. 위에서 얻은 장기 필터flt를 얻는 과정은 도 2의 내용과 유사하므로, 여기서 더는 자세히 설명하지 않는다. 이와 같이, 객체 추적 과정에서, 추적 과정에서 수집된 추적 결과를 훈련 세트로 취할 수 있고, 객체 템플릿 특징 풀을 지속적으로 업데이트하여 온라인에서 필터 매개변수를 훈련/최적화하여 객체 대상의 장기 추적을 위한 특징 표현을 획득할 수 있고, 이는 높은 견고성과 안정성을 갖는다.
이상, 장기 필터(flt)(460)를 획득하는 방법에 대해 설명하였다. 이하, 단기 필터(fst)(440) 및 장기 필터(flt)(460)를 융합하여 혼합 필터(470)를 얻는 과정에 대해 설명한다.
구체적으로, 단기 필터(fst)(440) 및 장기 필터(flt)(460)를 융합하여 혼합 필터(470)를 획득하는 것은 단기 필터(fst)(440) 및 장기 필터(flt)(460)를 이용하여 각각 현재 프레임 이미지(411)에 대해 상관 처리를 수행하여, 단기 객체 포지셔닝 응답맵 및 장기 객체 포지셔닝 응답맵을 획득하고, 단기 객체 포지셔닝 응답맵과 장기 객체 포지셔닝 응답맵에 따라, 단기 필터(fst)(440) 및 장기 필터(flt)(460)를 융합하여 혼합 필터(470)를 획득할 수 있다. 이하, 도 5 및 도 6을 참조하여 각기 다른 방법으로 단기 필터와 장기 필터를 융합하여 혼합 필터를 얻는 과정에 대해 설명한다.
도 5는 본 개시의 일 실시예에 따른 단기 필터와 장기 필터의 휴리스틱(heuristic) 융합 과정을 도시한 예시도이다.
도 5를 참조하면, 객체 추적 방법은 단기 필터(511) 및 장기 필터(512)를 사용하여 각각 현재 프레임 이미지의 객체 탐색 영역과의 상관 연산을 수행한다. 즉, 객체 추적 방법은 단기 객체 포지셔닝 응답맵(521) 및 장기 객체 포지셔닝 응답맵(522)을 얻는다.
그런 다음, 객체 추적 방법은 단기 객체 포지셔닝 응답맵(521)의 단기 포지셔닝 맵 품질(531)(Qst)과 장기 객체 포지셔닝 응답맵(522)의 장기 포지셔닝 맵 품질(532)(Qlt)을 평가한다. 예를 들어, 객체 추적 방법은 평균 피크 상관 에너지(APCE) 알고리즘을 사용하여 해당 평가 작업을 진행할 수 있다. 구체적으로는 아래 <수학식 1>과 같을 수 있다.
[수학식 1]
이때, Smax, Smin 및 Sw,h는 각각 포지셔닝 응답맵의 최대 응답값, 최소 응답값 및 포지셔닝 응답맵 중 (h, w)에서의 응답값을 나타내고, mean() 함수는 평균값을 구하는데 사용되고, Q는 포지셔닝 응답맵 품질을 나타낸다.
단기 포지셔닝 맵(521)의 단기 포지셔닝 맵 품질(531)(Qst)을 평가할 때, <수학식 1>의 Smax, Smin 및 Sw,h는 각각 단기 객체 포지셔닝 응답맵(521)의 최대 응답값, 최소 응답값 및 (h, w)위치의 응답값을 나타낸다. 마찬가지로, 장기 포지셔닝 응답맵(522)의 장기 포지셔닝 맴 품질(532)(Qlt)을 평가할 때, <수학식 1>의 Smax, Smin 및 Sw,h는 각각 장기 객체 포지셔닝 응답맵(522)의 최대 응답값, 최소 응답값 및 (h, w)위치의 응답값을 나타낸다.
그런 다음, 객체 추적 방법은 단기 포지셔닝 맵 품질(531)(Qst) 및 장기 포지셔닝 맴 품질(532)(Qlt)과 제2 미리 정해진 임계값 간의 비교 결과에 따라, 단기 필터(fst)의 혼합 가중치(wst)와 장기 필터(flt)의 혼합 가중치(wlt)를 결정한다.
예를 들어, 객체 추적 방법은 단기 포지셔닝 맵 품질(531)(Qst)이 제2 미리 정해진 임계값보다 크거나 같고 장기 포지셔닝 맴 품질(532)(Qlt)가 제2 미리 정해진 임계값보다 작은 경우, 단기 필터의 혼합 가중치(wst)는 1로 설정하고, 장기 필터의 혼합 가중치(wlt)는 0으로 설정하며, 이런 경우 혼합 필터(550)는 실제로 단기 필터(511)와 동일하다.
객체 추적 방법은 단기 포지셔닝 맵 품질(531)(Qst)이 제2 미리 정해진 임계값보다 작고 장기 포지셔닝 맴 품질(532)(Qlt)가 제2 미리 정해진 임계값보다 크거나 같은 경우, 단기 필터의 혼합 가중치(wst)는 0으로 설정하고, 장기 필터의 혼합 가중치(wlt)는 1로 설정하며, 이런 경우 혼합 필터(550)는 실제로 장기 필터(512)와 동일하다.
객체 추적 방법은 단기 포지셔닝 맵 품질(531)(Qst)과 장기 포지셔닝 맴 품질(532)(Qlt)이 모두 제2 기설정된 임계값보다 작으면, 단기 필터의 혼합 가중치(wst)와 장기 필터의 혼합 가중치(wlt)를 이전에 얻은 혼합 필터의 상응하는 가중치로 설정한다. 예를 들어, 이전 혼합 필터 생성에 사용된 가중치가 각각 wst'및 wlt'인 경우, 현재 단기 필터의 혼합 가중치(wst)와 현재 장기 필터의 혼합 가중치(wlt)를 각각 wst'및 wlt'로 설정할 수 있다. 이 경우, 혼합 필터(550)는 이전 프레임 이미지에 적용된 혼합 필터와 같이 이전에 생성된 혼합 필터와 실제로 동일하다.
객체 추적 방법은 단기 포지셔닝 맵 품질(531)(Qst)과 장기 포지셔닝 맴 품질(532)(Qlt)이 모두 제2 기설정된 임계값보다 크거나 같으면, wst와 wlt를 Softmax(Qst, Qlt) 활성화 함수의 정규화된 출력의 혼합 가중치로 설정한다.
이후, 객체 추적 방법은 단기 필터의 혼합 가중치(wst)와 장기 필터의 혼합 가중치(wlt)에 따라, 단기 필터(511)와 장기 필터(512)를 휴리스틱 필터 융합 전략(540)에 따라 융합하여 혼합 필터(550)를 얻는다. 예를 들어, 객체 추적 방법은 아래 <수학식 2>에 따라 융합 연산을 수행할 수 있다.
[수학식 2]
여기서, f는 혼합 필터이고, fst는 단기 필터이고, wst는 단기 필터(fst)의 혼합 가중치이고, flt는 장기 필터이고, wlt는 장기 필터(flt)의 혼합 가중치이다.
지금까지 단기 필터(511)와 장기 필터(512)의 휴리스틱 융합 과정에 따라 혼합 필터(550)를 구하였다.
위에서 설명한 휴리스틱 융합 과정은 매개변수의 양이 적고, 추가적인 신경망 모델을 훈련할 필요가 없으며, 전체 융합 과정의 계산 또한 더 적고, 컴퓨팅 리소스를 덜 차지하며, 속도 또한 빠르기 때문에, 모바일 단말 등에 배치하기에 적합하다.
단기 필터(440)와 장기 필터(460)의 다른 융합 과정을 아래 도 6을 참조하여 후술한다.
도 6은 본 개시의 일 실시예에 따른 단기 필터와 장기 필터의 학습식 융합 과정을 도시한 예시도이다.
도 6을 참조하면, 객체 추적 방법은 단기 필터(611) 및 장기 필터(612)를 사용하여 각각 현재 프레임 이미지의 객체 탐색 영역과 상관 처리를 수행하고, 즉, 단기 객체 포지셔닝 응답맵(621) 및 장기 객체 포지셔닝 응답맵(622)을 획득한다. 예를 들어, (1*1*W*H) 차원의 단기 객체 포지셔닝 응답맵(621) 및 장기 객체 포지셔닝 응답맵(622)을 얻는다.
그런 다음, 객체 추적 방법은 단기 객체 포지셔닝 응답맵(621) 및 장기 객체 포지셔닝 응답맵(622)에 따라, 컨볼루션 신경망과 정규화 함수(630)를 이용하여 단기 필터(611)의 혼합 가중치(wst)와 장기 필터(612)의 혼합 가중치(wlt)를 구한다.
구체적으로, 객체 추적 방법은 컨볼루션 신경망과 정규화 함수를 이용하여 단기 필터(611)의 혼합 가중치(wst)와 장기 필터(612)의 혼합 가중치(wlt)를 구하는 과정에서, 먼저 단기 객체 포지셔닝 응답맵(St_St) 및 장기 객체 포지셔닝 응답맵(St_lt)을 혼합 처리하여 혼합 응답맵을 얻는다. 예를 들어, 아래 <수학식 3> 에 따라 두 개의 포지셔닝 응답맵을 혼합하여 (1*1*W*H) 차원의 혼합 응답맵을 얻는다.
[수학식 3]
이때, Xt는 혼합 응답맵이고, St_St는 단기 객체 포지셔닝 응답맵이고, St_lt는 장기 객체 포지셔닝 응답맵이고, Concat()는 두 개의 입력량을 연결하는데 사용되는 함수이다.
혼합 응답맵(Xt)을 얻은 후, 컨볼루션 신경망을 사용하여 혼합 응답맵(Xt)에서 특징을 추출하고, 선형 변환 레이어을 사용하여 추출된 특징을 선형 변환하여 혼합 가중치 벡터를 얻는다. 그런 다음, Softmax 활성화 함수에 따라 혼합 가중치 벡터를 정규화하여 융합 가중치(640)를 구한다. 이때, 융합 가중치(640)는 단기 필터(611)의 혼합 가중치(wst)와 장기 필터(612)의 혼합 가중치(wlt)를 포함한다. 그리고, wst와 wlt는 이하 <수학식 4>를 통해 구할 수 있다.
[수학식 4]
이때, Xt는 혼합 응답맵이고, wst는 단기 필터의 혼합 가중치이고, wlt는 장기 필터의 혼합 가중치이고, CNN()은 특징 추출하는 컨볼루션 신경망이고, MLP()는 선형 변환하는 함수이고, Softmax()는 정규화 함수이다.
이후, 단기 필터(611)의 혼합 가중치(wst)와 장기 필터(612)의 혼합 가중치(wlt)에 따라 단기 필터(611)와 장기 필터(612)를 융합하여 혼합 필터(650)를 얻는다. 예를 들어, <수학식 2>를 통해 단기 필터(611)와 장기 필터(612)를 융합한다.
지금까지 단기 필터(611)와 장기 필터(612)의 학습 융합 과정에 따라 혼합 필터(650)를 구하였다. 해당 학습 융합 과정은 단기 필터(611)와 장기 필터(612)를 보다 동적으로 융합할 수 있으며, 보다 뛰어난 융합 성능을 갖는다.
두 가지 방법 중 어느 하나를 통해 단기 필터와 장기 필터를 융합하여 얻은 혼합 필터는, 특정 프레임 추적 오류로 인한 성능 저하를 피할 수 있을 뿐만 아니라, 추적기의 식별력을 향상시키고 객체 추적 성능을 높인다.
다시 도 3을 참조하면, 320단계에서, 혼합 필터를 기반으로 현재 프레임 이미지에 대해 객체 추적을 수행한다. 이하 도 7을 참조하여 이에 대해 상세히 설명한다.
도 7은 본 개시의 일 실시예에 따른 현재 프레임 이미지에 대한 객체 추적 과정을 도시한 흐름도이다.
도 7을 참조하면, 객체 추적 방법은 혼합 필터를 이용하여 현재 프레임 이미지의 객체 탐색 영역(Ct)의 깊이 특징(Ft)에 대해 상관 처리를 수행하여 객체 포지셔닝 응답맵을 얻는다(710). 현재 프레임 이미지의 객체 탐색 영역(Ct)은 현재 프레임 이미지 이전의 N 프레임 이미지를 기반으로 예측된 객체 대상의 바운딩 박스(bp)에 따라 결정된다. 이때, N은 1보다 크거나 같은 정수이다. 이는 310단계에서 이미 설명하였으므로, 여기서 더는 반복하지 않는다.
객체 추적 방법은 객체 포지셔닝 응답맵을 기반으로, 현재 프레임 이미지의 초기 객체 대상 바운딩 박스를 예측한다(720).
본 개시의 일 실시예에서, 객체 추적 방법은 객체 포지셔닝 응답맵과 훈련된 컨볼루션 신경망에 의해 획득한 분류 응답맵을 융합하여 융합 응답맵을 획득할 수 있다. 그런 다음, 객체 추적 방법은 해당 융합 응답맵을 사용하여 현재 프레임 이미지의 초기 객체 대상 바운딩 박스를 예측할 수 있다.
예를 들어, 해당 컨볼루션 신경망은 TransT 모델을 채택할 수 있으며, 해당 TransT 모델은 입력된 현재 프레임 이미지 및 다른 이미지(예를 들어, 제1 프레임 이미지 및 보조 프레임 이미지)에 따라 분류 응답맵(Map_1)과 회귀 벡터맵(Map_v)을 예측하고 생성할 수 있다.
이 경우, 객체 추적 방법은 객체 포지셔닝 응답맵(Map_0)을 TransT 모델이 예측한 분류 응답맵(Map_1)과 융합하여 융합 포지셔닝 응답맵(Map_2)을 얻을 수 있다. 예를 들어, 객체 추적 방법은 객체 포지셔닝 응답맵(Map_0)과 분류 응답맵(Map_1)에 가중치를 부여하여 융합 포지셔닝 응답맵(Map_2 = Map_0 * w0 + Map_1 * w1)을 얻을 수 있다. 이때, w0 및 w1는 각각 객체 포지셔닝 응답맵(Map_0)과 분류 응답맵(Map_1)의 가중치를 나타내고, 이들은 경험적 데이터에 따라 설정될 수 있다. 예를 들어, 이는 각각 0.5일 수 있으나, 본 명세서에서는 이에 대해 특별히 제한하지 않는다.
융합 포지셔닝 응답맵(Map_2)을 획득 후, 객체 추적 방법은 융합 포지셔닝 응답맵(Map_2) 및 회귀 벡터맵(Map_v)에 따라 현재 프레임 이미지의 초기 객체 대상 바운딩 박스를 예측할 수 있다. 예를 들어, 객체 추적 방법은 융합 포지셔닝 응답맵(Map_2)에서 응답값이 기설정된 임계값보다 큰 영역을 객체 대상의 영역으로 결정할 수 있고, 회귀 벡터맵(Map_v)의 해당 영역에 대응하는 벡터를 사용하여 초기 객체 대상 바운딩 박스를 생성할 수 있다. TransT 모델에 의해 생성된 분류 응답맵과 회귀 벡터맵은 초기 객체 대상 바운딩 박스를 예측하기 위해 초기 객체 포지셔닝 응답맵을 사용하는 방법을 설명하기 위해 위에서 예시로 사용되었으나, 본 개시는 이에 대해 특별히 제한하지 않으며, 해당 예측 동작을 구현할 수 있는 모든 방법은 본 개시에 적용될 수 있다.
객체 추적 방법은 초기 객체 대상 바운딩 박스에 기초하여, 분할 네트워크를 사용하여 객체 대상을 분할하고, 객체 대상의 객체 대상 분할맵 및 최종 객체 대상의 바운딩 박스를 획득한다(730).
구체적으로, 해당 분할 네트워크는 훈련 데이터에 의해 사전 훈련된 컨볼루션 신경망일 수 있다. 예를 들어, 해당 분할 네트워크는 STM(Spatial-Time Memory Network) 모드를 기반으로 하는 모델을 사용하여, 초기 객체 대상 바운딩 박스에 따라 객체 대상을 분할하고 객체 대상의 조밀한 표현(즉, 객체 대상 분할맵)을 얻을 수 있고, 또한, 초기 객체 대상 바운딩 박스를 더 세분화하여, 최종 객체 대상 바운딩 박스를 얻을 수 있다. 본 개시의 일 실시예에서, 객체 추적 방법은 세분화된 객체 대상 바운딩 박스를 얻기 위해, STM 모드 기반 모델의 디코더는 Alpha-Refine 모델을 채택할 수 있다.
객체 추적 방법은 현재 프레임 이미지의 객체 추적을 완료하여 객체 대상의 객체 대상 분할맵과 최종 객체 대상 바운딩 박스를 얻을 수 있다. 그런 다음, 현재 프레임 이미지의 다음 프레임 이미지에 대해서도 동일한 순서로 310단계부터 시작하여 객체 추적 동작을 수행할 수 있다.
이하, 상기와 같은 과정으로 동작하는 본 개시에 따른 장치를 아래에서 도면을 참조하여 설명한다.
도 8은 본 개시의 일 실시예에 따른 객체 추적 장치를 도시한 블록도이다.
도 8을 참조하면, 객체 추적 장치(800)는 혼합 필터 획득부(810) 및 객체 추적부(820)를 포함한다.
혼합 필터 획득부(810)는 단기 필터와 장기 필터를 융합하여 혼합 필터를 얻도록 구성될 수 있다. 단기 필터는 비디오 시퀀스에서 현재 프레임 이미지의 예측을 기반으로 획득되며, 장기 필터는 이전에 획득한 장기 필터이거나 객체 템플릿 특징 풀을 기반으로 이전에 획득한 장기 필터를 최적화하여 얻는다. 객체 추적부(820)는 혼합 필터를 기반으로 현재 프레임 이미지에 대해 객체 추적을 수행하도록 구성될 수 있다.
객체 추적 장치(800)는 또한 비디오 시퀀스의 제1 프레임 이미지, 현재 프레임 이미지 및 보조 프레임 이미지를 기반으로 예측하여 현재 프레임 이미지에 대응하는 단기 필터를 얻도록 구성될 수 있는 단기 필터 획득부(830)를 포함할 수 있다. 이때, 보조 프레임 이미지는 비디오 시퀀스에서 추적 성공 신뢰도가 제1 기설정된 임계값보다 높고 시간 순서상 현재 프레임에 가장 가까운 이미지 프레임이다.
본 개시의 일 실시예에서, 객체 템플릿 특징 풀은 현재 프레임 이미지의 객체 탐색 영역인 현재 탐색 영역(Ct)의 깊이 특징, 및/또는 비디오 시퀀스의 제1 프레임 이미지의 객체 탐색 제1 탐색 영역(C0)에 대해 다중 증강(augmentation) 처리를 수행하여 복수의 증강 이미지를 획득하고 복수의 증강 이미지에 대해 특징을 추출하여 획득한 복수의 깊이 특징, 및/또는 비디오 시퀀스에서 현재 프레임 이미지 이전의 이미지 프레임에 대해 객체 추적을 수행할 때 추적 성공 신뢰도가 제1 기설정된 임계값보다 높은 이미지 프레임의 깊이 특징을 포함할 수 있다.
객체 추적 장치(800)는 또한 깊이 특징 획득부(840)도 포함하고, 깊이 특징 획득부(840)는 특징 추출 네트워크를 통해 제1 프레임 이미지의 객체 탐색 영역인 제1 탐색 영역(C0), 보조 프레임 이미지의 객체 탐색 영역인 보조 탐색 영역(Cn) 및 현재 프레임 이미지의 객체 탐색 영역인 현재 탐색 영역(Ct)에 대해 특징을 추출하여 제1 탐색 영역(C0)의 깊이 특징인 제1 깊이 특징(FO), 보조 탐색 영역(Cn)의 깊이 특징인 보조 깊이 특징(Fn) 및 현재 탐색 영역(Ct)의 깊이 특징인 현재 깊이 특징(Ft)을 획득하도록 구성된다.
이때, 제1 탐색 영역(C0)은 제1 프레임 이미지(412)의 객체의 바운딩 박스인 제1 바운딩 박스(bO)에 따라 결정된다. 그리고, 보조 탐색 영역(Cn)은 보조 프레임 이미지(413)의 객체 대상의 바운딩 박스인 보조 바운딩 박스(bn)에 따라 결정된다. 그리고, 현재 탐색 영역(Ct)은 현재 프레임 이미지(411) 이전의 N 프레임 이미지를 기반으로 예측된 객체 대상의 바운딩 박스인 예측 바운딩 박스(bp)에 따라 결정된다. 이때, N은 1보다 크거나 같은 정수이다. 구체적으로, 객체 추적 방법은 현재 프레임 이미지(411) 이전의 프레임 이미지의 객체 대상의 바운딩 박스에 따라 예측 바운딩 박스(bp)를 결정하고, 그런 다음, 예측 바운딩 박스(bp)에 따라 현재 프레임 이미지(411)에 대해 클리핑하여 현재 탐색 영역(Ct)를 얻는다.
또한, 깊이 특징 획득부(840)는 제1 탐색 영역(C0)에 대해 다중 증강(augmentation) 처리를 수행하여 복수의 증강 이미지(414)를 획득하고, 복수의 증강 이미지에 대해 특징을 추출하여 복수의 깊이 특징을 획득하도록 구성된다.
단기 필터 획득부(830)는 다음 동작을 수행함으로써 단기 필터를 예측하도록 구성될 수 있다. 단기 필터 획득부(830)는 제1 깊이 특징(FO) 및 제1 바운딩 박스(bO), 보조 깊이 특징(Fn) 및 보조 바운딩 박스(bn)에 대해 객체 상태 인코딩을 수행하여, 객체 상태 인코딩 벡터를 획득하고, 현재 탐색 영역(Ct)의 깊이 특징인 현재 깊이 특징(Ft)에 대해 현재 프레임 인코딩을 수행하여 현재 프레임 인코딩 벡터를 획득할 수 있다. 단기 필터 획득부(830)는 훈련된 트랜스포머 모델로 객체 상태 인코딩 벡터와 현재 프레임 인코딩 벡터를 처리하여 히든 특징을 얻고, 히든 특징을 선형 변환하여 단기 필터를 획득할 수 있다.
객체 추적 장치(800)는 또한 장기 필터 획득부(850)를 더 포함할 수 있다.
장기 필터 획득부(850)는 현재 프레임 이미지가 비디오 시퀀스의 미리 정해진 위치에 있는 이미지 프레임인 경우, 객체 템플릿 특징 풀을 기반으로 이전에 획득한 장기 필터를 최적화하여 장기 필터는 얻도록 구성될 수 있고, 또는 현재 프레임 이미지가 비디오 시퀀스의 미리 정해진 위치에 있는 이미지 프레임이 아닌 경우, 이전에 획득한 장기 필터를 장기 필터로 결정하도록 구성될 수 있다.
장기 필터 획득부(850)는 다음의 동작을 통해 이전에 획득한 장기 필터를 최적화하도록 구성될 수 있다. 장기 필터 획득부(850)는 객체 템플릿 특징 풀에서 소정 개수의 깊이 특징 및 상응하는 객체 대상의 바운딩 박스를 추출하여 필터 훈련 세트로 결정하고, 필터 훈련 세트를 기반으로, 필터 최적화 알고리즘을 통해 이전에 획득한 장기 필터에 대해 훈련 및/또는 최적화하여 장기 필터를 결정할 수 있다.
혼합 필터 획득부(810)는 단기 필터 및 장기 필터를 이용하여 각각 현재 프레임 이미지에 대해 상관 처리를 수행하여, 단기 객체 포지셔닝 응답맵(response map) 및 장기 객체 포지셔닝 응답맵을 획득하고, 단기 객체 포지셔닝 응답맵과 장기 객체 포지셔닝 응답맵에 따라, 단기 필터와 장기 필터를 융합하여 혼합 필터를 획득할 수 있다.
본 개시의 일 실시예에서, 혼합 필터 획득부(810)는 다음 동작을 통해 단기 필터와 장기 필터를 융합하도록 구성될 수 있다. 혼합 필터 획득부(810)는 단기 객체 포지셔닝 응답맵의 단기 포지셔닝 맵 품질 (Qst)과 장기 객체 포지셔닝 응답맵의 장기 포지셔닝 맵 품질(Qlt)을 평가할 수 있다. 예를 들어, 객체 추적 방법은 평균 피크 상관 에너지(APCE) 알고리즘을 사용하여 해당 평가 작업을 진행할 수 있다. 구체적으로는 상술한 <수학식 1>과 같을 수 있다. 그리고, 혼합 필터 획득부(810)는 단기 포지셔닝 맵 품질(Qst) 및 장기 포지셔닝 맴 품질(Qlt)과 제2 미리 정해진 임계값 간의 비교 결과에 따라, 단기 필터(fst)의 혼합 가중치(wst)와 장기 필터(flt)의 혼합 가중치(wlt)를 결정할 수 있다. 그리고, 혼합 필터 획득부(810)는 방법은 단기 필터의 혼합 가중치(wst)와 장기 필터의 혼합 가중치(wlt)에 따라, 단기 필터와 장기 필터를 융합하여 혼합 필터를 얻을 수 있다. 예를 들어, , 혼합 필터 획득부(810)는 상술한 <수학식 2>에 따라 융합 연산을 수행할 수 있다.
혼합 필터 획득부(810)는 다음 동작을 통해 단기 필터(fst)의 혼합 가중치(wst)와 장기 필터(flt)의 혼합 가중치(wlt)를 결정하도록 구성될 수 있다.
혼합 필터 획득부(810)는 단기 포지셔닝 맵 품질(Qst)이 제2 미리 정해진 임계값보다 크거나 같고 장기 포지셔닝 맴 품질(Qlt)가 제2 미리 정해진 임계값보다 작은 경우, 단기 필터의 혼합 가중치(wst)는 1로 설정하고, 장기 필터의 혼합 가중치(wlt)는 0으로 설정할 수 있다.
혼합 필터 획득부(810)는 단기 포지셔닝 맵 품질(Qst)이 제2 미리 정해진 임계값보다 작고 장기 포지셔닝 맴 품질(Qlt)가 제2 미리 정해진 임계값보다 크거나 같은 경우, 단기 필터의 혼합 가중치(wst)는 0으로 설정하고, 장기 필터의 혼합 가중치(wlt)는 1로 설정할 수 있다.
혼합 필터 획득부(810)는 단기 포지셔닝 맵 품질(Qst)과 장기 포지셔닝 맴 품질(Qlt)이 모두 제2 기설정된 임계값보다 작으면, 단기 필터의 혼합 가중치(wst)와 장기 필터의 혼합 가중치(wlt)를 이전에 얻은 혼합 필터의 상응하는 가중치로 설정할 수 있다.
혼합 필터 획득부(810)는 단기 포지셔닝 맵 품질(Qst)과 장기 포지셔닝 맴 품질(Qlt)이 모두 제2 기설정된 임계값보다 크거나 같으면, wst와 wlt를 Softmax(Qst, Qlt) 활성화 함수의 정규화된 출력의 혼합 가중치로 설정할 수 있다.
본 개시의 다른 일 실시예에서, 혼합 필터 획득부(810)는 다음 동작을 통해 단기 필터와 장기 필터를 융합하도록 구성될 수 있다. 혼합 필터 획득부(810)는 단기 객체 포지셔닝 응답맵과 장기 객체 포지셔닝 응답맵에 따라, 컨볼루션 신경망과 정규화 함수를 이용하여 단기 필터의 혼합 가중치(wst)와 장기 필터의 혼합 가중치(wlt)를 얻고, 단기 필터의 혼합 가중치(wst)와 장기 필터의 혼합 가중치(wlt)에 따라, 단기 필터와 장기 필터를 융합하여 혼합 필터를 얻을 수 있다.
혼합 필터 획득부(810)는 다음 동작을 통해 컨볼루션 신경망 및 정규화 함수를 이용하여 단기 필터의 혼합 가중치(wst)와 장기 필터의 혼합 가중치(wlt)를 획득하도록 구성될 수 있다.
혼합 필터 획득부(810)는 단기 객체 포지셔닝 응답맵과 장기 객체 포지셔닝 응답맵을 혼합 처리하여 혼합 응답맵을 얻을 수 있다. 예를 들어, 혼합 필터 획득부(810)는 상술한 <수학식 3>에 따라 혼합할 수 있다. 그리고, 혼합 필터 획득부(810)는 컨볼루션 신경망을 이용하여 혼합 응답맵에서 특징을 추출하고, 선형 변환 레이어를 이용하여 추출된 특징을 선형 변환하여 혼합 가중치 벡터를 얻을 수 있다. 그리고, 혼합 필터 획득부(810)는 Softmax 활성화 함수에 따라 혼합 가중치 벡터를 정규화하여 단기 필터의 혼합 가중치(wst)와 장기 필터의 혼합 가중치(wlt)를 얻을 수 있다. 예를 들어, 혼합 필터 획득부(810)는 상술한 <수학식 4>에 따라 혼합 가중치 벡터를 정규화할 수 있다.
도 9는 본 개시의 일 실시예에 따른 객체 추적부를 도시한 블록도이다.
도 9를 참조하면, 객체 추적부(820)는 객체 포지셔닝 응답맵 획득부(841), 초기 객체 대상 바운딩 박스 예측부(842) 및 최종 객체 대상 바운딩 박스 예측부(843)를 포함할 수 있다.
객체 포지셔닝 응답맵 획득부(841)는 혼합 필터를 이용하여 현재 프레임 이미지의 객체 탐색 영역(Ct)의 깊이 특징(Ft)에 대해 상관 처리를 수행하여 객체 포지셔닝 응답맵을 얻도록 구성될 수 있다. 이때, 현재 프레임 이미지의 객체 탐색 영역(Ct)은 현재 프레임 이미지 이전의 N 프레임 이미지를 기반으로 예측된 객체 대상의 바운딩 박스(bp)에 따라 결정된다. 이때, N은 1보다 크거나 같은 정수이다.
초기 객체 대상 바운딩 박스 예측부(842)는 객체 포지셔닝 응답맵을 기반으로 현재 프레임 이미지의 초기 객체 대상 바운딩 박스를 예측하도록 구성될 수 있다.
최종 객체 대상 바운딩 박스 예측부(843)는 초기 객체 대상 바운딩 박스에 기초하여, 분할 네트워크를 사용하여 객체 대상을 분할하고, 객체 대상의 객체 대상 분할맵 및 최종 객체 대상의 바운딩 박스를 획득하도록 구성될 수 있다.
본 개시의 실시예가 제공하는 기술 방안은 적어도 다음과 같은 유익한 효과를 가져온다. 해당 기술 방안은 장기 필터와 단기 필터를 융합하여 객체 추적 과정에서의 장기 필터와 단기 필터의 이점을 동시에 얻을 수 있다. 예를 들어, 장기 필터는 객체 추적 과정에서 수집된 추적 결과를 객체 추적 과정에서 훈련 세트로 취하고, 필터 매개변수를 온라인에서 지속적으로 훈련/최적화하여 객체 대상의 장기 추적을 위한 특징 표현을 획득하며, 높은 견고성과 안정성을 갖는다. 단기 필터를 결정하는 과정은 오프라인 훈련의 네트워크를 사용하여 가장 가까운 신뢰할 수 있는 추적 프레임(즉 보조 프레임) 및 초기 프레임의 특징을 마이닝하고, 단기 필터 매개변수를 직접 예측하며 식별력 추적에 도움이 되는 단기 필터 매개변수의 특징 표현을 얻는다. 따라서, 본 개시의 실시예에서 제안하는 기술 방안은 특정 프레임 추적 오류로 인한 성능 저하를 방지할 뿐만 아니라 추적기의 식별력 또한 높일 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (20)

  1. 단기 필터와 장기 필터를 융합하여 혼합 필터를 획득하는 단계; 및
    상기 혼합 필터를 기반으로 현재 프레임 이미지에서 객체 추적을 수행하는 단계
    를 포함하고,
    상기 단기 필터는,
    비디오 시퀀스에서 상기 현재 프레임 이미지의 예측을 기반으로 획득하고,
    상기 장기 필터는,
    이전에 획득한 장기 필터이거나 객체 템플릿 특징 풀을 기반으로 상기 이전에 획득한 장기 필터를 최적화하여 획득하는
    객체 추적 방법.
  2. 제1항에 있어서,
    상기 혼합 필터를 획득하는 단계 이전에,
    상기 비디오 시퀀스의 제1 프레임 이미지, 상기 현재 프레임 이미지 및 보조 프레임 이미지를 기반으로 상기 현재 프레임 이미지에 대응하는 상기 단기 필터를 예측하여 획득하는 단계
    를 더 포함하고,
    상기 보조 프레임 이미지는,
    상기 비디오 시퀀스에서 추적 성공 신뢰도가 제1 임계값보다 높고 시간 순서상 상기 현재 프레임에 가장 가까운 이미지 프레임인
    객체 추적 방법.
  3. 제2항에 있어서,
    상기 단기 필터를 예측하여 획득하는 단계는,
    특징 추출 네트워크를 통해 상기 제1 프레임 이미지의 객체 탐색 영역인 제1 탐색 영역, 상기 보조 프레임 이미지의 객체 탐색 영역인 보조 탐색 영역 및 상기 현재 프레임 이미지의 객체 탐색 영역인 현재 탐색 영역에 대해 특징을 추출하여 상기 제1 탐색 영역의 깊이 특징인 제1 깊이 특징, 상기 보조 탐색 영역의 깊이 특징인 보조 깊이 특징 및 상기 현재 탐색 영역의 깊이 특징인 현재 깊이 특징을 획득하는 단계;
    상기 제1 깊이 특징 및 상기 제1 프레임 이미지의 객체의 바운딩 박스인 제1 바운딩 박스, 상기 보조 깊이 특징 및 상기 보조 프레임 이미지의 객체의 바운딩 박스인 보조 바운딩 박스에 대해 객체 상태 인코딩을 수행하여, 객체 상태 인코딩 벡터를 획득하는 단계;
    상기 현재 깊이 특징에 대해 인코딩을 수행하여 현재 프레임 인코딩 벡터를 획득하는 단계;
    훈련된 트랜스포머 모델로 상기 객체 상태 인코딩 벡터와 상기 현재 프레임 인코딩 벡터를 처리하여 히든 특징을 얻는 단계; 및
    상기 히든 특징을 선형 변환하여 상기 단기 필터를 획득하는 단계
    를 포함하고,
    상기 제1 탐색 영역은,
    상기 제1 바운딩 박스에 따라 결정되고,
    상기 보조 탐색 영역은,
    상기 보조 바운딩 박스에 따라 결정되고,
    상기 현재 탐색 영역은,
    상기 현재 프레임 이미지 이전의 N 프레임 이미지(상기 N은 1보다 크거나 같은 정수임)를 기반으로 예측된 객체의 바운딩 박스인 예측 바운딩 박스에 따라 결정되는 -상기 N은 1보다 크거나 같은 정수임-
    객체 추적 방법.
  4. 제1항에 있어서,
    상기 혼합 필터를 획득하는 단계 이전에,
    상기 장기 필터를 획득하는 단계
    를 더 포함하고,
    상기 장기 필터를 획득하는 단계는,
    상기 현재 프레임 이미지가 상기 비디오 시퀀스의 기설정된 위치에 있는 이미지 프레임인 경우, 객체 템플릿 특징 풀을 기반으로 이전에 획득한 장기 필터를 최적화하여 상기 장기 필터를 획득하거나, 또는
    상기 현재 프레임 이미지가 상기 비디오 시퀀스의 기설정된 위치에 있는 이미지 프레임이 아닌 경우, 이전에 획득한 장기 필터를 상기 장기 필터로 획득하는
    객체 추적 방법.
  5. 제1항에 있어서,
    상기 이전에 획득한 장기 필터의 최적화는,
    상기 객체 템플릿 특징 풀에서 소정 개수의 깊이 특징 및 상응하는 객체의 바운딩 박스를 추출하여 필터 훈련 세트로 결정하는 단계; 및
    상기 필터 훈련 세트를 기반으로, 필터 최적화 알고리즘을 통해 상기 이전에 획득한 장기 필터에 대해 훈련 및/또는 최적화하는 단계
    를 포함하는 객체 추적 방법.
  6. 제1항에 있어서,
    상기 단기 필터와 상기 장기 필터를 융합하여 혼합 필터를 획득하는 단계는,
    상기 단기 필터 및 상기 장기 필터를 이용하여 각각 상기 현재 프레임 이미지에 대해 상관 처리를 수행하여, 단기 객체 포지셔닝 응답맵(response map) 및 장기 객체 포지셔닝 응답맵을 획득하는 단계; 및
    상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 획득하는 단계
    를 포함하는 객체 추적 방법.
  7. 제6항에 있어서,
    상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 획득하는 단계는,
    상기 단기 객체 포지셔닝 응답맵의 단기 포지셔닝 맵 품질인 단기 맵 품질 및 상기 장기 객체 포지셔닝 응답맵의 장기 포지셔닝 맵 품질인 장기 맴 품질을 평가하는 단계;
    상기 단기 맵 품질 및 상기 장기 맴 품질과 제2 기설정된 임계값의 비교 결과에 따라, 상기 단기 필터의 혼합 가중치 및 상기 장기 필터의 혼합 가중치를 결정하는 단계; 및
    상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 얻는 단계
    를 포함하는 객체 추적 방법.
  8. 제7항에 있어서,
    상기 단기 필터의 혼합 가중치 및 상기 장기 필터의 혼합 가중치를 결정하는 단계는,
    상기 단기 맵 품질이 상기 제2 기설정된 임계값보다 크거나 같고, 상기 장기 맵 품질이 상기 제2 기설정된 임계값보다 작을 경우, 상기 단기 필터의 혼합 가중치를 1로 설정하고 상기 장기 필터의 혼합 가중치를 0으로 설정하는 단계; 또는
    상기 단기 맵 품질이 상기 제2 기설정된 임계값보다 작고 상기 장기 맴 품질이 상기 제2 기설정된 임계값보다 크거나 같을 경우, 상기 단기 필터의 혼합 가중치를 0으로 설정하고 상기 장기 필터의 혼합 가중치를 1로 설정하는 단계; 또는
    상기 단기 필터의 혼합 가중치 및 상기 장기 맴 품질이 모두 상기 제2 기설정된 임계값보다 작을 경우, 상기 단기 필터의 혼합 가중치 및 상기 장기 필터의 혼합 가중치를 이전에 획득한 혼합 필터의 상응하는 가중치 값으로 설정하는 단계; 또는
    상기 단기 필터의 혼합 가중치 및 상기 장기 맴 품질이 모두 상기 제2 기설정된 임계값보다 크거나 같을 경우, 상기 단기 필터의 혼합 가중치 및 상기 장기 필터의 혼합 가중치를 상기 단기 맵 품질과 상기 장기 맴 품질의 소프트맥스(Softmax) 활성화 함수의 정규화된 출력의 혼합 가중치로 설정하는 단계
    를 포함하는 객체 추적 방법.
  9. 제6항에 있어서,
    상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 획득하는 단계는,
    상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 컨볼루션 신경망과 정규화 함수를 이용하여 상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치를 얻는 단계; 및
    상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 얻는 단계
    를 포함하는 객체 추적 방법.
  10. 제9항에 있어서,
    상기 컨볼루션 신경망과 정규화 함수를 이용하여 상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치를 얻는 단계는,
    상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵을 혼합 처리하여 혼합 응답맵을 얻는 단계;
    상기 컨볼루션 신경망을 이용하여 상기 혼합 응답맵에서 특징을 추출하고, 선형 변환 레이어를 이용하여 추출된 특징을 선형 변환하여 혼합 가중치 벡터를 얻는 단계; 및
    소프트맥스 활성화 함수에 따라 상기 혼합 가중치 벡터를 정규화하여 상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치를 얻는 단계
    를 포함하는 객체 추적 방법.
  11. 제1항에 있어서,
    상기 혼합 필터를 기반으로 상기 현재 프레임 이미지에서 객체 추적을 수행하는 단계는,
    상기 혼합 필터를 이용하여 상기 현재 프레임 이미지의 객체 탐색 영역의 깊이 특징인 현재 깊이 특징에 대해 상관 처리를 수행하여 객체 포지셔닝 응답맵을 얻는 단계;
    상기 객체 포지셔닝 응답맵을 기반으로, 상기 현재 프레임 이미지의 초기 객체 대상 바운딩 박스를 예측하는 단계; 및
    상기 초기 객체 대상 바운딩 박스에 기초하여, 분할 네트워크를 사용하여 객체 대상을 분할하고, 상기 객체 대상의 객체 대상 분할맵 및 최종 객체 대상의 바운딩 박스를 획득하는 단계
    를 포함하고,
    상기 현재 프레임 이미지의 객체 탐색 영역은,
    상기 현재 프레임 이미지 이전의 N 프레임 이미지(상기 N은 1보다 크거나 같은 정수임)를 기반으로 예측된 객체 대상의 바운딩 박스에 따라 결정되는
    객체 추적 방법.
  12. 제1항에 있어서,
    상기 객체 템플릿 특징 풀은,
    상기 현재 프레임 이미지의 객체 탐색 영역의 깊이 특징; 및/또는
    상기 비디오 시퀀스의 제1 프레임 이미지의 객체 탐색 영역에 대해 다중 증강(augmentation) 처리를 수행하여 복수의 증강 이미지를 획득하고 상기 복수의 증강 이미지에 대해 특징을 추출하여 획득한 복수의 깊이 특징; 및/또는
    상기 비디오 시퀀스에서 상기 현재 프레임 이미지 이전의 이미지 프레임에 대해 객체 추적을 수행할 때 추적 성공 신뢰도가 제1 기설정된 임계값보다 높은 이미지 프레임의 깊이 특징
    을 포함하는 객체 추적 방법.
  13. 제1항 내지 제12항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록 매체.
  14. 단기 필터와 장기 필터를 융합하여 혼합 필터를 획득하는 혼합 필터 획득부; 및
    상기 혼합 필터를 기반으로 현재 프레임 이미지에서 객체 추적을 수행하는 객체 추적부
    를 포함하고,
    상기 단기 필터는,
    비디오 시퀀스에서 상기 현재 프레임 이미지의 예측을 기반으로 획득하고,
    상기 장기 필터는,
    이전에 획득한 장기 필터이거나 객체 템플릿 특징 풀을 기반으로 상기 이전에 획득한 장기 필터를 최적화하여 획득하는
    객체 추적 장치.
  15. 제14항에 있어서,
    상기 비디오 시퀀스의 제1 프레임 이미지, 상기 현재 프레임 이미지 및 보조 프레임 이미지를 기반으로 상기 현재 프레임 이미지에 대응하는 상기 단기 필터를 예측하여 획득하는 단기 필터 획득부
    를 더 포함하고,
    상기 보조 프레임 이미지는,
    상기 비디오 시퀀스에서 추적 성공 신뢰도가 제1 임계값보다 높고 시간 순서상 상기 현재 프레임에 가장 가까운 이미지 프레임인
    객체 추적 장치.
  16. 제14항에 있어서,
    상기 현재 프레임 이미지가 상기 비디오 시퀀스의 기설정된 위치에 있는 이미지 프레임인 경우, 객체 템플릿 특징 풀을 기반으로 이전에 획득한 장기 필터를 최적화하여 상기 장기 필터를 획득하거나, 또는 상기 현재 프레임 이미지가 상기 비디오 시퀀스의 기설정된 위치에 있는 이미지 프레임이 아닌 경우, 이전에 획득한 장기 필터를 상기 장기 필터로 획득하는 장기 필터 획득부
    를 더 포함하는 객체 추적 장치.
  17. 제14항에 있어서,
    상기 혼합 필터 획득부는,
    상기 단기 필터 및 상기 장기 필터를 이용하여 각각 상기 현재 프레임 이미지에 대해 상관 처리를 수행하여, 단기 객체 포지셔닝 응답맵(response map) 및 장기 객체 포지셔닝 응답맵을 획득하고,
    상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 획득하는
    객체 추적 장치.
  18. 제17항에 있어서,
    상기 혼합 필터 획득부는,
    상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 획득할 때,
    상기 단기 객체 포지셔닝 응답맵의 단기 포지셔닝 맵 품질인 단기 맵 품질 및 상기 장기 객체 포지셔닝 응답맵의 장기 포지셔닝 맵 품질인 장기 맴 품질을 평가하고,
    상기 단기 맵 품질 및 상기 장기 맴 품질과 제2 기설정된 임계값의 비교 결과에 따라, 상기 단기 필터의 혼합 가중치 및 상기 장기 필터의 혼합 가중치를 결정하고,
    상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 얻는
    객체 추적 장치.
  19. 제17항에 있어서,
    상기 혼합 필터 획득부는,
    상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 획득할 때,
    상기 단기 객체 포지셔닝 응답맵과 상기 장기 객체 포지셔닝 응답맵에 따라, 컨볼루션 신경망과 정규화 함수를 이용하여 상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치를 얻고,
    상기 단기 필터의 혼합 가중치와 상기 장기 필터의 혼합 가중치에 따라, 상기 단기 필터와 상기 장기 필터를 융합하여 상기 혼합 필터를 얻는
    객체 추적 장치.
  20. 제14항에 있어서,
    상기 객체 추적부는,
    상기 혼합 필터를 이용하여 상기 현재 프레임 이미지의 객체 탐색 영역의 깊이 특징인 현재 깊이 특징에 대해 상관 처리를 수행하여 객체 포지셔닝 응답맵을 얻는 객체 포지셔닝 응답맵 획득부;
    상기 객체 포지셔닝 응답맵을 기반으로, 상기 현재 프레임 이미지의 초기 객체 대상 바운딩 박스를 예측하는 초기 객체 대상 바운딩 박스 예측부; 및
    상기 초기 객체 대상 바운딩 박스에 기초하여, 분할 네트워크를 사용하여 객체 대상을 분할하고, 상기 객체 대상의 객체 대상 분할맵 및 최종 객체 대상의 바운딩 박스를 획득하는 최종 객체 대상 바운딩 박스 예측부
    를 포함하고,
    상기 현재 프레임 이미지의 객체 탐색 영역은,
    상기 현재 프레임 이미지 이전의 N 프레임 이미지(상기 N은 1보다 크거나 같은 정수임)를 기반으로 예측된 객체 대상의 바운딩 박스에 따라 결정되는
    객체 추적 장치.
KR1020230030463A 2022-07-29 2023-03-08 객체 추적 방법 및 장치 KR20240016866A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/355,725 US20240046486A1 (en) 2022-07-29 2023-07-20 Method and apparatus with object tracking

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210910093.6 2022-07-29
CN202210910093.6A CN117541821A (zh) 2022-07-29 2022-07-29 目标跟踪方法和装置

Publications (1)

Publication Number Publication Date
KR20240016866A true KR20240016866A (ko) 2024-02-06

Family

ID=89792420

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230030463A KR20240016866A (ko) 2022-07-29 2023-03-08 객체 추적 방법 및 장치

Country Status (2)

Country Link
KR (1) KR20240016866A (ko)
CN (1) CN117541821A (ko)

Also Published As

Publication number Publication date
CN117541821A (zh) 2024-02-09

Similar Documents

Publication Publication Date Title
JP2020038658A (ja) エッジイメージを利用して物体を検出する学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置
US10740593B1 (en) Method for recognizing face using multiple patch combination based on deep neural network with fault tolerance and fluctuation robustness in extreme situation
CN110879959B (zh) 生成数据集的方法及装置、利用其的测试方法及测试装置
CN109784283B (zh) 基于场景识别任务下的遥感图像目标提取方法
CN115879535B (zh) 一种自动驾驶感知模型的训练方法、装置、设备和介质
KR102372702B1 (ko) 도메인 적응에 적용될 수 있는 사이클 gan을 이용하여 실제 이미지 상의 객체 검출에 사용되는, 실제 세계 상의 실제 이미지를 가상 세계 상의 가상 이미지로 변환하는 런타임 입력 변환을 위한 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
JP7263216B2 (ja) ワッサースタイン距離を使用する物体形状回帰
US11113574B1 (en) Methods for performing self-supervised learning of deep-learning based detection network by using deep Q-network and devices using the same
CN110879960B (zh) 生成卷积神经网络学习用图像数据集的方法及计算装置
CN111476082B (zh) 在线批次归一化、在线学习及持续学习的方法和装置
EP3690726A1 (en) Learning method and learning device for generating training data from virtual data on virtual world by using generative adversarial network, to thereby reduce annotation cost required in training processes of neural network for autonomous driving, and a testing method and a testing device using the same
CN113705276A (zh) 模型构建方法、模型构建装置、计算机设备及介质
EP3686783A1 (en) Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles
KR20240016866A (ko) 객체 추적 방법 및 장치
CN114708185A (zh) 基于大数据赋能和模型流的目标检测方法、系统及设备
KR102526255B1 (ko) 다층 랜덤 포레스트 회귀 분석기 기반의 자기-지도 키포인트 검출 방법 및 장치
CN117095136B (zh) 一种基于3d gan的多物体和多属性的图像重建和编辑方法
US20240046486A1 (en) Method and apparatus with object tracking
Zhang et al. Unsupervised Domain Adaptation for Self-Driving from Past Traversal Features
CN114332716B (zh) 视频中场景的聚类方法、装置、电子设备及存储介质
EP4064126B1 (en) Methods for training and testing perception network by using images obtained from multiple imaging devices having diverse specifications and learning device and testing device using the same
Mao et al. SATMask: spatial attention transform mask for dense instance segmentation
Chen et al. GL-NET: Gaussian Leading Network for SAR Ship Detection
Wang et al. HSRRS classification method based on deep transfer learning and multi-feature fusion
Hadi et al. Deer Hunting Optimization with Path Augmented RetinaNet Model for Scale-Invariant Object Detection and Tracking