KR20200061118A - Tracking method and system multi-object in video - Google Patents

Tracking method and system multi-object in video Download PDF

Info

Publication number
KR20200061118A
KR20200061118A KR1020180146506A KR20180146506A KR20200061118A KR 20200061118 A KR20200061118 A KR 20200061118A KR 1020180146506 A KR1020180146506 A KR 1020180146506A KR 20180146506 A KR20180146506 A KR 20180146506A KR 20200061118 A KR20200061118 A KR 20200061118A
Authority
KR
South Korea
Prior art keywords
tracking
image
tracklet
appearance
objects
Prior art date
Application number
KR1020180146506A
Other languages
Korean (ko)
Other versions
KR102132722B1 (en
Inventor
김학일
최학남
유명걸
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020180146506A priority Critical patent/KR102132722B1/en
Publication of KR20200061118A publication Critical patent/KR20200061118A/en
Application granted granted Critical
Publication of KR102132722B1 publication Critical patent/KR102132722B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method and a system for tracking multiple objects in a video, and more specifically, to a technique and a system for tracking objects by using the characteristics of the objects in a video, tracking movements of the objects, and performing correction when missing or incorrectly tracking the objects to accurately track the objects. The method comprises the steps of: obtaining an image of an area of interest; identifying a plurality of objects included in the image respectively, and tracking a tracklet of the objects; evaluating the reliability of the tracking results; and re-identifying the objects whose reliability evaluation value is below a threshold value and re-tracking the tracklet of the objects.

Description

영상 내 다중 객체 추적 방법 및 시스템{TRACKING METHOD AND SYSTEM MULTI-OBJECT IN VIDEO}Tracking method and system for multiple objects in an image {TRACKING METHOD AND SYSTEM MULTI-OBJECT IN VIDEO}

본 발명은 영상 내 다중 객체 추적 방법 및 시스템에 관한 것으로, 더욱 상세하게는 영상 내 객체의 특징을 이용해 객체를 추적하고 객체의 움직임을 추적하고, 객체를 놓치거나 잘못 추적한 경우 이를 수정해 정확한 객체 추적을 수행할 수 있는 기술 및 시스템에 관한 것이다.The present invention relates to a method and system for tracking multiple objects in an image, and more specifically, to track an object using characteristics of the object in the image, track the movement of the object, and correct the correct object when the object is missed or incorrectly tracked. It is related to technology and systems capable of performing tracking.

컴퓨터 비전의 근본적이고 도전적인 문제 중 하나인 다중 물체 추적(MOT: MULTIPLE-OBJECT TRACKING)은 자율 주행, 비디오 감시 및 고급 운전자 보조 시스템 (ADAS: advanced driver assistance system)과 같은 다양한 적용 분야를 가지고 있다. 다중 물체 추적의 목표는 객체의 위치를 추정하고 객체의 궤적을 산출하기 위해 객체의 신원을 일관성있게 유지하는 것이다. MOT는 지난 10 년 동안 엄청나게 발전했다. 그러나 다른 대상의 비슷한 모양과 복잡한 장면의 다른 대상이나 배경에 의한 잦은 또는 장기간의 폐색으로 인해 여전히 어려운 작업이다. 최근의 객체 검출기의 발전으로 인해 추적 탐지 접근법은 MOT에서 놀라운 성능 향상을 보였다.One of the fundamental and challenging problems of computer vision, MULTIPLE-OBJECT TRACKING (MOT) has a wide range of applications, such as autonomous driving, video surveillance and advanced driver assistance systems (ADAS). The goal of multi-object tracking is to maintain the object's identity consistently in order to estimate the object's position and calculate the object's trajectory. MOT has evolved tremendously over the past decade. However, it is still a difficult task due to frequent or long-term occlusion by different objects or backgrounds of similar shapes and complex scenes of different objects. Due to recent advances in object detectors, the tracking detection approach has shown a remarkable performance improvement in MOT.

탐지에 의한 추적 접근법은 오프라인과 온라인 추적 방법으로 분류 할 수 있다. 오프라인 방법은 일괄적 방법을 사용하여 폐색과 잘못된 탐지에 대해 견고한 다중 궤도를 구축한다. 반면 온라인 방법은 이전 및 현재 프레임 정보를 사용하여 프레임 별로 궤도를 작성하기 때문에 실제 응용 프로그램에 적용 할 수 있다. 오프라인 방법은 이전 및 현재 정보뿐만 아니라 미래 정보를 사용하기 때문에 온라인 방법보다 더 나은 성능을 보여 주지만 ADAS와 같은 실시간 응용 프로그램에는 적합하지 않다. The tracking method by detection can be classified into offline and online tracking methods. The offline method builds a robust multi-orbit for occlusion and false detection using a batch method. On the other hand, the online method can be applied to actual applications because it uses the previous and current frame information to create trajectories for each frame. The offline method shows better performance than the online method because it uses future information as well as previous and current information, but is not suitable for real-time applications such as ADAS.

탐지에 의한 추적 접근법은 온라인 MOT에서 많은 진전을 가져 왔지만, 단편화된 궤도 생성 및 객체 위치 드리프트 문제는 여전히 발생할 수 있다. 이러한 문제의 원인은 주로 (i) 객체 특징이 유사한 외양으로 인해 내부 카테고리를 구별하기에 충분히 강하지 않으며 (ii) 폐색과 신뢰할 수 없는 탐지로 인해 객체가 일시적으로 손실되거나 잘못된 연관이 발생한다는 것이다. 일반적으로 객체 특징 표현과 데이터 연관은 MOT의 성능을 향상 시키는데 필수적이다. 게다가 정확도와 처리 시간의 균형은 실제 응용 프로그램에서도 중요하다.The tracking approach by detection has made great progress in the online MOT, but fragmented trajectory generation and object position drift problems can still occur. The cause of this problem is mainly that (i) the object characteristics are not strong enough to distinguish the internal categories due to similar appearances, and (ii) occlusion and unreliable detection cause the object to be temporarily lost or incorrect association. In general, object feature expression and data association are essential to improve MOT performance. Moreover, the balance between accuracy and processing time is also important in practical applications.

다행히도, 대규모 시각적 데이터 세트의 개발과 컴퓨팅 파워의 증가와 함께 강력한 차별화된 능력과 특징 표현 학습 능력을 갖춘 CNN (Convolutional Neural Network)은 컴퓨터 비전 작업에서 획기적인 성능을 보여 주었다. MOT는 또한 CNNs로부터 이익을 얻는다. 그러나 내부 분류 객체와 교합을 다루는 차별성이 여전히 부족하다. 상기한 문제를 해결하는 일반적인 방법은 추적된 각 객체에 대해 인스턴스별 모양 모델을 유지하고 백 프레젠테이션을 통해 테스트하는 동안 CNN 모델을 미세 조정하는 것이다. MOT의 성능을 향상시키는 훌륭한 방법이지만, 온라인 교육용 CNN의 허용되지 않는 계산 비용과 처리 시간을 고려할 때 MOT에는 낮은 수준의 수작업 기능이 여전히 널리 사용된다. 이러한 한계를 극복하기 위해 먼저 내부-카테고리 객체를 구별하는 데 유용한 객체 식별 데이터 세트를 사용하여 CNN 모델을 오프라인으로 학습한다. 다음으로, 외관 변화에 강건한 단일 객체 추적 방법 중 하나 인 상관 필터 기반 신뢰도를 MOT에 도입하여 각 트랙렛(Tracklet)에 대한 견고한 외형 모델을 만든다.Fortunately, with the development of large-scale visual data sets and increased computing power, the Convolutional Neural Network (CNN), with its powerful differentiated and feature-learning skills, has shown breakthrough performance in computer vision work. MOT also benefits from CNNs. However, there is still a lack of discrimination dealing with internal classification objects and occlusion. A common way to solve the above problem is to maintain an instance-specific shape model for each tracked object and fine-tune the CNN model during testing through back presentation. It's a great way to improve the performance of the MOT, but given the unacceptable computational cost and processing time of the CNN for online education, low-level manual features are still widely used in the MOT. To overcome this limitation, we first train the CNN model offline using a set of object identification data that is useful for distinguishing inner-category objects. Next, a correlation filter-based reliability, which is one of the single object tracking methods robust to appearance change, is introduced into the MOT to create a robust appearance model for each tracklet.

또한, 상관 필터 기반 신뢰도는 임시 객체 손실 및 잘못된 연관성 문제를 개선 할 수 있다. 데이터 연관성은 신뢰도 점수에 따라 두 단계(계층적으로)로 나눌 수 있다. 첫 번째 단계는 모든 트랙렛과 탐지 간의 연결 문제를 해결하고 두 번째 단계는 신뢰도 점수에 의해 결정되는 잘못된 연관 결과와 교합 또는 다른 결합되지 않은 객체에서 다시 나타나는 객체의 탐지로 드리프팅 트랙렛을 포함한 두 종류의 트랙렛에 적용된다 .In addition, the reliability based on the correlation filter can improve the problem of temporary object loss and incorrect association. Data relevance can be divided into two levels (hierarchically) according to the reliability score. The first step solves the connection problem between all tracklets and detections, and the second step involves two, including a drifting tracklet, with incorrect association results determined by a confidence score and detection of objects reoccurring in occlusal or other uncoupled objects. Applies to tracklets of this type.

따라서, 정확도와 처리 시간의 균형을 맞추는 기술이 필요한 실정이다.Therefore, there is a need for a technique for balancing accuracy and processing time.

따라서, 본 발명은 상기한 바와 같은 문제점을 해결하기 위한 것으로서, 영상 내 객체 추적 방법 및 시스템에 있어서, 정확도를 높이고 처리 속도를 향상시키는 기술을 제공하는 것을 목적으로 한다.Accordingly, the present invention is to solve the above problems, and an object of the object tracking method and system in an image is to provide a technique for improving accuracy and improving processing speed.

상기한 문제를 해결하기 위한 본 발명의 일 실시 예에 따른 영상 내 다중 객체 추적 방법은 관심 영역의 영상을 획득하는 단계; 상기 영상에 포함되는 복수의 객체를 각각 식별하고, 상기 객체의 트랙렛(tracklet)을 추적하는 단계; 상기 추적 결과의 신뢰도를 평가하는 단계; 및 상기 신뢰도 평가가 임계값 이하인 객체를 재식별하고 상기 객체의 트랙렛을 재추적하는 단계;를 포함할 수 있다.A multi-object tracking method in an image according to an embodiment of the present invention for solving the above problems may include obtaining an image of a region of interest; Identifying a plurality of objects included in the image, and tracking tracklets of the objects; Evaluating the reliability of the tracking result; And re-identifying an object whose reliability evaluation is less than or equal to a threshold and re-tracking the tracklet of the object.

본 발명의 일 실시 예에 따르면, 상기 영상 획득 단계는, 식별된 객체 및 트랙렛 정보를 포함하는 영상을 획득하는 단계; 및, 상기 식별된 객체의 외형적 특징을 추출해. 학습하는 단계;를 포함할 수 있다.According to an embodiment of the present invention, the image acquiring step includes: acquiring an image including the identified object and tracklet information; And, extract the external features of the identified object. Learning; may include.

본 발명의 일 실시 예에 따르면, 상기 제1 추적 단계는, 상기 객체의 외관, 형태 및 움직임 정보를 이용한 데이터 상관을 통해 추적할 수 있다.According to an embodiment of the present invention, the first tracking step may be tracked through data correlation using the appearance, shape, and motion information of the object.

본 발명의 일 실시 예에 따르면, 상기 제2 추적 단계는, 상기 객체의 외관 및 형태 정보를 이용한 데이터 상관을 통해 추적할 수 있다.According to an embodiment of the present invention, the second tracking step may be tracked through data correlation using appearance and shape information of the object.

본 발명의 일 실시 예에 따르면, 상기 재추적 결과에 따른 상기 객체의 외관 및 형태 정보를 이용해 트랙렛을 업데이트하는 단계; 및 상기 객체의 외관, 형태 및 트랙렛 정보를 이용해 상기 객체의 외형 모델을 업데이트하는 단계;를 더 포함할 수 있다.According to an embodiment of the present invention, updating the tracklet using the appearance and shape information of the object according to the re-tracking result; And updating the appearance model of the object using the appearance, shape, and tracklet information of the object.

상기한 문제를 해결하기 위한 본 발명의 일 실시 예에 따른 영상 내 다중 객체 추적 시스템은 관심 영역의 영상을 획득하는 영상획득부; 상기 영상에 포함되는 복수의 객체를 각각 식별하고, 상기 객체의 트랙렛(tracklet)을 각각 추적하는 객체검출부; 상기 추적 결과의 신뢰도를 평가하는 검증부;를 포함하고, 상기 객체검출부는, 상기 신뢰도 평가가 임계값 이하인 객체를 재식별하고 트랙렛을 재추적할 수 있다.In order to solve the above problems, a multi-object tracking system in an image according to an embodiment of the present invention includes an image acquisition unit for acquiring an image of a region of interest; An object detection unit that identifies a plurality of objects included in the image and tracks a tracklet of the object, respectively; Includes; a verification unit for evaluating the reliability of the tracking result, the object detection unit, the reliability evaluation can re-identify the object below the threshold value and retrace the tracklet.

본 발명의 일 실시 예에 따르면, 상기 영상획득부는, 식별된 객체 및 트랙렛 정보를 포함하는 영상을 획득하고, 상기 식별된 객체의 외형적 특징을 추출해 학습할 수 있다.According to an embodiment of the present invention, the image acquisition unit may acquire an image including the identified object and tracklet information, and learn by extracting an external characteristic of the identified object.

본 발명의 일 실시 예에 따르면, 상기 객체검출부는, 상기 객체의 외관, 형태 및 움직임 정보를 이용한 데이터 상관을 통해 추적할 수 있다.According to an embodiment of the present invention, the object detection unit may track through data correlation using the appearance, shape, and motion information of the object.

본 발명의 일 실시 예에 따르면, 상기 객체검출부는, 상기 재추적 결과에 따른 상기 객체의 외관 및 형태 정보를 이용해 트랙렛을 업데이트하고, 상기 객체의 외관, 형태 및 트랙렛 정보를 이용해 상기 객체의 외형 모델을 업데이트할 수 있다.According to an embodiment of the present invention, the object detection unit updates the tracklet using the appearance and shape information of the object according to the retrace result, and the object's appearance, shape, and tracklet information is used to track the object. The appearance model can be updated.

본 발명에 따르면, 기존의 추적 기술보다 객체 손실과 잘못된 연관성 문제를 처리해 정확하게 객체를 추적하는 것이 가능하다.According to the present invention, it is possible to accurately track an object by dealing with an object loss and an incorrect association problem than a conventional tracking technique.

또한, 신뢰 점수 기반 외형 모델 업데이트를 통해 추적 결과가 올바른지 파악하고 잘못된 경우 스스로 수정할 수 있으며, 반복 추적된 객체의 추적 정확도를 향상시킬 수 있다. In addition, by updating the appearance model based on the trust score, it is possible to determine whether the tracking result is correct and correct it by itself if it is incorrect, and to improve the tracking accuracy of the repeatedly tracked object.

한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다.Meanwhile, the effects of the present invention are not limited to the above-mentioned effects, and various effects may be included within a range obvious to those skilled in the art from the following description.

도 1은 본 발명의 일 실시 예에 따른 다중 객체 추적 방법의 개략도이다.
도 2는 본 발명의 일 실시 예에 따른 다중 객체 추적 시스템의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 다중 객체 추적 방법의 잘못된 데이터 상관 예이다.
도 4는 본 발명의 일 실시 예에 따른 다중 객체 추적 방법의 상황에 따른 신뢰도 맵을 도시한 것이다.
도 5는 본 발명의 일 실시 예에 따른 다중 객체 추적 방법과 기존 방법의 상이한 Loss Function에서의 성능을 비교한 결과다.
도 6은 본 발명의 일 실시 예에 따른 다중 객체 추적 방법과 기존 방법의 계층 및 단일 스테이지 데이터 상관을 비교한 결과다.
도 7은 본 발명의 일 실시 예에 따른 다중 객체 추적 방법과 기존 방법의 성능을 다양한 데이터세트에서 비교한 결과다.
도 8은 본 발명의 일 실시 예에 따른 다중 객체 추적 방법의 흐름도이다.
1 is a schematic diagram of a multi-object tracking method according to an embodiment of the present invention.
2 is a block diagram of a multi-object tracking system according to an embodiment of the present invention.
3 is an example of incorrect data correlation of a multi-object tracking method according to an embodiment of the present invention.
4 illustrates a reliability map according to a situation of a multi-object tracking method according to an embodiment of the present invention.
5 is a result of comparing performance in different Loss Functions of a multi-object tracking method and an existing method according to an embodiment of the present invention.
6 is a result of comparing the multiple object tracking method according to an embodiment of the present invention and the hierarchical and single stage data correlation of the existing method.
7 is a result of comparing the performance of a multi-object tracking method and an existing method in various datasets according to an embodiment of the present invention.
8 is a flowchart of a multi-object tracking method according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명에 따른 '영상 내 다중 객체 추적 방법 및 시스템'을 상세하게 설명한다. 설명하는 실시 예들은 본 발명의 기술 사상을 당업자가 용이하게 이해할 수 있도록 제공되는 것으로 이에 의해 본 발명이 한정되지 않는다. 또한, 첨부된 도면에 표현된 사항들은 본 발명의 실시 예들을 쉽게 설명하기 위해 도식화된 도면으로 실제로 구현되는 형태와 상이할 수 있다.Hereinafter, a'multi-object tracking method and system in an image' according to the present invention will be described in detail with reference to the accompanying drawings. The described embodiments are provided so that those skilled in the art can easily understand the technical idea of the present invention, and the present invention is not limited thereby. In addition, matters expressed in the accompanying drawings may be different from those actually implemented in schematic drawings to easily describe embodiments of the present invention.

한편, 이하에서 표현되는 각 구성부는 본 발명을 구현하기 위한 예일 뿐이다. 따라서, 본 발명의 다른 구현에서는 본 발명의 사상 및 범위를 벗어나지 않는 범위에서 다른 구성부가 사용될 수 있다. On the other hand, each component represented below is only an example for implementing the present invention. Accordingly, other components may be used in other implementations of the present invention without departing from the spirit and scope of the present invention.

또한, 각 구성부는 순전히 하드웨어 또는 소프트웨어의 구성만으로 구현될 수도 있지만, 동일 기능을 수행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합으로 구현될 수도 있다. 또한, 하나의 하드웨어 또는 소프트웨어에 의해 둘 이상의 구성부들이 함께 구현될 수도 있다. In addition, each component may be implemented solely in the configuration of hardware or software, but may also be implemented in a combination of various hardware and software components that perform the same function. Also, two or more components may be implemented together by one hardware or software.

또한, 어떤 구성요소들을 '포함'한다는 표현은, '개방형'의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다. In addition, the expression'includes' certain components, as an expression of'open', simply refers to the existence of the components, and should not be understood as excluding additional components.

도 1은 본 발명의 일 실시 예에 따른 다중 객체 추적 방법의 개략도이다.1 is a schematic diagram of a multi-object tracking method according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 다중 객체 추적 방법은 각 프레임에서, 객체의 위치를 얻기 위해 입력에서 검출을 수행할 수 있다. 객체의 형상, 위치 및 외관을 포함하는 다양한 종류의 특징 정보가 각각의 검출된 객체에 융합될 수 있다. 기존의 트랙렛은 현재 프레임에서의 검출과 연관될 수 있으며, 그 후에 신뢰도는 각각의 연관된 트랙렛 - 검출쌍에 대해 계산된다. 신뢰도가 미리 정의된 임계 값보다 낮으면, 본 발명의 일 실시 예에 따른 다중 객체 추적 방법은 이것이 비표준 트랙렛, 즉 잘못된 추적이라고 가정하고 비연관 탐지로 두 번째 스테이지 데이터 연관을 수행할 수 있다. 데이터 연관 후에, 트랙렛 상태가 업데이트되고 특히, 외형 모델은 신뢰도에 따라 선택적으로 업데이트될 수 있다. 최종적으로, 현재 프레임의 갱신된 트랙렛은 다음 프레임의 데이터 연관에 대한 입력으로서 사용될 수 있다.Referring to FIG. 1, in the multi-object tracking method according to an embodiment of the present invention, in each frame, detection may be performed at an input to obtain a position of an object. Various types of feature information including the shape, location and appearance of the object can be fused to each detected object. Existing tracklets can be associated with detection in the current frame, after which confidence is calculated for each associated tracklet-detection pair. If the reliability is lower than a predefined threshold value, the multi-object tracking method according to an embodiment of the present invention may perform second stage data association with non-associative detection, assuming that this is a non-standard tracklet, that is, incorrect tracking. After data association, the tracklet status is updated and, in particular, the appearance model can be selectively updated according to the reliability. Finally, the updated tracklet of the current frame can be used as input to the data association of the next frame.

도 2는 본 발명의 일 실시 예에 따른 다중 객체 추적 시스템의 블록도이다.2 is a block diagram of a multi-object tracking system according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시 예에 따른 다중 객체 추적 시스템은 영상획득부(210), 객체검출부(220) 및 검증부(230)를 포함할 수 있다. Referring to FIG. 2, a multi-object tracking system according to an embodiment of the present invention may include an image acquisition unit 210, an object detection unit 220, and a verification unit 230.

상기 영상획득부(210)는 관심 영역의 영상을 획득할 수 있다. 상기 영상획득부(210)는 식별된 객체 및 트랙렛 정보를 포함하는 영상을 획득할 수 있다. 상기 영상획득부(210)가 획득하는 영상에 포함되는 식별된 객체 정보 및 트랙렛 정보는 외부에서 입력받는 것일 수 있다. 상기 영상획득부(210)가 획득하는 영상에 포함되는 식별된 객체 정보 및 트랙렛 정보는 상기 영상획득부(210)가 촬영한 영상에서 움직임을 보이는 객체를 인식해 도출할 수 있다. 상기 영상획득부(210)는 영상을 촬영할 수 있는 카메라를 포함할 수 있다. 상기 영상획득부(210)는 획득한 영상에서 움직임을 보이는 객체를 식별하고 그 움직임을 추적할 수 있는 컴퓨터 또는 인공신경망을 포함할 수 있다.The image acquisition unit 210 may acquire an image of a region of interest. The image acquisition unit 210 may acquire an image including the identified object and tracklet information. The identified object information and tracklet information included in the image acquired by the image acquisition unit 210 may be received from the outside. The identified object information and tracklet information included in the image acquired by the image acquisition unit 210 may be derived by recognizing an object showing motion in the image captured by the image acquisition unit 210. The image acquisition unit 210 may include a camera capable of taking an image. The image acquisition unit 210 may include a computer or artificial neural network capable of identifying an object showing movement in the acquired image and tracking the movement.

상기 객체검출부(220)는 상기 영상에 포함되는 복수의 객체를 각각 식별하고, 상기 객체의 트랙렛(tracklet)을 추적할 수 있다. The object detection unit 220 may respectively identify a plurality of objects included in the image, and track a tracklet of the object.

상기 객체검출부(220)는 상기 검증부(230)의 신뢰도 평가가 임계값 이하인 객체를 재식별하고 상기 객체의 트랙렛을 재추적할 수 있다. 상기 객체검출부(220)는 상기 객체의 외관, 형태 및 움직임 정보를 이용한 데이터 상관을 통해 객체 추적을 수행할 수 있다. 상기 객체검출부(220)는 상기 객체의 외관 및 형태 정보를 이용한 데이터 상관을 통해 객체 추적을 수행할 수 있다. 상기 객체검출부(220)는 상기 재추적 결과에 따른 상기 객체의 외관 및 형태 정보를 이용해 트랙렛을 업데이트할 수 있다. 상기 객체검출부(220)는 상기 객체의 외관, 형태 및 트랙렛 정보를 이용해 상기 객체의 외형 모델을 업데이트할 수 있다.The object detection unit 220 may re-identify an object whose reliability evaluation of the verification unit 230 is less than or equal to a threshold value, and retrace a tracklet of the object. The object detection unit 220 may perform object tracking through data correlation using the appearance, shape, and motion information of the object. The object detection unit 220 may perform object tracking through data correlation using appearance and shape information of the object. The object detection unit 220 may update the tracklet using the appearance and shape information of the object according to the retrace result. The object detection unit 220 may update the appearance model of the object using the appearance, shape, and tracklet information of the object.

상기 객체검출부(220)는 상기 식별된 객체의 외형적 특징을 추출해 학습할 수 있다. 상기 객체검출부(220)는 식별한 객체의 외관 및 형태 정보를 이용해 상기 객체의 외형 모델을 생성할 수 있다. 상기 객체검출부(220)는 상기 추적 및 재추적 결과를 이용해 상기 외형 모델을 업데이트 할 수 있다. 상기 객체검출부(220)는 상기 추적 및 재추적 결과를 기계학습하여 상기 외형 모델을 생성 및 업데이트 할 수 있다. The object detection unit 220 may extract and learn the external characteristics of the identified object. The object detection unit 220 may generate an external model of the object using the appearance and shape information of the identified object. The object detection unit 220 may update the appearance model using the tracking and re-tracking results. The object detection unit 220 may generate and update the appearance model by machine learning the tracking and retrace results.

상기 객체검출부(220)에서 프레임 t에서의 물체 검출은 Dt = {d1t; d2t; :::; dnt}이고 n은 탐지 횟수일 수 있다. Rt = {r1t; r2t; :::; rmt}는 트랙렛의 집합일 수 있다. 여기서, ri t는 프레임 t에서의 i 번째 트랙렛이고 m은 트랙렛의 수일 수 있다. 상기 객체검출부(220)에서 프레임 t에서 갱신된 i 번째 트랙렛의 상태는 CNN 모델에 의해 추출된 외관 특징 벡터일 수 있고, pi = (xi, yi)는 위치 정보이고, si = (wi; hi)는 너비와 높이로 구성된 형태 정보일수 있다. 외관, 움직임 및 형태 정보를 포함하는 탐지와 연관된 트랙렛이 얼마나 잘 정의되어 있는지를 결정하기위한 유사성 모델은 다음 수학식 1과 같이 정의될 수 있다.The object detection in the frame t by the object detection unit 220 is Dt = {d1t; d2t; :::; dnt} and n may be the number of detections. Rt = {r1t; r2t; :::; rmt} may be a set of tracklets. Here, r i t may be the i-th tracklet in frame t and m may be the number of tracklets. In the object detection unit 220, the state of the i-th tracklet updated in frame t may be an appearance feature vector extracted by a CNN model, pi = (xi, yi) is location information, and si = (wi; hi ) May be form information composed of width and height. A similarity model for determining how well a tracklet associated with detection including appearance, motion and shape information is defined may be defined as in Equation 1 below.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

상기 유사성 모델의 연산에 사용되는 외관, 움직임 및 형태 유사성 점수는 각각 다음 수학식2 내지 수학식 4와 같이 계산할 수 있다.The appearance, motion, and shape similarity scores used in the calculation of the similarity model may be calculated as in Equations 2 to 4, respectively.

[수학식 2][Equation 2]

Figure pat00002
Figure pat00002

[수학식 3][Equation 3]

Figure pat00003
Figure pat00003

[수학식 4][Equation 4]

Figure pat00004
Figure pat00004

외관 유사성

Figure pat00005
에 대하여, 본 발명의 일 실시 예에 따른 CNN 모델에 의해 검출을 위한 특징이 추출되고, 이전의 대응하는 검출에 의해 갱신된 트랙렛 외관 특징으로 L2 거리가 계산된다. 움직임 유사성
Figure pat00006
는 트랙렛의 위치, 탐지 및 탐지 스케일을 사용하여 계산될 수 있다. 형태 유사성
Figure pat00007
는 폭 w와 높이 h를 사용하여 계산될 수 있다.Appearance similarity
Figure pat00005
With respect to, the feature for detection is extracted by the CNN model according to an embodiment of the present invention, and the L2 distance is calculated as the tracklet appearance feature updated by the previous corresponding detection. Motion similarity
Figure pat00006
Can be calculated using the tracklet's position, detection and detection scale. Shape similarity
Figure pat00007
Can be calculated using width w and height h.

상기 객체검출부(220)에서 유사성 모델로부터, 모든 검출 및 트랙렛 사이에서 쌍 방향 연관이 수행될 수 있다. 스코어 행렬 Smxn은 프레임 t에서 m 개의 트랙 렛과 n 개의 검출 사이에서 수학식 5와 같이 계산될 수 있다.From the similarity model in the object detection unit 220, bidirectional association between all detections and tracklets can be performed. The score matrix Smxn can be calculated as in Equation 5 between m tracklets and n detections in frame t.

[수학식 5][Equation 5]

Figure pat00008
Figure pat00008

여기서,

Figure pat00009
는 수학식 1에서 계산된 값이다. 그런 다음 헝가리 알고리즘이 수행되어 트랙 크렛 감지 연관을 결정할 수 있다.here,
Figure pat00009
Is a value calculated in Equation 1. The Hungarian algorithm can then be performed to determine the track cret detection association.

모든 트랙렛은 첫 번째 스테이지 데이터 연관과 연관되어 있지만 복잡한 장면에서의 폐색(occlusion) 또는 신뢰할 수 없는 검출로 인해 잘못된 내부 트랙 워크 감지가 발생할 수 있다. 특히 내부 카테고리 객체의 특징이 유사한 경우 특히 그렇다. All tracklets are associated with the first stage data association, but false internal trackwork detection may occur due to occlusion or unreliable detection in complex scenes. This is especially true if the characteristics of the internal category objects are similar.

상기 검증부(230)는 상기 객체검출부(220)의 검출 결과를 검증할 수 있다. 상기 검증부(230)는 단일 트랙렛은 데이터 연관 후 단일 객체 추적으로 신뢰할 수 있다. 잘못된 연관과 문제를 해결하기 위해 검출과 트랙렛 사이의 신뢰도를 결정하기 위해 상관 필터를 사용하여 신뢰도 점수를 계산할 수 있다. 트랙렛의 상기 신뢰도 점수가 임계 값

Figure pat00010
보다 낮으면, 상기 검증부(230)는 상기 트랙렛을 신뢰할 수 없는 것으로 분류할 수 있다. 또한, 대응하는 검출은 제 1 스테이지 데이터 연관에서 비연관 검출으로 새로운 비연관 검출과 결합될 수 있다. 비신뢰적인 트랙렛과 비연관 검출이있는 경우 두 가지 모두에 대해 전역 연관이 수행될 수 있다. 형태 유사성 모델은 다음과 같이 수학식 6을 연산해 두 번째 연관성에 대해 재정의될 수 있다.The verification unit 230 may verify the detection result of the object detection unit 220. The verification unit 230 may trust a single tracklet as a single object tracking after data association. Reliability scores can be computed using a correlation filter to determine the confidence between detection and tracklet to solve incorrect associations and problems. The confidence score of the tracklet is the threshold
Figure pat00010
If lower, the verification unit 230 may classify the tracklet as unreliable. In addition, the corresponding detection can be combined with a new non-associative detection from non-associative detection in the first stage data association. If there is unreliable tracklet and uncorrelated detection, global association can be performed for both. The shape similarity model can be redefined for the second association by calculating Equation 6 as follows.

[수학식 6][Equation 6]

Figure pat00011
Figure pat00011

트랙렛이 첫 번째 단계 데이터 연관과 관련된 동일한 탐지와 관련되지 않을 수 있다.The tracklet may not be associated with the same detection associated with the first step data association.

계층적 데이터 연관 후, (ⅰ) 트랙렛의 위치 및 형태 정보가 연관된 검출과 함께 업데이트되고 (ⅱ) 외관 정보가 다음 수학식 7과 같이 갱신될 수 있다.After the hierarchical data association, (i) the tracklet position and shape information is updated with the associated detection, and (ii) the appearance information can be updated as shown in Equation 7.

[수학식 7][Equation 7]

Figure pat00012
Figure pat00012

여기서

Figure pat00013
는 하이퍼 매개 변수이고 t는 프레임 인덱스다.
Figure pat00014
는 상관 필터로 계산 된 신뢰도다.here
Figure pat00013
Is a hyper parameter and t is a frame index.
Figure pat00014
Is the reliability calculated with the correlation filter.

상기 검증부(230)는 상관 필터는 단일 객체 추적 문제에서 특히 CNN 기반 기능과 결합하여 견고한 추적을 수행할 수 있다. 또한 주파수 도메인에서 내적 및 벡터 표준을 계산할 필요가 있으며 두 가지 모두 간단한 연산이다. 따라서 정확도와 처리 시간의 균형을 맞추기 위해 상관 필터를 MOT에 적용할 수 있다.The verification unit 230 may perform a robust tracking by combining the correlation filter with a CNN-based function, particularly in a single object tracking problem. It is also necessary to compute the dot product and vector standards in the frequency domain, both of which are simple operations. Therefore, a correlation filter can be applied to the MOT to balance accuracy and processing time.

상기 검증부(230)는 상관 필터는 단순한 닫힌 형태의 솔루션을 허용하기 때문에 능선 회귀로 볼 수 있다. 그 핵심은 고효율을 달성하기 위해 네거티브 샘플의 증가가 순환 행렬의 구조를 탐색하는 동안 탐지별 추적 체계의 차별 능력을 향상시키는 데 사용된다는 것이다. 상기 검증부(230)는 최대 신뢰 점수를 찾아 위치를 찾는다. 이 처리와 고속 처리에 동기를 부여하여, 상기 검증부(230)는 트랙 렛과 탐지 사이의 신뢰도

Figure pat00015
를 다음 수학식 8과 같이 계산할 수 있다.The verification unit 230 can be viewed as ridge regression because the correlation filter allows a simple closed solution. The key is that an increase in negative samples is used to improve the discriminative ability of the detection-specific tracking system while exploring the structure of the circular matrix to achieve high efficiency. The verification unit 230 finds the location by finding the maximum confidence score. By synchronizing this process and the high-speed process, the verification unit 230 has a reliability between the tracklet and the detection.
Figure pat00015
Can be calculated as in Equation 8 below.

[수학식 8][Equation 8]

Figure pat00016
Figure pat00016

여기서

Figure pat00017
은 역 이산 푸리에 변환을 나타내며,
Figure pat00018
는 요소 단위의 곱 연산자이며,
Figure pat00019
는 변수가 주파수 영역에 있음을 의미한다.here
Figure pat00017
Denotes the inverse discrete Fourier transform,
Figure pat00018
Is the element-wise multiplication operator,
Figure pat00019
Means that the variable is in the frequency domain.

상기 검증부(230)는 MOT를 위한 가장 최선의 CNN 모델은 처리 시간을 향상시키기 위해 적절하게 차별화된 내부 범주 및 오프라인 교육이 필요하다. 이를 위해, 본 발명의 일 실시 예에 따른 객체검출부(220) 또는 검증부(230)는 마지막 계층을 버리고 완전히 연결된 두 개의 레이어를 추가함으로써 Pretrained ResNet-50 아키텍처를 사용할 수 있다. 첫 번째 완전히 연결된 레이어에는 1024 단위가 있고 그 다음에는 ReLU가 있고 두 번째 항목은 128 개의 단위로 나뉠 수 있다. 네트워크는 MARS 데이터 세트에 의해 훈련될 수 있다. 상기 MARS 데이터 세트는 1,261 개의 신원과 1,191,003 개의 이미지를 포함하는 큰 사람 재확인 데이터 세트이다. 모든 샘플을 매개 변수화된 클래스 평균 방향으로 결정 경계에서 푸시하기 때문에 코사인 소프트 맥스 손실 함수를 사용할 수 있다. 즉, 객체를 분류 할 수 있을 뿐만 아니라 다른 분류 기준에 따라 기능을 수렴하므로 내부 범주 분류에 도움이 될 수 있다. 따라서 CNN 모델의 견고성을 향상시킬 수 있다.The verification unit 230, the best CNN model for MOT needs appropriately differentiated internal categories and offline training to improve processing time. To this end, the object detection unit 220 or the verification unit 230 according to an embodiment of the present invention may use the Pretrained ResNet-50 architecture by discarding the last layer and adding two completely connected layers. The first fully linked layer has 1024 units, then the ReLU, and the second item can be divided into 128 units. The network can be trained by the MARS data set. The MARS data set is a large person reconfirmation data set containing 1,261 identities and 1,191,003 images. The cosine soft max loss function can be used because all samples are pushed at the decision boundary in the direction of the parameterized class mean. That is, it can not only classify objects, but also converge functions according to different classification criteria, which can help in classifying internal categories. Therefore, the robustness of the CNN model can be improved.

상기 검증부(230)는 주어진 N 개의 훈련 샘플들과 관련 클래스 레이블들의 데이터 셋 B = {(xi, yi)} Ni = 1이 주어진다. yi ∈ {1; 2; ::: C}에서 기본 softmax 분류자는 파라메트릭 함수를 기반으로 객체에 대해 최대 확률을 갖는 클래스를 다음 수학식 9와 같이 선택할 수 있다.The verification unit 230 is given a data set B = {(xi, yi)} Ni = 1 of given N training samples and related class labels. yi ∈ {1; 2; In ::: C}, the basic softmax classifier can select a class having the maximum probability for an object based on a parametric function as shown in Equation 9.

[수학식 9][Equation 9]

Figure pat00020
Figure pat00020

여기서, f(x)는 CNN 모델에 의해 추출된 특징 표현이며, 이는 분류자와 공동으로 훈련될 수 있다. 기본 softmax 분류기는 내부 적응형 분류의 견고성을 향상시킬 수 있는 작은 적응을 가진 표현 공간에서 컴팩트 클러스터를 생성하도록 수정 될 수 있다. L2 정규화는 네트워크의 최종 계층에 대해 먼저 계산되어 표현이 단위 길이인지 확인해야한다. 가중치 wk, ∀k = 1, 2, … C는 단위 길이로 표준화되어야 한다. 코사인 softmax 분류자는 다음 수학식 10과 같이 표현 될 수 있다.Here, f(x) is a feature expression extracted by the CNN model, which can be trained jointly with a classifier. The basic softmax classifier can be modified to create a compact cluster in the expression space with a small adaptation that can improve the robustness of the internal adaptive classification. L2 normalization must first be calculated for the final layer of the network to ensure that the representation is unit length. Weight wk, ∀k = 1, 2,… C should be standardized to unit length. The cosine softmax classifier can be expressed as Equation 10 below.

[수학식 10][Equation 10]

Figure pat00021
Figure pat00021

여기서 κ는 자유 스케일링 매개 변수다. 확률적 구배 강하의 수렴을 가속화하는 방법으로 가중치 벡터 κ의 길이를 그 방향에서 분리하는 방법이 있다.Where κ is a free scaling parameter. As a method of accelerating the convergence of the stochastic gradient drop, there is a method of separating the length of the weight vector κ from that direction.

상기 검증부(230)는 생성적인 관점에서,

Figure pat00022
를 볼 때, 클래스 조건부 확률이 수학식 11, 수학식 12와 같이 von Mises-Fisher (vMF) 분포를 따를 수 있다.The verification unit 230, from a generating point of view,
Figure pat00022
Looking at, the class conditional probability can follow the von Mises-Fisher (vMF) distribution as shown in Equation 11 and Equation 12.

[수학식 11][Equation 11]

Figure pat00023
Figure pat00023

[수학식 12][Equation 12]

Figure pat00024
Figure pat00024

여기서 Iv는 오더(order) v에서 첫 번째 종류의 수정된 Bessel 함수를 나타낸다. 본 발명의 일 실시 예에서 p = 2를 고려한다. 이 분포는 원에서 von Mises 분포로 감소한여 수학식 11은 다음과 같이 수학식 13이 된다.Here, I v represents the modified Bessel function of the first kind in order v. Consider p = 2 in one embodiment of the present invention. This distribution decreases from the circle to the von Mises distribution, so Equation 11 becomes Equation 13 as follows.

[수학식 13][Equation 13]

Figure pat00025
Figure pat00025

여기서 I0는 오더 0의 수정된 베셀 함수이고

Figure pat00026
는 공유 농도 매개 변수다. 작은 C의 경우 분포가 거의 균일하므로 CNN 모델의 내부 범주 분류 기능을 향상시키기 위해 적절한
Figure pat00027
을 선택할 수 있다. 결과적으로, 사후 클래스 확률은 베이스 (Bayes) 규칙에 의해 수학식 14로 계산될 수 있다.Where I 0 is the modified Bessel function of order 0
Figure pat00026
Is the shared concentration parameter. For small C, the distribution is almost uniform, so it is appropriate to improve the internal categorization of the CNN model.
Figure pat00027
You can choose As a result, the posterior class probability can be calculated by Equation 14 according to the Bayes rule.

[수학식 14][Equation 14]

Figure pat00028
Figure pat00028

상기 검증부(230)는 von Mises 분포는 코사인 유사성이 감소함에 따라 방향

Figure pat00029
주위로 정점을 이루고 붕괴하는 1 차원 구에 대한 등방성 확률 분포이다. 해당 코사인 소프트 맥스 손실 함수는 다음 수학식 15과 같이 쓸 수 있다.The verification unit 230, the von Mises distribution is the direction as the cosine similarity decreases
Figure pat00029
An isotropic probability distribution for a one-dimensional sphere that peaks and collapses around. The cosine soft max loss function can be written as in Equation 15 below.

[수학식 15][Equation 15]

Figure pat00030
Figure pat00030

이것은 서로 다른

Figure pat00031
값을 가진 기본 softmax로 적용하여 견고한 클러스터로 샘플을 밀어 넣을 수 있다. This is different
Figure pat00031
The sample can be pushed into a solid cluster by applying it as a default softmax with a value.

도 3은 본 발명의 일 실시 예에 따른 다중 객체 추적 방법의 잘못된 데이터 상관 예이다.3 is an example of incorrect data correlation of a multi-object tracking method according to an embodiment of the present invention.

도 3에서 볼 수 있듯이 (a)와 (b)의 오브젝트 4는 외관과 위치가 유사하기 때문에 잘못된 연관 결과다. 또한 탐지 오류가 길어 드리프트 트랙렛을 생성할 가능성이 있으며,이 경우 드리프트 트랙렛을 다시 할당하여 재발을 탐지하기가 어렵다.As can be seen in FIG. 3, the objects 4 in (a) and (b) have similar appearances and positions, and thus are incorrect association results. In addition, there is a possibility of generating a drift tracklet due to a long detection error, and in this case, it is difficult to detect a recurrence by reassigning the drift tracklet.

도 4는 본 발명의 일 실시 예에 따른 다중 객체 추적 방법의 상황에 따른 신뢰도 맵을 도시한 것이다.4 illustrates a reliability map according to a situation of a multi-object tracking method according to an embodiment of the present invention.

도 4를 참조하면, 상관 필터는 외모 모델이 유사하거나 심각하게 폐색된 경우에도 단일 객체 추적에 강하다. 도 4는 상관 필터에 의해 얻어진 응답 맵과 교합 사이의 관계를 강조 표시한다. 43 번과 49 번 대상물에 대한 반응 맵은 날카 롭고 1 번 개체에 대한 신뢰도 점수 (최대 값)는 43 번이고 # 49 번은 날카 롭고 신뢰 점수 (최고점 값)는 교합 없음으로 비슷하고 높다. 그러나, # 49에서 대상 2에 대한 반응 맵은 상당히 변동하고, # 49에서 폐색 되었기 때문에 신뢰 점수 (피크 값)는 # 43에서의 것보다 낮다. 신뢰도를 포함하는 응답 맵은 MOT와의 교합 조건을 반영 할 수 있음을 알 수 있다.Referring to FIG. 4, the correlation filter is strong in tracking a single object even when the appearance model is similar or severely occluded. 4 highlights the relationship between the occlusion and the response map obtained by the correlation filter. The response maps for objects 43 and 49 are sharp, the confidence score (maximum value) for object 1 is 43, and #49 is sharp and confidence score (peak value) is similar and high with no occlusion. However, the response map for Subject 2 in #49 fluctuates considerably, and the confidence score (peak value) is lower than that in #43 because it was occluded in #49. It can be seen that the response map including the reliability can reflect the conditions of occlusion with the MOT.

도 5는 본 발명의 일 실시 예에 따른 다중 객체 추적 방법과 기존 방법의 상이한 Loss Function에서의 성능을 비교한 결과다. 5 is a result of comparing performance in different Loss Functions of a multi-object tracking method and an existing method according to an embodiment of the present invention.

도 5를 참조하면, 발명의 일 실시 예에 따른 다중 객체 추적 방법을 PETS S2.L2와 MOT Challenge의 세 가지 다른 데이터 세트로 평가하여 서로 다른 기여 요소와 전체 MOT 시스템을 분석한다. 외관 특징 추출 중에는 모든 입력 이미지가 128x64x3 크기로 재조정되고 모든 매개 변수 설정이 모든 테스트 데이터 세트에 대해 고정되어 있다. 하이퍼 매개 변수

Figure pat00032
는 0.95로 설정될 수 있다. 비신뢰 관계의 임계 값은
Figure pat00033
= 0.5이고 모양 모델 업데이트의 임계 값은
Figure pat00034
= 0.7 이다. 모든 매개 변수 설정은 모든 이미지 시퀀스에 대해 동일하게 유지된다.Referring to FIG. 5, the multi-object tracking method according to an embodiment of the present invention is evaluated with three different data sets of PETS S2.L2 and MOT Challenge to analyze different contributing factors and the entire MOT system. During appearance feature extraction, all input images are resized to 128x64x3 and all parameter settings are fixed for all test data sets. Hyper parameters
Figure pat00032
Can be set to 0.95. The threshold for untrusted relationships is
Figure pat00033
= 0.5 and the threshold for updating the shape model is
Figure pat00034
= 0.7. All parameter settings remain the same for all image sequences.

본 발명의 일 실시 예에 따른 다중 객체 추적 방법은 거짓 포지티브(FP), 거짓 네거티브(FN), 미스 매치로 구성된 정확도를 계산하는 다중 객체 정확도 (MOTA)와 다중 객체 추적 정밀도 (MOTP)는 지상 진실과 관련하여 진정한 긍정적 인 궤도의 정렬을 평가한다. 또한, 기존 방법은 대부분의 트랙 타겟(MT, 적어도 80 %에 대한 추적 가설에 의해 다루어지는 지상 진실 궤도), 주로 잃어버린 트랙 타겟 (ML, 최대 20 %에 대한 추적 가설에 의해 커버되는 지상 진실 궤도) 및 신원 확인 스위치 (IDS)의 총 수가 활용된다. 게다가 처리 시간 (Hz)도 평가 척도에 포함되어야 한다.In the multi-object tracking method according to an embodiment of the present invention, multi-object accuracy (MOTA) and multi-object tracking accuracy (MOTP) for calculating accuracy composed of false positive (FP), false negative (FN), and mismatch are ground truths. Evaluate true positive trajectory alignment in relation to. In addition, the existing methods include most track targets (MT, ground truth trajectory covered by the tracking hypothesis for at least 80%), mainly lost track targets (ML, ground truth track covered by the tracking hypothesis for up to 20%). And the total number of identification switches (IDS) is utilized. In addition, treatment time (Hz) should be included in the evaluation scale.

일반적으로 사용되는 또 다른 객체 재식별 손실 함수는 양의 쌍 ya = yp와 음의 쌍 ya ≠ yn을 포함하는 세 개의 예제 xa, xp 및 xn의 튜플(tuples)에 대해 정의된 수학식 16과 같은 triplet 이다. triplet 손실은 음의 쌍과 양의 쌍 사이의 거리의 차이가 미리 정의된 마진보다 더 중요하다는 것을 요구한다.Another commonly used object re-identification loss function is for the tuples of three examples x a , x p and x n that contain the positive pair y a = y p and the negative pair y a ≠ y n . It is a triplet as defined in Equation 16. The triplet loss requires that the difference in distance between the negative and positive pairs is more important than the predefined margin.

[수학식 16][Equation 16]

Figure pat00035
Figure pat00035

여기서

Figure pat00036
는 마진이다. 이 두 손실 함수는 PETS S2.L2 데이터 세트에서 평가되며, 그 비교 결과는 도 5에 나와 있다. 이러한 결과로부터 코사인 소프트 맥스 손실 함수는 객체 재 식별에서 훨씬 강력하기 때문에 코사인 소프트 맥스 손실 함수는 삼중 항보다 우수한 성능을 보여준다. MOT에 대한 내부 범주 분류를 개선할 수 있다.here
Figure pat00036
Is the margin. These two loss functions are evaluated in the PETS S2.L2 data set, and the comparison results are shown in FIG. 5. From these results, since the cosine soft max loss function is much more powerful in object re-identification, the cosine soft max loss function shows better performance than the triplet term. The internal categorization of MOT can be improved.

도 6은 본 발명의 일 실시 예에 따른 다중 객체 추적 방법과 기존 방법의 계층 및 단일 스테이지 데이터 상관을 비교한 결과다.6 is a result of comparing the hierarchical and single stage data correlation of a multi-object tracking method and an existing method according to an embodiment of the present invention.

도 6을 참조하면, 계층적 데이터 연관성의 성능을 입증하기 위해 두 가지 버전으로 본 발명의 일 실시 예에 따른 다중 객체 추적 방법과 기존 방법을 평가한다. 하나는 전체 시스템이고 다른 하나는 PETS S2.L2 데이터 세트에서 두 번째 단계 데이터 연관을 건너 뛴다. 비교 결과는 도 6에 나와 있으며 신뢰 점수 기반 계층 적 데이터 연관성은 잘못된 연관성 및 트랙 렛 드리프트 문제를 처리하기 위해 견고 함을 보여준다.Referring to FIG. 6, in order to demonstrate the performance of hierarchical data association, the multi-object tracking method and the existing method according to an embodiment of the present invention are evaluated in two versions. One is the whole system and the other skips the second stage data association in the PETS S2.L2 data set. The results of the comparison are shown in FIG. 6 and show that the trust score based hierarchical data association is robust to deal with the wrong association and tracklet drift problems.

도 7은 본 발명의 일 실시 예에 따른 다중 객체 추적 방법과 기존 방법의 성능을 다양한 데이터세트에서 비교한 결과다. 7 is a result of comparing the performance of a multi-object tracking method and an existing method according to an embodiment of the present invention in various data sets.

도 7을 참조하면, 본 발명의 일 실시 예에 따른 다중 객체 추적 방법을 PETS S2.L2와 MOT Challenge에 대한 다른 최첨단 방법과 비교한다. 그 결과는 도 7에 요약되어 있다.Referring to FIG. 7, the multi-object tracking method according to an embodiment of the present invention is compared with other advanced methods for PETS S2.L2 and MOT Challenge. The results are summarized in FIG. 7.

본 발명의 일 실시 예에 따른 다중 객체 추적 방법은 신뢰 점수 기반의 계층적 데이터 연관성 및 모양 모델 업데이트 전략의 효과를 보여주는 PETS S2.L2 데이터 세트에서 합리적인 성능을 얻는다. 오프라인 MOT 방법과 비교할 때, 본 발명의 일 실시 예에 따른 다중 객체 추적 방법의 성능 또한 허용 가능하며 어떤 요인에서는 더 우수하다.The multi-object tracking method according to an embodiment of the present invention obtains reasonable performance in a PETS S2.L2 data set showing the effect of a trust score-based hierarchical data association and shape model update strategy. Compared to the offline MOT method, the performance of the multi-object tracking method according to an embodiment of the present invention is also acceptable and is superior in some factors.

MOT Challenge 데이터 세트의 경우, 7 개의 이미지 시퀀스를 포함하는 MOT16 테스트 데이터 세트의 다른 방법과 방법을 비교한다. FN, FP 및 IDS의 가중치 조합이므로 MOTA 비교에 중점을 둔다. 오프라인 방법은 일반적으로 추적 정보를 사용하여 온라인 방법보다 성능이 뛰어나다. 온라인 방법인 CNN 기반 추적 방법인 STAM16 및 CAD_DDAL은 모두 백플로우를 통해 각 오브젝트에 대한 외양 모델을 온라인으로 업데이트하므로 처리 시간에 영향을 미치기 때문에 대부분의 메트릭에서 최상의 성능을 얻을 수 있다. STAM16은 피쳐를 공유하고 ROI 풀링을 사용하여 각 객체에 대한 개별 피쳐를 얻음으로써 계산 효율을 향상시킨다. 초당 0.2와 0.5 프레임 (fps)에 도달하기 때문에 ADAS와 같은 실제 응용 프로그램에는 너무 느리다. 본 발명의 일 실시 예에 따른 다중 객체 추적 방법은 고속 처리로 잘 알려진 상관 필터로부터 영감을 얻은 신뢰도를 사용하여 외관 모델을 업데이트하기 때문에 정확도와 처리 시간의 균형을 맞추는 것이 훨씬 더 효과적 일 수 있다. 본 발명의 일 실시 예에 따른 다중 객체 추적 방법의 처리 시간은 수용 가능한 성능으로 8fps에 도달 할 수 있다. For the MOT Challenge data set, compare different methods and methods of the MOT16 test data set containing 7 image sequences. Since it is a weighted combination of FN, FP and IDS, it focuses on MOTA comparison. Offline methods generally use tracking information to perform better than online methods. The online method CNN-based tracking methods STAM16 and CAD_DDAL both update the appearance model for each object online through a backflow, which affects processing time, so you can get the best performance from most metrics. STAM16 improves computational efficiency by sharing features and using ROI pooling to obtain individual features for each object. It reaches 0.2 and 0.5 frames per second (fps), so it's too slow for real applications like ADAS. In the multi-object tracking method according to an embodiment of the present invention, since the appearance model is updated using a reliability inspired by a correlation filter well known as high-speed processing, it may be much more effective to balance accuracy and processing time. The processing time of the multi-object tracking method according to an embodiment of the present invention may reach 8 fps with acceptable performance.

본 발명의 일 실시 예에 따른 다중 객체 추적 방법에서는 MOT에 대한 신뢰도 기반 계층적 데이터 연관성을 개시한다. 폐색 및 신뢰할 수 없는 탐지로 인한 잘못된 연관성 문제를 완화하기 위해 첫 번째 단계의 데이터 연결을 신뢰도에 따라 신뢰할 수 있는 관련 트랙렛 탐지로 나눈다. 두 번째 단계의 데이터 연관성은 비 신뢰 트랙렛과 잘못된 일치 및 일치하지 않는 검색을 포함한 나머지 검색간에 적용된다. 또한, 고속 처리로 인해, 신뢰도는 외관 모델 갱신에 사용되기 때문에 외관 모델의 견고성이 향상되고 처리 시간이 절약된다. 다른 최첨단 추적기와 비교 된 대표적인 실험 결과는 본 발명의 일 실시 예에 따른 다중 객체 추적 방법이 다양한 종류의 문제, 특히 정확도와 처리 시간의 균형을 맞추는 데있어 전반적으로 우수함을 보여준다.In the multi-object tracking method according to an embodiment of the present invention, reliability-based hierarchical data association for MOT is disclosed. To alleviate the problem of false associations due to occlusion and unreliable detection, the first step is to divide the data connection into relevant, trusted tracklet detections based on reliability. The second level of data relevance applies between untrusted tracklets and the rest of the searches, including mismatched and mismatched searches. In addition, due to the high-speed processing, since reliability is used for updating the appearance model, the robustness of the appearance model is improved and processing time is saved. The representative experimental results compared with other state-of-the-art trackers show that the multi-object tracking method according to an embodiment of the present invention is generally excellent in balancing various kinds of problems, especially accuracy and processing time.

도 8은 본 발명의 일 실시 예에 따른 다중 객체 추적 방법의 흐름도이다.8 is a flowchart of a multi-object tracking method according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시 예에 따른 다중 객체 추적 방법은 관심 영역의 영상을 획득하는 단계(S810)를 포함할 수 있다.Referring to FIG. 8, a multi-object tracking method according to an embodiment of the present invention may include obtaining an image of a region of interest (S810 ).

S810 단계에서, 상기 영상획득부(210)는 관심 영역의 영상을 획득할 수 있다. 상기 영상획득부(210)는 식별된 객체 및 트랙렛 정보를 포함하는 영상을 획득할 수 있다. 상기 영상획득부(210)가 획득하는 영상에 포함되는 식별된 객체 정보 및 트랙렛 정보는 외부에서 입력받는 것일 수 있다. 상기 영상획득부(210)가 획득하는 영상에 포함되는 식별된 객체 정보 및 트랙렛 정보는 상기 영상획득부(210)가 촬영한 영상에서 움직임을 보이는 객체를 인식해 도출할 수 있다. 상기 영상획득부(210)는 영상을 촬영할 수 있는 카메라를 포함할 수 있다. 상기 영상획득부(210)는 획득한 영상에서 움직임을 보이는 객체를 식별하고 그 움직임을 추적할 수 있는 컴퓨터 또는 인공신경망을 포함할 수 있다.In step S810, the image acquisition unit 210 may acquire an image of the region of interest. The image acquisition unit 210 may acquire an image including the identified object and tracklet information. The identified object information and tracklet information included in the image acquired by the image acquisition unit 210 may be received from the outside. The identified object information and tracklet information included in the image acquired by the image acquisition unit 210 may be derived by recognizing an object showing motion in the image captured by the image acquisition unit 210. The image acquisition unit 210 may include a camera capable of taking an image. The image acquisition unit 210 may include a computer or artificial neural network capable of identifying an object showing movement in the acquired image and tracking the movement.

본 발명의 일 실시 예에 따른 다중 객체 추적 방법은 상기 영상에 포함되는 복수의 객체를 각각 식별하고, 상기 객체의 트랙렛(tracklet)을 추적하는 단계(S820)를 포함할 수 있다.The multi-object tracking method according to an embodiment of the present invention may include a step (S820) of identifying a plurality of objects included in the image and tracking a tracklet of the object, respectively.

S820 단계에서, 상기 객체검출부(220)는 상기 검증부(230)의 신뢰도 평가가 임계값 이하인 객체를 재식별하고 상기 객체의 트랙렛을 재추적할 수 있다. 상기 객체검출부(220)는 상기 객체의 외관, 형태 및 움직임 정보를 이용한 데이터 상관을 통해 객체 추적을 수행할 수 있다. 상기 객체검출부(220)는 상기 객체의 외관 및 형태 정보를 이용한 데이터 상관을 통해 객체 추적을 수행할 수 있다. 상기 객체검출부(220)는 상기 재추적 결과에 따른 상기 객체의 외관 및 형태 정보를 이용해 트랙렛을 업데이트할 수 있다. 상기 객체검출부(220)는 상기 객체의 외관, 형태 및 트랙렛 정보를 이용해 상기 객체의 외형 모델을 업데이트할 수 있다.In step S820, the object detection unit 220 may re-identify an object whose reliability evaluation of the verification unit 230 is equal to or less than a threshold value and retrace the tracklet of the object. The object detection unit 220 may perform object tracking through data correlation using the appearance, shape, and motion information of the object. The object detection unit 220 may perform object tracking through data correlation using appearance and shape information of the object. The object detection unit 220 may update the tracklet using the appearance and shape information of the object according to the retrace result. The object detection unit 220 may update the appearance model of the object using the appearance, shape, and tracklet information of the object.

상기 객체검출부(220)는 상기 식별된 객체의 외형적 특징을 추출해 학습할 수 있다. 상기 객체검출부(220)는 식별한 객체의 외관 및 형태 정보를 이용해 상기 객체의 외형 모델을 생성할 수 있다. 상기 객체검출부(220)는 상기 추적 및 재추적 결과를 이용해 상기 외형 모델을 업데이트 할 수 있다. 상기 객체검출부(220)는 상기 추적 및 재추적 결과를 기계학습하여 상기 외형 모델을 생성 및 업데이트 할 수 있다. The object detection unit 220 may extract and learn the external characteristics of the identified object. The object detection unit 220 may generate an external model of the object using the appearance and shape information of the identified object. The object detection unit 220 may update the appearance model using the tracking and re-tracking results. The object detection unit 220 may generate and update the appearance model by machine learning the tracking and retrace results.

상기 객체검출부(220)에서 프레임 t에서의 물체 검출은 Dt = {d1t; d2t; :::; dnt}이고 n은 탐지 횟수일 수 있다. Rt = {r1t; r2t; :::; rmt}는 트랙렛의 집합일 수 있다. 여기서, ri t는 프레임 t에서의 i 번째 트랙렛이고 m은 트랙렛의 수일 수 있다. 상기 객체검출부(220)에서 프레임 t에서 갱신된 i 번째 트랙렛의 상태는 CNN 모델에 의해 추출된 외관 특징 벡터일 수 있고, pi = (xi, yi)는 위치 정보이고, si = (wi; hi)는 너비와 높이로 구성된 형태 정보일수 있다. 외관, 움직임 및 형태 정보를 포함하는 탐지와 연관된 트랙렛이 얼마나 잘 정의되어 있는지를 결정하기위한 유사성 모델은 다음 수학식 1과 같이 정의될 수 있다.The object detection in the frame t by the object detection unit 220 is Dt = {d1t; d2t; :::; dnt} and n may be the number of detections. Rt = {r1t; r2t; :::; rmt} may be a set of tracklets. Here, r i t may be the i-th tracklet in frame t and m may be the number of tracklets. In the object detection unit 220, the state of the i-th tracklet updated in frame t may be an appearance feature vector extracted by a CNN model, pi = (xi, yi) is location information, and si = (wi; hi ) May be form information composed of width and height. A similarity model for determining how well a tracklet associated with detection including appearance, motion, and shape information is defined may be defined as in Equation 1 below.

[수학식 1][Equation 1]

Figure pat00037
Figure pat00037

상기 유사성 모델의 연산에 사용되는 외관, 움직임 및 형태 유사성 점수는 각각 다음 수학식2 내지 수학식 4와 같이 계산할 수 있다.The appearance, motion, and shape similarity scores used in the calculation of the similarity model may be calculated as in Equations 2 to 4, respectively.

[수학식 2][Equation 2]

Figure pat00038
Figure pat00038

[수학식 3][Equation 3]

Figure pat00039
Figure pat00039

[수학식 4][Equation 4]

Figure pat00040
Figure pat00040

외관 유사성

Figure pat00041
에 대하여, 본 발명의 일 실시 예에 따른 CNN 모델에 의해 검출을 위한 특징이 추출되고, 이전의 대응하는 검출에 의해 갱신된 트랙렛 외관 특징으로 L2 거리가 계산된다. 움직임 유사성
Figure pat00042
는 트랙렛의 위치, 탐지 및 탐지 스케일을 사용하여 계산될 수 있다. 형태 유사성
Figure pat00043
는 폭 w와 높이 h를 사용하여 계산될 수 있다.Appearance similarity
Figure pat00041
With respect to, the feature for detection is extracted by the CNN model according to an embodiment of the present invention, and the L2 distance is calculated as the tracklet appearance feature updated by the previous corresponding detection. Motion similarity
Figure pat00042
Can be calculated using the tracklet's position, detection and detection scale. Shape similarity
Figure pat00043
Can be calculated using width w and height h.

상기 객체검출부(220)에서 유사성 모델로부터, 모든 검출 및 트랙렛 사이에서 쌍 방향 연관이 수행될 수 있다. 스코어 행렬 Smxn은 프레임 t에서 m 개의 트랙 렛과 n 개의 검출 사이에서 수학식 5와 같이 계산될 수 있다.From the similarity model in the object detection unit 220, bidirectional association between all detections and tracklets can be performed. The score matrix Smxn can be calculated as in Equation 5 between m tracklets and n detections in frame t.

[수학식 5][Equation 5]

Figure pat00044
Figure pat00044

여기서,

Figure pat00045
는 수학식 1에서 계산된 값이다. 그런 다음 헝가리 알고리즘이 수행되어 트랙 크렛 감지 연관을 결정할 수 있다.here,
Figure pat00045
Is a value calculated in Equation 1. The Hungarian algorithm can then be performed to determine the track cret detection association.

모든 트랙렛은 첫 번째 스테이지 데이터 연관과 연관되어 있지만 복잡한 장면에서의 폐색(occlusion) 또는 신뢰할 수 없는 검출로 인해 잘못된 내부 트랙 워크 감지가 발생할 수 있다. 특히 내부 카테고리 객체의 특징이 유사한 경우 특히 그렇다. All tracklets are associated with the first stage data association, but false internal trackwork detection may occur due to occlusion or unreliable detection in complex scenes. This is especially true if the characteristics of the internal category objects are similar.

본 발명의 일 실시 예에 따른 다중 객체 추적 방법은 상기 추적 결과의 신뢰도를 평가하는 단계(S830)를 포함할 수 있다.The multi-object tracking method according to an embodiment of the present invention may include evaluating the reliability of the tracking result (S830 ).

S830 단계에서, 상기 검증부(230)는 상관 필터는 단일 객체 추적 문제에서 특히 CNN 기반 기능과 결합하여 견고한 추적을 수행할 수 있다. 또한 주파수 도메인에서 내적 및 벡터 표준을 계산할 필요가 있으며 두 가지 모두 간단한 연산이다. 따라서 정확도와 처리 시간의 균형을 맞추기 위해 상관 필터를 MOT에 적용할 수 있다.In step S830, the verification unit 230 may perform robust tracking by combining the correlation filter with a CNN-based function, particularly in a single object tracking problem. It is also necessary to compute the dot product and vector standards in the frequency domain, both of which are simple operations. Therefore, a correlation filter can be applied to the MOT to balance accuracy and processing time.

상기 검증부(230)는 상관 필터는 단순한 닫힌 형태의 솔루션을 허용하기 때문에 능선 회귀로 볼 수 있다. 그 핵심은 고효율을 달성하기 위해 네거티브 샘플의 증가가 순환 행렬의 구조를 탐색하는 동안 탐지별 추적 체계의 차별 능력을 향상시키는 데 사용된다는 것이다. 상기 검증부(230)는 최대 신뢰 점수를 찾아 위치를 찾는다. 이 처리와 고속 처리에 동기를 부여하여, 상기 검증부(230)는 트랙 렛과 탐지 사이의 신뢰도

Figure pat00046
를 다음 수학식 8과 같이 계산할 수 있다.The verification unit 230 can be viewed as ridge regression because the correlation filter allows a simple closed solution. The key is that an increase in negative samples is used to improve the discriminative ability of the detection-specific tracking system while exploring the structure of the circular matrix to achieve high efficiency. The verification unit 230 finds the location by finding the maximum confidence score. By synchronizing this process with the high-speed process, the verification unit 230 has a reliability between the tracklet and the detection.
Figure pat00046
Can be calculated as in Equation 8 below.

[수학식 8][Equation 8]

Figure pat00047
Figure pat00047

여기서

Figure pat00048
은 역 이산 푸리에 변환을 나타내며,
Figure pat00049
는 요소 단위의 곱 연산자이며,
Figure pat00050
는 변수가 주파수 영역에 있음을 의미한다.here
Figure pat00048
Denotes the inverse discrete Fourier transform,
Figure pat00049
Is the element-wise multiplication operator,
Figure pat00050
Means that the variable is in the frequency domain.

상기 검증부(230)는 MOT를 위한 가장 최선의 CNN 모델은 처리 시간을 향상시키기 위해 적절하게 차별화된 내부 범주 및 오프라인 교육이 필요하다. 이를 위해, 본 발명의 일 실시 예에 따른 객체검출부(220) 또는 검증부(230)는 마지막 계층을 버리고 완전히 연결된 두 개의 레이어를 추가함으로써 Pretrained ResNet-50 아키텍처를 사용할 수 있다. 첫 번째 완전히 연결된 레이어에는 1024 단위가 있고 그 다음에는 ReLU가 있고 두 번째 항목은 128 개의 단위로 나뉠 수 있다. 네트워크는 MARS 데이터 세트에 의해 훈련될 수 있다. 상기 MARS 데이터 세트는 1,261 개의 신원과 1,191,003 개의 이미지를 포함하는 큰 사람 재확인 데이터 세트이다. 모든 샘플을 매개 변수화된 클래스 평균 방향으로 결정 경계에서 푸시하기 때문에 코사인 소프트 맥스 손실 함수를 사용할 수 있다. 즉, 객체를 분류 할 수 있을 뿐만 아니라 다른 분류 기준에 따라 기능을 수렴하므로 내부 범주 분류에 도움이 될 수 있다. 따라서 CNN 모델의 견고성을 향상시킬 수 있다.The verification unit 230, the best CNN model for the MOT needs appropriately differentiated internal categories and offline training to improve processing time. To this end, the object detection unit 220 or the verification unit 230 according to an embodiment of the present invention can use the Pretrained ResNet-50 architecture by discarding the last layer and adding two completely connected layers. The first fully connected layer has 1024 units, then the ReLU, and the second item can be divided into 128 units. The network can be trained by the MARS data set. The MARS data set is a large person reconfirmation data set containing 1,261 identities and 1,191,003 images. The cosine soft max loss function can be used because all samples are pushed at the decision boundary in the direction of the parameterized class mean. That is, it can not only classify objects, but also converge functions according to different classification criteria, which can help in classifying internal categories. Therefore, the robustness of the CNN model can be improved.

상기 검증부(230)는 주어진 N 개의 훈련 샘플들과 관련 클래스 레이블들의 데이터 셋 B = {(xi, yi)} Ni = 1이 주어진다. yi ∈ {1; 2; ::: C}에서 기본 softmax 분류자는 파라메트릭 함수를 기반으로 객체에 대해 최대 확률을 갖는 클래스를 다음 수학식 9와 같이 선택할 수 있다.The verification unit 230 is given a data set B = {(xi, yi)} Ni = 1 of given N training samples and related class labels. yi ∈ {1; 2; In ::: C}, the basic softmax classifier can select a class having the maximum probability for an object based on a parametric function as shown in Equation 9.

[수학식 9][Equation 9]

Figure pat00051
Figure pat00051

여기서, f(x)는 CNN 모델에 의해 추출된 특징 표현이며, 이는 분류자와 공동으로 훈련될 수 있다. 기본 softmax 분류기는 내부 적응형 분류의 견고성을 향상시킬 수 있는 작은 적응을 가진 표현 공간에서 컴팩트 클러스터를 생성하도록 수정 될 수 있다. L2 정규화는 네트워크의 최종 계층에 대해 먼저 계산되어 표현이 단위 길이인지 확인해야한다. 가중치 wk, ∀k = 1, 2, … C는 단위 길이로 표준화되어야 한다. 코사인 softmax 분류자는 다음 수학식 10과 같이 표현 될 수 있다.Here, f(x) is a feature expression extracted by a CNN model, which can be trained jointly with a classifier. The basic softmax classifier can be modified to create a compact cluster in the expression space with a small adaptation that can improve the robustness of the internal adaptive classification. L2 normalization must first be calculated for the final layer of the network to ensure that the representation is unit length. Weight wk, ∀k = 1, 2,… C should be standardized to unit length. The cosine softmax classifier can be expressed by Equation 10 below.

[수학식 10][Equation 10]

Figure pat00052
Figure pat00052

여기서 κ는 자유 스케일링 매개 변수다. 확률적 구배 강하의 수렴을 가속화하는 방법으로 가중치 벡터 κ의 길이를 그 방향에서 분리하는 방법이 있다.Where κ is a free scaling parameter. As a method of accelerating the convergence of the stochastic gradient drop, there is a method of separating the length of the weight vector κ from the direction.

상기 검증부(230)는 생성적인 관점에서,

Figure pat00053
를 볼 때, 클래스 조건부 확률이 수학식 11, 수학식 12와 같이 von Mises-Fisher (vMF) 분포를 따를 수 있다.The verification unit 230, from a generative point of view,
Figure pat00053
Looking at, the class conditional probability can follow the von Mises-Fisher (vMF) distribution as shown in Equation 11 and Equation 12.

[수학식 11][Equation 11]

Figure pat00054
Figure pat00054

[수학식 12][Equation 12]

Figure pat00055
Figure pat00055

여기서 Iv는 오더(order) v에서 첫 번째 종류의 수정된 Bessel 함수를 나타낸다. 본 발명의 일 실시 예에서 p = 2를 고려한다. 이 분포는 원에서 von Mises 분포로 감소한여 수학식 11은 다음과 같이 수학식 13이 된다.Here, I v represents the modified Bessel function of the first kind in order v. Consider p = 2 in one embodiment of the present invention. This distribution decreases from the circle to the von Mises distribution, so Equation 11 becomes Equation 13 as follows.

[수학식 13][Equation 13]

Figure pat00056
Figure pat00056

여기서 I0는 오더 0의 수정된 베셀 함수이고

Figure pat00057
는 공유 농도 매개 변수다. 작은 C의 경우 분포가 거의 균일하므로 CNN 모델의 내부 범주 분류 기능을 향상시키기 위해 적절한
Figure pat00058
을 선택할 수 있다. 결과적으로, 사후 클래스 확률은 베이스 (Bayes) 규칙에 의해 수학식 14로 계산될 수 있다.Where I 0 is the modified Bessel function of order 0
Figure pat00057
Is the shared concentration parameter. For small C, the distribution is almost uniform, so it is appropriate to improve the internal categorization of the CNN model.
Figure pat00058
You can choose As a result, the posterior class probability can be calculated by Equation 14 according to the Bayes rule.

[수학식 14][Equation 14]

Figure pat00059
Figure pat00059

상기 검증부(230)는 von Mises 분포는 코사인 유사성이 감소함에 따라 방향

Figure pat00060
주위로 정점을 이루고 붕괴하는 1 차원 구에 대한 등방성 확률 분포이다. 해당 코사인 소프트 맥스 손실 함수는 다음 수학식 15과 같이 쓸 수 있다.The verification unit 230, the von Mises distribution is the direction as the cosine similarity decreases
Figure pat00060
An isotropic probability distribution for a one-dimensional sphere that peaks and collapses around. The cosine soft max loss function can be written as in Equation 15 below.

[수학식 15][Equation 15]

Figure pat00061
Figure pat00061

이것은 서로 다른

Figure pat00062
값을 가진 기본 softmax로 적용하여 견고한 클러스터로 샘플을 밀어 넣을 수 있다. This is different
Figure pat00062
The sample can be pushed into a solid cluster by applying it as a default softmax with a value.

본 발명의 일 실시 예에 따른 다중 객체 추적 방법은 상기 신뢰도 평가가 임계값 이하인 객체를 재식별하고 상기 객체의 트랙렛을 재추적하는 단계(S840)를 포함할 수 있다.The multi-object tracking method according to an embodiment of the present invention may include re-identifying an object whose reliability evaluation is less than or equal to a threshold value and re-tracking the tracklet of the object (S840 ).

S840 단계에서, 상기 객체검출부(220)는 상기 검증부(230)의 신뢰도 평가가 임계값 이하인 객체를 재식별하고 상기 객체의 트랙렛을 재추적할 수 있다. 상기 객체검출부(220)는 상기 객체의 외관, 형태 및 움직임 정보를 이용한 데이터 상관을 통해 객체 추적을 수행할 수 있다. 상기 객체검출부(220)는 상기 객체의 외관 및 형태 정보를 이용한 데이터 상관을 통해 객체 추적을 수행할 수 있다. 상기 객체검출부(220)는 상기 재추적 결과에 따른 상기 객체의 외관 및 형태 정보를 이용해 트랙렛을 업데이트할 수 있다. 상기 객체검출부(220)는 상기 객체의 외관, 형태 및 트랙렛 정보를 이용해 상기 객체의 외형 모델을 업데이트할 수 있다.In step S840, the object detection unit 220 may re-identify an object whose reliability evaluation of the verification unit 230 is less than or equal to a threshold value and retrace the tracklet of the object. The object detection unit 220 may perform object tracking through data correlation using the appearance, shape, and motion information of the object. The object detection unit 220 may perform object tracking through data correlation using appearance and shape information of the object. The object detection unit 220 may update the tracklet using the appearance and shape information of the object according to the retrace result. The object detection unit 220 may update the appearance model of the object using the appearance, shape, and tracklet information of the object.

상기 객체검출부(220)는 상기 식별된 객체의 외형적 특징을 추출해 학습할 수 있다. 상기 객체검출부(220)는 식별한 객체의 외관 및 형태 정보를 이용해 상기 객체의 외형 모델을 생성할 수 있다. 상기 객체검출부(220)는 상기 추적 및 재추적 결과를 이용해 상기 외형 모델을 업데이트 할 수 있다. 상기 객체검출부(220)는 상기 추적 및 재추적 결과를 기계학습하여 상기 외형 모델을 생성 및 업데이트 할 수 있다. The object detection unit 220 may extract and learn the external characteristics of the identified object. The object detection unit 220 may generate an external model of the object using the appearance and shape information of the identified object. The object detection unit 220 may update the appearance model using the tracking and re-tracking results. The object detection unit 220 may generate and update the appearance model by machine learning the tracking and retrace results.

이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통 상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been focused on the preferred embodiments. Those skilled in the art to which the present invention pertains will appreciate that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered in terms of explanation, not limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the equivalent range should be interpreted as being included in the present invention.

Claims (9)

관심 영역의 영상을 획득하는 단계;
상기 영상에 포함되는 복수의 객체를 각각 식별하고, 상기 객체의 트랙렛(tracklet)을 추적하는 단계;
상기 추적 결과의 신뢰도를 평가하는 단계; 및
상기 신뢰도 평가가 임계값 이하인 객체를 재식별하고 상기 객체의 트랙렛을 재추적하는 단계;를 포함하는 영상 내 다중 객체 추적 방법.
Obtaining an image of a region of interest;
Identifying a plurality of objects included in the image, and tracking tracklets of the objects;
Evaluating the reliability of the tracking result; And
And re-identifying an object whose reliability evaluation is below a threshold and retracking the tracklet of the object.
제1항에 있어서,
상기 영상 획득 단계는,
식별된 객체 및 트랙렛 정보를 포함하는 영상을 획득하는 단계; 및,
상기 식별된 객체의 외형적 특징을 추출해. 학습하는 단계;를 포함하는 영상 내 다중 객체 추적 방법.
According to claim 1,
The image acquisition step,
Obtaining an image including the identified object and tracklet information; And,
Extract the external features of the identified object. Learning step; Multi-object tracking method in an image comprising a.
제1항에 있어서,
상기 제1 추적 단계는,
상기 객체의 외관, 형태 및 움직임 정보를 이용한 데이터 상관을 통해 추적하는 것을 특징으로 하는 영상 내 다중 객체 추적 방법.
According to claim 1,
The first tracking step,
A method for tracking multiple objects in an image, characterized by tracking through data correlation using the appearance, shape, and motion information of the object.
제1항에 있어서,
상기 제2 추적 단계는,
상기 객체의 외관 및 형태 정보를 이용한 데이터 상관을 통해 추적하는 것을 특징으로 하는 영상 내 다중 객체 추적 방법.
According to claim 1,
The second tracking step,
A method for tracking multiple objects in an image, characterized by tracking through data correlation using the appearance and shape information of the object.
제4항에 있어서,
상기 재추적 결과에 따른 상기 객체의 외관 및 형태 정보를 이용해 트랙렛을 업데이트하는 단계; 및
상기 객체의 외관, 형태 및 트랙렛 정보를 이용해 상기 객체의 외형 모델을 업데이트하는 단계;를 더 포함하는 영상 내 다중 객체 추적 방법.
The method of claim 4,
Updating a tracklet using the appearance and shape information of the object according to the retrace result; And
And updating the appearance model of the object using the appearance, shape, and tracklet information of the object.
관심 영역의 영상을 획득하는 영상획득부;
상기 영상에 포함되는 복수의 객체를 각각 식별하고, 상기 객체의 트랙렛(tracklet)을 각각 추적하는 객체검출부;
상기 추적 결과의 신뢰도를 평가하는 검증부;를 포함하고,
상기 객체검출부는,
상기 신뢰도 평가가 임계값 이하인 객체를 재식별하고 트랙렛을 재추적하는 영상 내 다중 객체 추적 시스템.
An image acquisition unit that acquires an image of a region of interest;
An object detection unit that identifies a plurality of objects included in the image and tracks a tracklet of the object, respectively;
Includes; a verification unit for evaluating the reliability of the tracking results,
The object detection unit,
Multi-object tracking system in an image that re-identifies an object whose reliability evaluation is below a threshold and retraces a tracklet.
제6항에 있어서,
상기 영상획득부는,
식별된 객체 및 트랙렛 정보를 포함하는 영상을 획득하고, 상기 식별된 객체의 외형적 특징을 추출해. 학습하는 것을 특징으로 하는 영상 내 다중 객체 추적 시스템.
The method of claim 6,
The image acquisition unit,
An image including the identified object and tracklet information is acquired, and external features of the identified object are extracted. Multi-object tracking system in an image characterized by learning.
제6항에 있어서,
상기 객체검출부는,
상기 객체의 외관, 형태 및 움직임 정보를 이용한 데이터 상관을 통해 추적하는 것을 특징으로 하는 영상 내 다중 객체 추적 시스템.
The method of claim 6,
The object detection unit,
Multi-object tracking system in an image, characterized by tracking through data correlation using the appearance, shape, and motion information of the object.
제8항에 있어서,
상기 객체검출부는,
상기 재추적 결과에 따른 상기 객체의 외관 및 형태 정보를 이용해 트랙렛을 업데이트하고,
상기 객체의 외관, 형태 및 트랙렛 정보를 이용해 상기 객체의 외형 모델을 업데이트하는 것을 특징으로 하는 영상 내 다중 객체 추적 시스템.
The method of claim 8,
The object detection unit,
Update the tracklet using the appearance and shape information of the object according to the retrace result,
Multi-object tracking system in the image, characterized in that for updating the appearance model of the object using the appearance, shape and tracklet information of the object.
KR1020180146506A 2018-11-23 2018-11-23 Tracking method and system multi-object in video KR102132722B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180146506A KR102132722B1 (en) 2018-11-23 2018-11-23 Tracking method and system multi-object in video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180146506A KR102132722B1 (en) 2018-11-23 2018-11-23 Tracking method and system multi-object in video

Publications (2)

Publication Number Publication Date
KR20200061118A true KR20200061118A (en) 2020-06-02
KR102132722B1 KR102132722B1 (en) 2020-07-10

Family

ID=71090920

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180146506A KR102132722B1 (en) 2018-11-23 2018-11-23 Tracking method and system multi-object in video

Country Status (1)

Country Link
KR (1) KR102132722B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116634A (en) * 2020-07-30 2020-12-22 西安交通大学 Multi-target tracking method of semi-online machine
CN112712051A (en) * 2021-01-12 2021-04-27 腾讯科技(深圳)有限公司 Object tracking method and device, computer equipment and storage medium
KR102308752B1 (en) * 2021-02-22 2021-10-05 주식회사 에스아이에이 Method and apparatus for tracking object
CN114202563A (en) * 2021-12-15 2022-03-18 中国农业大学 Fish multi-target tracking method based on balance joint network
CN115035158A (en) * 2022-06-05 2022-09-09 东北石油大学 Target tracking method and device, electronic equipment and storage medium
KR20220148053A (en) * 2021-04-28 2022-11-04 계명대학교 산학협력단 Multi-object tracking apparatus and method using graph convolution neural network
KR20220150576A (en) * 2021-05-04 2022-11-11 인하대학교 산학협력단 Method and Apparatus for Tracking of Online Multi-Object with Visual and Radar Features
KR20230075538A (en) * 2021-11-23 2023-05-31 숭실대학교산학협력단 Apparatus and method for tracking object
US12056494B2 (en) 2021-04-23 2024-08-06 Nvidia Corporation Techniques for parallel execution

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170097265A (en) * 2016-02-17 2017-08-28 광주과학기술원 System for tracking of moving multi target and method for tracking of moving multi target using same
KR20180077865A (en) * 2016-12-29 2018-07-09 단국대학교 산학협력단 Online apparatus and method for Multiple Camera Multiple Target Tracking Based on Multiple Hypothesis Tracking

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170097265A (en) * 2016-02-17 2017-08-28 광주과학기술원 System for tracking of moving multi target and method for tracking of moving multi target using same
KR20180077865A (en) * 2016-12-29 2018-07-09 단국대학교 산학협력단 Online apparatus and method for Multiple Camera Multiple Target Tracking Based on Multiple Hypothesis Tracking

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116634A (en) * 2020-07-30 2020-12-22 西安交通大学 Multi-target tracking method of semi-online machine
CN112116634B (en) * 2020-07-30 2024-05-07 西安交通大学 Multi-target tracking method of semi-online machine
CN112712051A (en) * 2021-01-12 2021-04-27 腾讯科技(深圳)有限公司 Object tracking method and device, computer equipment and storage medium
KR102308752B1 (en) * 2021-02-22 2021-10-05 주식회사 에스아이에이 Method and apparatus for tracking object
US11669565B2 (en) 2021-02-22 2023-06-06 Si Analytics Co., Ltd. Method and apparatus for tracking object
US12056494B2 (en) 2021-04-23 2024-08-06 Nvidia Corporation Techniques for parallel execution
KR20220148053A (en) * 2021-04-28 2022-11-04 계명대학교 산학협력단 Multi-object tracking apparatus and method using graph convolution neural network
KR20220150576A (en) * 2021-05-04 2022-11-11 인하대학교 산학협력단 Method and Apparatus for Tracking of Online Multi-Object with Visual and Radar Features
KR20230075538A (en) * 2021-11-23 2023-05-31 숭실대학교산학협력단 Apparatus and method for tracking object
CN114202563A (en) * 2021-12-15 2022-03-18 中国农业大学 Fish multi-target tracking method based on balance joint network
CN115035158A (en) * 2022-06-05 2022-09-09 东北石油大学 Target tracking method and device, electronic equipment and storage medium
CN115035158B (en) * 2022-06-05 2023-11-17 东北石油大学 Target tracking method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
KR102132722B1 (en) 2020-07-10

Similar Documents

Publication Publication Date Title
KR102132722B1 (en) Tracking method and system multi-object in video
Shen et al. Fast online tracking with detection refinement
CN110197502B (en) Multi-target tracking method and system based on identity re-identification
Yang et al. An online learned CRF model for multi-target tracking
CN109598684B (en) Correlation filtering tracking method combined with twin network
CN107145862B (en) Multi-feature matching multi-target tracking method based on Hough forest
CN109191497A (en) A kind of real-time online multi-object tracking method based on much information fusion
EP3035235B1 (en) Method for setting a tridimensional shape detection classifier and method for tridimensional shape detection using said shape detection classifier
Kaâniche et al. Recognizing gestures by learning local motion signatures of HOG descriptors
CN114240997B (en) Intelligent building online trans-camera multi-target tracking method
Chen et al. A joint estimation of head and body orientation cues in surveillance video
Zulkifley Two streams multiple-model object tracker for thermal infrared video
CN107944431A (en) A kind of intelligent identification Method based on motion change
CN104992453A (en) Target tracking method under complicated background based on extreme learning machine
CN111626194A (en) Pedestrian multi-target tracking method using depth correlation measurement
CN103150546A (en) Video face identification method and device
Li et al. Robust visual tracking with occlusion judgment and re-detection
Gao et al. An object point set inductive tracker for multi-object tracking and segmentation
Ali et al. Deep Learning Algorithms for Human Fighting Action Recognition.
Xiang et al. Multitarget tracking using hough forest random field
Chen et al. Skeleton moving pose-based human fall detection with sparse coding and temporal pyramid pooling
EP3982333A1 (en) Method and apparatus for people flow analysis using similar-image search
CN114898287A (en) Method and device for dinner plate detection early warning, electronic equipment and storage medium
Calderara et al. Understanding dyadic interactions applying proxemic theory on videosurveillance trajectories
Kacete et al. [POSTER] Decision Forest For Efficient and Robust Camera Relocalization

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant