KR102538919B1 - A Hybrid Object Tracking System and Method therefor - Google Patents

A Hybrid Object Tracking System and Method therefor Download PDF

Info

Publication number
KR102538919B1
KR102538919B1 KR1020200177195A KR20200177195A KR102538919B1 KR 102538919 B1 KR102538919 B1 KR 102538919B1 KR 1020200177195 A KR1020200177195 A KR 1020200177195A KR 20200177195 A KR20200177195 A KR 20200177195A KR 102538919 B1 KR102538919 B1 KR 102538919B1
Authority
KR
South Korea
Prior art keywords
tracking
recognition
tracked
unit
result
Prior art date
Application number
KR1020200177195A
Other languages
Korean (ko)
Other versions
KR20220086940A (en
Inventor
홍석범
함명원
김정훈
왕민권
Original Assignee
주식회사 파인더스에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 파인더스에이아이 filed Critical 주식회사 파인더스에이아이
Priority to KR1020200177195A priority Critical patent/KR102538919B1/en
Publication of KR20220086940A publication Critical patent/KR20220086940A/en
Application granted granted Critical
Publication of KR102538919B1 publication Critical patent/KR102538919B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

본 발명은 사물 추적 시스템 및 방법에 관한 것으로, 복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신하는 사물 정보 수신부, 상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적하는 비인식 추적부, 상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적하는 사물인식 추적부 및 상기 사물인식 추적부의 추적 결과 및 상기 비인식 추적부의 추적 결과를 기초로 종합 추적 결과를 생성하는 종합 추적부를 포함하는 사물 추적 시스템과 그 사물 추적 방법에 관한 것이다.The present invention relates to a system and method for tracking an object, and relates to an object information receiver for receiving information about an object to be tracked from video data consisting of a plurality of frames, a position of the object to be tracked in a previous frame of the video data and a current frame. A non-recognition tracking unit that tracks the movement of the object to be tracked using a non-recognition tracker, an object recognition tracker that recognizes the object to be tracked for each frame of the video data and tracks the movement of the object, and tracking of the object recognition tracker An object tracking system including a comprehensive tracking unit generating a comprehensive tracking result based on a result and a tracking result of the non-recognized tracking unit, and a method for tracking the object.

Description

하이브리드 사물 추적 시스템 및 방법 {A Hybrid Object Tracking System and Method therefor}Hybrid Object Tracking System and Method {A Hybrid Object Tracking System and Method therefor}

본 발명은 사물 추적 시스템 및 방법에 관한 것으로, 영상 내에서 선택된 사물을 추적하는 과정에서 효율적이고 정확한 사물의 이동 추적이 가능하도록 하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for tracking an object, and relates to a system and method for enabling efficient and accurate movement tracking of an object in the process of tracking an object selected in an image.

영상을 분석하고, 이를 기초로 서비스를 제공하는 기술이 늘어나면서, 영상 내에서 특정 사물을 인식하고, 인식된 사물의 영상 내 이동을 추적하는 기술에 대한 수요가 늘어나고 있다.As technologies for analyzing images and providing services based thereon increase, demand for technologies for recognizing a specific object in an image and tracking movement of the recognized object in the image is increasing.

종래의 영상 내 사물 추적(Object Tracking) 기술 중 많이 사용되는 기술은 사물인식 추적(Object Detection based Tracking) 기술로, 영상을 구성하는 복수의 프레임 각각에서 추적 대상인 사물의 특징을 가지는 영역을 지속적으로 인식함으로써, 해당 사물이 영상에서 시계열 흐름에 따라 어떻게 이동하는지 추적하는 기술이다.Among conventional object tracking technologies, an object detection based tracking technology is widely used, which continuously recognizes a region having characteristics of an object to be tracked in each of a plurality of frames constituting an image. By doing so, it is a technology that tracks how the object moves according to the flow of time series in the image.

종래기술인 한국공개특허 제10-2016-0123647호, "객체 추적을 이용한 동영상 부가정보 제공 장치 및 제공 방법"은 이와 같은 사물 인식 기반의 추적 기술을 이용하여 다양한 서비스를 제공할 수 있도록 하는 기술이다. 그러나, 이와 같은 사물인식 추적기술을 이용하는 경우, 인식할 사물의 특징을 파악할 수 있도록 사물에 대한 사전 학습 작업이 필요하며, 동일한 사물이 화면상에서 방향 등이 변경되는 경우, 이를 인식하기 어려운 경우가 발생된다는 문제점이 있다.Prior art Korean Patent Publication No. 10-2016-0123647, "Apparatus and Method for Providing Video Additional Information Using Object Tracking" is a technique for providing various services using such object recognition-based tracking technology. However, in the case of using such object recognition tracking technology, it is necessary to pre-learn the object in order to understand the characteristics of the object to be recognized, and when the same object changes direction on the screen, it may be difficult to recognize it. There is a problem with being

이와 같은 문제점을 해결하기 위하여, 최근에는 사물인식을 이용하지 않는 비인식 추적기술이 개발되고 있는데, 비주얼 사물 추적(VOT; Visual Object Tracking)이라고도 불리는 이 기술은 현재 프레임과 이전 프레임의 영상을 비교하여, 이전 프레임에서의 사물이 현재 프레임에서 어떻게 이동하였는지를 인공지능 기반으로 확인하는 기술로, 사물의 이동에 대한 추적 성능이 뛰어나지만, 추적을 놓친 경우(사물이 화면 밖으로 나갔다가 들어오는 경우 등)에 이를 복원하는 것이 불가능한 문제점이 있다.In order to solve this problem, a non-recognition tracking technology that does not use object recognition has recently been developed. This technology, also called Visual Object Tracking (VOT), compares images of the current frame and the previous frame. , This is a technology that checks how an object in the previous frame moved in the current frame based on artificial intelligence. It has excellent tracking performance for the movement of an object, but it can be detected if tracking is missed (e.g., when an object goes out of the screen and then comes back in). There are problems that cannot be restored.

한국공개특허 제10-2016-0123647호Korean Patent Publication No. 10-2016-0123647

본 발명은 비인식 추적 기술을 이용하여, 사물의 이동을 효과적으로 추적하면서도, 사물이 화면 밖으로 나갔다가 들어오는 경우와 같이 사물의 추적이 중단되는 경우에도 다시 사물의 이동을 추적할 수 있도록 하는 것을 목적으로 한다.An object of the present invention is to effectively track the movement of an object by using non-recognition tracking technology, and to track the movement of an object again even if the tracking of the object is stopped, such as when the object goes out of the screen and then returns. do.

본 발명은 비인식 추적 방법을 이용하여 사물을 추적하면서, 신뢰도가 낮은 경우에 보충적으로 사물인식 추적 방법을 이용함으로써, 효과적인 사물 추적이 가능하도록 하는 것을 목적으로 한다.An object of the present invention is to enable effective object tracking by supplementarily using an object recognition tracking method when the reliability is low while tracking an object using a non-recognition tracking method.

본 발명은 신뢰도 값을 기반으로 비인식 추적 방법의 신뢰도가 낮은 경우에만 사물인식 추적 방법이 사용되도록 함으로써, 연산을 최소화하고도 효과적인 사물 추적이 가능하도록 하는 것을 목적으로 한다.An object of the present invention is to enable effective object tracking with minimal computation by enabling an object recognition tracking method to be used only when the reliability of the non-recognition tracking method is low based on a reliability value.

본 발명은 비인식 추적 방법과 사물인식 추적 방법을 동시에 적용하는 경우, 신뢰도 값을 기반으로 각 방법의 추적 결과에 가중치를 부여하여 종합 추적 결과를 생성함으로써, 추적 성능을 극대화하는 것을 목적으로 한다.An object of the present invention is to maximize tracking performance by generating a comprehensive tracking result by assigning a weight to the tracking result of each method based on a reliability value when both the non-recognition tracking method and the object recognition tracking method are simultaneously applied.

이러한 목적을 달성하기 위하여 본 발명의 일실시예에 따른 사물 추적 시스템은 복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신하는 사물 정보 수신부, 상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적하는 비인식 추적부, 상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적하는 사물인식 추적부 및 상기 사물인식 추적부의 추적 결과 및 상기 비인식 추적부의 추적 결과를 기초로 종합 추적 결과를 생성하는 종합 추적부를 포함하는 것을 특징으로 한다.In order to achieve this object, an object tracking system according to an embodiment of the present invention includes an object information receiving unit receiving information about an object to be tracked from video data composed of a plurality of frames, and the tracking object in a previous frame of the video data. A non-recognition tracking unit that tracks the movement of the object to be tracked using the location of the object and the current frame, an object recognition tracker that recognizes the object to be tracked for each frame of the video data and tracks the movement of the object; and and a comprehensive tracking unit generating a comprehensive tracking result based on a tracking result of the object recognition tracking unit and a tracking result of the non-recognition tracking unit.

이 때, At this time,

상기 사물인식 추적부 및 상기 비인식 추적부는 각각 추적 신뢰도 값을 계산하고, 상기 종합 추적부는 상기 추적 신뢰도 값을 이용하여 상기 사물인식 추적부의 추적 결과와 상기 비인식 추적부의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성할 수 있다.The object recognition tracking unit and the non-recognition tracking unit each calculate a tracking reliability value, and the comprehensive tracking unit obtains weights of a tracking result of the object recognition tracking unit and a tracking result of the non-recognition tracking unit using the tracking reliability value, respectively. , a comprehensive tracking result can be generated by reflecting this.

또한, 상기 종합 추적부는 상기 비인식 추적부의 추적 신뢰도 값을 기초로 비인식 추적부의 추적 결과의 가중치를 구하고, 상기 사물인식 추적부의 추적 신뢰도 값과 상기 비인식 추적부의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적부의 추적 결과의 가중치를 구할 수 있다.In addition, the comprehensive tracking unit obtains a weight of a tracking result of the non-recognition tracking unit based on the tracking reliability value of the non-recognition tracking unit, and based on a difference between the tracking reliability value of the object recognition tracking unit and the tracking reliability value of the non-recognition tracking unit A weight of a tracking result of the object recognition tracking unit may be obtained.

또한, 상기 사물인식 추적부는 상기 비인식 추적부의 추적 신뢰도 값이 소정의 기준치 이하인 경우에만 상기 추적할 사물의 이동을 추적하고, 상기 종합 추적부는 상기 사물인식 추적부가 이동을 추적하지 않는 경우에는 상기 비인식 추적부의 추적 결과를 종합 추적 결과로 생성할 수 있다.In addition, the object recognition tracker tracks the movement of the object to be tracked only when the tracking reliability value of the non-recognition tracker is equal to or less than a predetermined reference value, and the comprehensive tracker tracks the movement of the object recognition tracker when the object recognition tracker does not track the movement. The tracking result of the recognition tracking unit may be generated as a comprehensive tracking result.

또한, 상기 사물인식 추적부는 상기 추적할 사물에 관한 정보를 기초로 상기 추적할 사물이 학습된 종류의 사물인지 확인하고, 학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하고, 상기 종합 추적부는 상기 사물인식 추적부가 이동을 추적하지 않는 경우에는 상기 비인식 추적부 추적 결과를 종합 추적 결과로 생성할 수 있다.In addition, the object recognition tracking unit determines whether the object to be tracked is a learned type of object based on the information about the object to be tracked, tracks the movement of the object to be tracked only when the object is a learned type of object, and The tracking unit may generate a tracking result of the non-recognition tracking unit as a comprehensive tracking result when the object recognition tracking unit does not track movement.

본 발명은 비인식 추적 기술을 이용하여, 사물의 이동을 효과적으로 추적하면서도, 사물이 화면 밖으로 나갔다가 들어오는 경우와 같이 사물의 추적이 중단되는 경우에도 다시 사물의 이동을 추적할 수 있도록 한다.The present invention uses a non-recognition tracking technology to effectively track the movement of an object, and to track the movement of an object again even when tracking of the object is stopped, such as when the object leaves and then returns to the screen.

본 발명은 비인식 추적 방법을 이용하여 사물을 추적하면서, 신뢰도가 낮은 경우에 보충적으로 사물인식 추적 방법을 이용함으로써, 효과적인 사물 추적이 가능하도록 한다.The present invention enables effective object tracking by supplementarily using an object recognition tracking method when the reliability is low while tracking an object using a non-recognition tracking method.

본 발명은 신뢰도 값을 기반으로 비인식 추적 방법의 신뢰도가 낮은 경우에만 사물인식 추적 방법이 사용되도록 함으로써, 연산을 최소화하고도 효과적인 사물 추적이 가능하도록 한다.According to the present invention, the object recognition tracking method is used only when the reliability of the non-recognition tracking method is low based on the reliability value, thereby enabling effective object tracking with minimal computation.

본 발명은 비인식 추적 방법과 사물인식 추적 방법을 동시에 적용하는 경우, 신뢰도 값을 기반으로 각 방법의 추적 결과에 가중치를 부여하여 종합 추적 결과를 생성함으로써, 추적 성능을 극대화한다.When the non-recognition tracking method and the object recognition tracking method are simultaneously applied, the present invention maximizes tracking performance by generating a comprehensive tracking result by assigning a weight to the tracking result of each method based on a reliability value.

도 1은 본 발명의 일실시예에 따른 사물 추적 시스템의 내부 구성을 도시한 구성도이다.
도 2는 본 발명의 일실시예에 따른 비인식 추적 및 사물인식 추적이 적용되는 경우의 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 사물 추적 방법의 흐름을 도시한 흐름이다.
1 is a configuration diagram showing the internal configuration of an object tracking system according to an embodiment of the present invention.
2 is a diagram illustrating an example of a case where non-recognition tracking and object recognition tracking are applied according to an embodiment of the present invention.
3 is a flow illustrating the flow of an object tracking method according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하기로 한다. 또한 본 발명의 실시예들을 설명함에 있어 구체적인 수치는 실시예에 불과하며 이에 의하여 발명의 범위가 제한되지 아니한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted. In addition, in describing the embodiments of the present invention, specific numerical values are only examples, and the scope of the invention is not limited thereby.

본 발명에 따른 사물 추적 시스템은 중앙처리장치(CPU) 및 메모리(Memory, 기억장치)를 구비하고 인터넷 등의 통신망을 통하여 다른 단말기와 연결 가능한 서버의 형태로 구성될 수 있다. 또한, 모바일 단말, 사물인터넷(IoT) 기기 등에서 구현될 수도 있으며, 인터넷 등의 통신망이 연결되지 않은 환경에서도 독립적인 동작이 가능하다. 그러나 본 발명이 중앙처리장치 및 메모리 등의 구성에 의해 한정되지는 아니한다. 또한, 본 발명에 따른 사물 추적 시스템은 물리적으로 하나의 장치로 구성될 수도 있으며, 복수의 장치에 분산된 형태로 구현될 수도 있다.The object tracking system according to the present invention may be configured in the form of a server having a central processing unit (CPU) and a memory and being connectable to other terminals through a communication network such as the Internet. In addition, it may be implemented in a mobile terminal, an Internet of Things (IoT) device, etc., and independent operation is possible even in an environment where a communication network such as the Internet is not connected. However, the present invention is not limited by the configuration of the central processing unit and memory. In addition, the object tracking system according to the present invention may be physically configured as one device or implemented in a distributed form in a plurality of devices.

도 1은 본 발명의 일실시예에 따른 사물 추적 시스템의 내부 구성을 도시한 구성도이다.1 is a configuration diagram showing the internal configuration of an object tracking system according to an embodiment of the present invention.

도면에 도시한 바와 같이, 본 발명의 일실시예에 따른 사물 추적 시스템(101)은 사물 정보 수신부(110), 비인식 추적부(120), 사물인식 추적부(130) 및 종합 추적부(140)를 포함하여 구성될 수 있다. 각각의 구성요소들은 물리적으로 동일한 컴퓨터 시스템 내에서 동작하는 소프트웨어 모듈일 수 있으며, 물리적으로 2개 이상으로 분리된 컴퓨터 시스템이 서로 연동하여 동작할 수 있도록 구성된 형태일 수 있는데, 동일한 기능을 포함하는 다양한 실시형태가 본 발명의 권리범위에 속한다.As shown in the drawing, the object tracking system 101 according to an embodiment of the present invention includes an object information receiving unit 110, a non-recognition tracking unit 120, an object recognition tracking unit 130, and a comprehensive tracking unit 140. ). Each component may be a software module that operates in the same computer system physically, or may be configured so that two or more physically separated computer systems can operate in conjunction with each other. Embodiments belong to the scope of the present invention.

사물 정보 수신부(110)는 복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신한다. 동영상 데이터는 복수의 정지영상 프레임들을 시계열적으로 나열하여, 시간의 흐름에 따라 정지영상을 빠르게 재생함으로써, 움직이는 영상을 제공한다. 이와 같은 동영상 데이터를 분석하기 위해서는 동영상에 포함되는 사물(Object)을 인식할 필요가 있다. 예를 들어, CCTV에서 침입자를 탐지하는 경우, 침입자를 추적할 사물(Object)로 선택하고, 이동을 식별해 내야 한다.The object information receiving unit 110 receives information about an object to be tracked from video data composed of a plurality of frames. Moving image data is provided by arranging a plurality of still image frames in time series and reproducing the still image quickly according to the lapse of time, thereby providing a moving image. In order to analyze such video data, it is necessary to recognize objects included in the video. For example, when a CCTV detects an intruder, the intruder must be selected as an object to be tracked and movement must be identified.

사물 정보 수신부(110)에서 수신하는 추적할 사물에 관한 정보는 추적할 사물이 영상 내에서 위치하는 위치 정보 또는 존재하는 범위를 나타내는 범위 정보를 포함할 수 있으며, 추가로 추적할 사물의 속성에 관한 정보를 포함할 수 있다. 예를 들어 추적하는 대상이 사람의 얼굴인 경우, 추적할 사물이 얼굴임을 속성 정보로 제공함으로써, 사물인식을 통해 사물을 추적할 때에 보다 정확한 인식이 가능하도록 할 수 있다.The information about the object to be tracked received by the object information receiving unit 110 may include location information of where the object to be tracked is located in the image or range information indicating the range in which the object to be tracked is located, and may further include properties of the object to be tracked. information may be included. For example, when an object to be tracked is a face of a person, by providing attribute information that the object to be tracked is a face, more accurate recognition is possible when tracking an object through object recognition.

사물 정보 수신부(110)에서 추적할 사물에 관한 정보를 수신하기 위하여, 사용자가 어플리케이션 등을 이용하여 원하는 사물을 추적하는 경우에는 사용자의 마우스 클릭 또는 터치 입력을 수신하여 해당 위치의 사물을 추적하도록 할 수도 있고, 지능형 CCTV 등에 적용되는 경우에는 침입자 등 이상행동이 감지되는 사물을 자동으로 식별하여 추적할 사물로 선택하고 해당 사물에 대한 정보를 사물 정보 수신부(110)에서 수신하도록 할 수도 있다.In order to receive information about an object to be tracked in the object information receiving unit 110, when a user tracks a desired object using an application or the like, a user's mouse click or touch input is received to track the object at the corresponding location. Alternatively, when applied to an intelligent CCTV, etc., an object in which an abnormal behavior such as an intruder is detected may be automatically identified, selected as an object to be tracked, and information on the object may be received by the object information receiving unit 110.

비인식 추적부(120)는 상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적한다. 동영상의 매 프레임에서 사물을 인식하여 해당 사물의 위치를 추적하는 것이 종래의 대부분의 사물 추적 기술이었는데, 사물을 인식하는 인공지능 네트워크는 사물을 정확히 인식(detection)하고 구분(classification)하는 데에 초점이 맞춰져 있어서, 이동하는 사물을 추적하는 추적 성능이 높지 않다. 예를 들어, 사람의 얼굴을 추적하는 경우라고 한다면, 얼굴의 정면이 노출되었을 때, 해당 부분이 사람의 얼굴이라고 인식하는 것은 가능하지만, 다음 장면에서 얼굴이 옆 또는 뒤쪽으로 회전하여 이동하는 경우, 다음 얼굴이 뒤쪽으로 돌아 있는 장면의 프레임에서 얼굴을 인식할 수 없기 때문에, 추적에 실패하게 된다.The non-recognition tracking unit 120 tracks the movement of the object to be tracked by using the position of the object to be tracked in the previous frame of the video data and the current frame. Recognizing an object in each frame of a video and tracking the location of the object has been the most conventional object tracking technology, but the artificial intelligence network that recognizes objects focuses on accurately detecting and classifying objects. is adjusted, so the tracking performance for tracking a moving object is not high. For example, in the case of tracking a person's face, when the front of the face is exposed, it is possible to recognize that the corresponding part is a person's face, but in the next scene, if the face is rotated to the side or back, In the frame of the scene where the next face is turned backwards, the tracking fails because the face cannot be recognized.

따라서, 비인식 추적부(120)는 인식이 아니라, 추적(tracking)에 초점을 맞춘 네트워크를 설계하고, 이전 프레임에서 어떤 위치 또는 범위에 사물이 존재하였을 때, 다음 프레임에서 해당 사물이 어떻게 이동하는지를 확인함으로써, 프레임 사이에서의 사물의 이동을 정확하게 판별해 낼 수 있도록 한 것이다. 즉, 종래의 사물인식 기반 추적 기술은 인식 기술을 활용하여 추적을 가능하게 하는 것이라면, 비인식 추적부(120)에서 이전 프레임과 현재 프레임에서의 사물의 이동을 탐지하는 기술은 사물의 추적에 최적화하여 추적 성능을 극대화한 기술이라고 할 수 있다.Therefore, the non-recognition tracking unit 120 designs a network focused on tracking rather than recognition, and when an object exists in a certain position or range in the previous frame, how the object moves in the next frame. By checking, it is possible to accurately determine the movement of objects between frames. That is, if the conventional object recognition-based tracking technology enables tracking by utilizing recognition technology, the technology of detecting the movement of an object in the previous frame and the current frame in the non-recognition tracking unit 120 is optimized for object tracking. Therefore, it can be said that it is a technology that maximizes tracking performance.

비인식 추적부(120)에서 이전 프레임에서의 사물의 위치 정보 및 현재 프레임 정보를 이용하여 추적하는 기술은 인공지능을 통해 구현될 수 있는데, 이를 구현하기 위한 인공지능 알고리즘이 다양하게 개발되고 있으며, 본 발명에서는 그 중 어떤 방법을 적용하여도 문제되지 않는다. 일반적으로 이와 같이 사물을 인식하지 않고 추적하는 기술을 비주얼 사물 추적(VOT; Visual Object Tracking)이라고 부른다.The tracking technology using the location information of the object in the previous frame and the current frame information in the non-recognition tracking unit 120 can be implemented through artificial intelligence, and various artificial intelligence algorithms are being developed to implement this, In the present invention, it does not matter which method is applied. In general, a technology for tracking an object without recognizing it is called visual object tracking (VOT).

비인식 추적부(120)에서 사물을 추적하는 방식은 화면 내에서 이동하는 사물이 변형되거나 회전되는 경우에도 상대적으로 정확한 추적이 가능하고, 추적에 최적화된 네트워크를 이용하여 추적함으로써, 추적성능을 극대화할 수 있다는 장점이 존재하는 반면, 사물이 화면 밖으로 나갔다가 다시 들어오는 경우, 이를 추적할 방법이 없다는 문제점이 있다.The method of tracking an object in the non-recognition tracking unit 120 enables relatively accurate tracking even when an object moving within the screen is deformed or rotated, and maximizes tracking performance by tracking using a network optimized for tracking. On the other hand, there is a problem that there is no way to track when an object goes out of the screen and then comes back in.

사물인식 추적부(130)는 상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적한다. 앞서 설명한 바와 같이 비인식 추적부(120)의 추적 방법으로는 화면 밖으로 이동하는 사물을 추적할 수 없는데, 프레임마다 사물을 인식한다면, 화면 밖으로 이동했던 사물이 돌아왔을 때, 해당 사물을 다시 인식하여 찾아낼 수 있는 장점이 있다. 따라서 본 발명의 사물 추적 시스템은 비인식 추적부(120)의 추적기술과 함께, 프레임별 사물인식 기반의 추적 기술을 동시에 활용함으로써, 서로의 단점을 보완할 수 있도록 한 것이다.The object recognition tracker 130 recognizes the object to be tracked for each frame of the video data and tracks the movement of the object. As described above, the tracking method of the non-recognition tracking unit 120 cannot track an object moving out of the screen. If the object is recognized every frame, when the object that has moved out of the screen returns, it recognizes the object again There are advantages to discovering. Therefore, the object tracking system of the present invention utilizes the frame-by-frame object recognition-based tracking technology together with the non-recognition tracking unit 120 tracking technology to compensate for each other's disadvantages.

사물인식 추적부(130)에서 각 프레임별로 사물을 인식하기 위해서는 사전에 인식할 사물에 대한 학습 데이터를 이용하여 해당 사물의 특징을 학습하는 과정이 필요하다. 만일 사람의 얼굴을 추적할 사물로 선택하는 경우에는 다양한 사람의 얼굴 이미지를 학습데이터로 학습하여, 영상 내에서 사람의 얼굴 부분과 다른 사물들을 구별해 낼 수 있도록 해야 한다. 따라서, 사물인식 추적부(130)는 추적할 사물에 관한 정보를 확인하여, 추적할 사물이 학습된 종류의 사물인지를 판단하고, 학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하도록 할 수 있다.In order for the object recognition tracking unit 130 to recognize an object for each frame, a process of learning characteristics of the object using learning data of the object to be recognized in advance is required. If a human face is selected as an object to be tracked, it is necessary to learn various human face images as learning data so that the human face part and other objects can be distinguished in the image. Therefore, the object recognition tracking unit 130 checks information about the object to be tracked, determines whether the object to be tracked is a learned type of object, and tracks the movement of the object to be tracked only when the object is a learned type of object. can do.

비인식 추적부(120) 및 사물인식 추적부(130)는 각각 사물을 추적한 결과와 함께 추적 신뢰도 값을 계산할 수 있다. 비인식 추적부(120)의 이전 프레임에서의 사물의 위치 및 현재 프레임을 이용한 사물 추적 알고리즘과 사물인식 추적부(130)의 매 프레임별 사물인식 기반의 추적 알고리즘은 모두 추적 결과에 따라 추적 신뢰도 값을 제공할 수 있다. 추적 신뢰도 값은 추적 결과가 어느 정도로 정확한지를 나타내는 수치로, 0에서 1 사이의 값을 가지도록 계산될 수 있다.The non-recognition tracking unit 120 and the object recognition tracking unit 130 may each calculate a tracking reliability value along with a result of tracking an object. Both the object tracking algorithm using the position of the object in the previous frame and the current frame of the non-recognition tracking unit 120 and the object recognition-based tracking algorithm for each frame of the object recognition tracking unit 130 have a tracking reliability value according to the tracking result. can provide. The tracking reliability value is a numerical value indicating how accurate the tracking result is, and may be calculated to have a value between 0 and 1.

예를 들어, 사물인식 추적부(130)에서의 사물인식 기반 추적 방법 중 하나인 YOLO의 알고리즘에서는 인식한 사물이 해당 사물의 클래스(분류)에 속할 확률을 구하고, 해당 사물이 위치하는 영역의 정확도를 나타내는 IOU(Intersection over Union) 값을 구하여 이 둘을 곱함으로써 신뢰도 값을 구할 수 있다. 인식한 사물이 해당 사물의 클래스에 속할 확률과 영역의 정확도는 모두 0에서 1 사이의 값을 가지므로, 최종 추적 신뢰도 값은 0에서 1 사이의 값을 가지게 된다. 이 예시에서, 추적 신뢰도는 아래의 수식 1에 의하여 계산될 수 있다.For example, in the YOLO algorithm, which is one of the object recognition-based tracking methods in the object recognition tracking unit 130, the probability that a recognized object belongs to the class (classification) of the object is obtained, and the accuracy of the area where the object is located is determined. A reliability value can be obtained by obtaining an Intersection over Union (IOU) value representing , and multiplying the two. Since the probability that the recognized object belongs to the object class and the accuracy of the area both have a value between 0 and 1, the final tracking reliability value has a value between 0 and 1. In this example, tracking reliability can be calculated by Equation 1 below.

[수식 1][Formula 1]

Figure 112020137293359-pat00001
Figure 112020137293359-pat00001

종합 추적부(140)는 상기 사물인식 추적부(130)의 추적 결과 및 상기 비인식 추적부(120)의 추적 결과를 기초로 종합 추적 결과를 생성한다. 비인식 추적부(120)의 추적 결과에 대한 추적 신뢰도가 높은 경우에는 비인식 추적부(120)의 추적 결과를 전적으로 사용하여 종합 추적 결과를 생성할 수도 있고, 비인식 추적부(120)의 추적 신뢰도가 낮고, 사물인식 추적부(130)의 추적 신뢰도가 높은 경우에는 사물인식 추적부(130)의 추적 결과를 종합 추적 결과로 사용할 수도 있다. 또한, 그 중간에는 각각에 가중치를 부여하여 합산한 추적 결과를 종합 추적 결과로 생성할 수 있다.The comprehensive tracking unit 140 generates a comprehensive tracking result based on the tracking result of the object recognition tracking unit 130 and the tracking result of the non-recognition tracking unit 120 . When the tracking reliability of the tracking result of the unrecognized tracking unit 120 is high, the tracking result of the unrecognized tracking unit 120 may be used entirely to generate a comprehensive tracking result, or the tracking of the unrecognized tracking unit 120 When the reliability is low and the tracking reliability of the object recognition tracking unit 130 is high, the tracking result of the object recognition tracking unit 130 may be used as a comprehensive tracking result. Also, in the middle, a tracking result summed by assigning a weight to each may be generated as a comprehensive tracking result.

종합 추적부(140)는 이를 위하여, 추적 신뢰도 값을 이용하여 상기 사물인식 추적부(130)의 추적 결과와 상기 비인식 추적부(120)의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성할 수 있다. 또한, 상기 비인식 추적부(120)의 추적 신뢰도 값을 기초로 비인식 추적부(120)의 추적 결과의 가중치를 구하고, 상기 사물인식 추적부(130)의 추적 신뢰도 값과 상기 비인식 추적부(120)의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적부(130)의 추적 결과의 가중치를 구할 수 있다. 가중치는 0에서 1 사이의 값을 가지도록 하고, 한 쪽의 추적결과만 사용하는 경우에는 해당 방법의 가중치를 1로 하고, 반대쪽 방법의 가중치를 0으로 설정하도록 할 수 있다.To this end, the comprehensive tracking unit 140 obtains the weights of the tracking result of the object recognition tracking unit 130 and the tracking result of the non-recognition tracking unit 120, respectively, using the tracking reliability value, and comprehensive tracking by reflecting them. can produce results. In addition, based on the tracking reliability value of the non-recognition tracking unit 120, a weight of a tracking result of the non-recognition tracking unit 120 is obtained, and the tracking reliability value of the object recognition tracking unit 130 and the non-recognition tracking unit The weight of the tracking result of the object recognition tracking unit 130 may be obtained based on the difference between the tracking reliability values of (120). The weight should have a value between 0 and 1, and when only one tracking result is used, the weight of the corresponding method may be set to 1 and the weight of the other method may be set to 0.

보다 구체적으로 종합 추적부(140)는 아래 수식 2에 의하여 비인식 추적부(120)의 추적 결과의 가중치를 구할 수 있다.More specifically, the comprehensive tracking unit 140 may obtain the weight of the tracking result of the unrecognized tracking unit 120 by Equation 2 below.

[수식 2][Formula 2]

Figure 112020137293359-pat00002
Figure 112020137293359-pat00002

이 때, wt는 비인식 추적부(120)의 추적 결과의 가중치At this time, wt is the weight of the tracking result of the unrecognized tracking unit 120.

ct는 비인식 추적부(120)의 추적 신뢰도(0부터 1 사이의 값)ct is the tracking reliability of the unrecognized tracking unit 120 (value between 0 and 1)

Figure 112020137293359-pat00003
,
Figure 112020137293359-pat00004
는 신뢰도를 구분하기 위한 소정의 기준 값
Figure 112020137293359-pat00003
,
Figure 112020137293359-pat00004
Is a predetermined reference value for distinguishing reliability

추적 방법에 따라서, 신뢰도의 값이 의미하는 바가 조금씩 차이가 있을 수 있기 때문에,

Figure 112020137293359-pat00005
,
Figure 112020137293359-pat00006
는 추적 알고리즘을 무엇으로 적용하는지에 따라서, 변경될 수 있다.Depending on the tracking method, since the meaning of the reliability value may be slightly different,
Figure 112020137293359-pat00005
,
Figure 112020137293359-pat00006
may change depending on what the tracking algorithm is applied to.

또한, 종합 추적부(140)는 아래 수식 3에 의하여 사물인식 추적부(130)의 추적 결과의 가중치를 구할 수 있다.In addition, the comprehensive tracking unit 140 may obtain the weight of the tracking result of the object recognition tracking unit 130 by Equation 3 below.

[수식 3][Formula 3]

Figure 112020137293359-pat00007
Figure 112020137293359-pat00007

이 때, wd는 사물인식 추적부(130)의 추적 결과의 가중치At this time, wd is the weight of the tracking result of the object recognition tracking unit 130.

ct는 비인식 추적부(120)의 추적 신뢰도(0부터 1 사이의 값)ct is the tracking reliability of the unrecognized tracking unit 120 (value between 0 and 1)

cd는 사물인식 추적부(130)의 추적 신뢰도(0부터 1 사이의 값)cd is the tracking reliability of the object recognition tracking unit 130 (a value between 0 and 1)

Figure 112020137293359-pat00008
는 신뢰도를 구분하기 위한 소정의 기준값
Figure 112020137293359-pat00008
is a predetermined reference value for distinguishing reliability

추적 방법에 따라서 신뢰도의 값이 의미하는 바가 차이가 있을 수 있기 때문에,

Figure 112020137293359-pat00009
는 추적 알고리즘을 무엇으로 적용하는지에 따라서 변경될 수 있다.Since the meaning of the reliability value may differ depending on the tracking method,
Figure 112020137293359-pat00009
may change depending on what the tracking algorithm is applied to.

본 발명은 종래의 방법과 달리 비인식 추적부(120) 및 사물인식 추적부(130)에서 각각 추적을 진행하여 추적의 정확도를 높이도록 한 것이므로, 종래의 방법에 비해 많은 연산을 위한 리소스를 차지하게 된다. 따라서, 사물인식 추적부(130)는 비인식 추적부(120)의 추적 신뢰도 값이 소정의 기준치 이상인 경우에는 사물을 추적하지 않다가, 추적 신뢰도 값이 상기 기준치 이하로 내려가는 경우에만 추적을 하도록 할 수 있다. 즉, 사물이 화면 내에서 이동하는 중에는 비인식 추적부(120)의 추적 방법을 적용하다가, 사물이 화면 밖으로 이동하거나 고속으로 이동하여 비인식 추적부(120)에서 추적 신뢰도가 떨어지게 되면 사물인식 추적부(130)에서 추적을 실행하고, 추적 결과를 종합하여 활용하도록 할 수 있다. 이를 통해 연산 리소스 사용을 최소화하면서도 추적의 성능을 극대화할 수 있다.Unlike the conventional method, the present invention is to increase the accuracy of tracking by performing tracking in the non-recognition tracking unit 120 and the object recognition tracking unit 130, respectively, so it occupies a lot of computational resources compared to the conventional method. will do Therefore, the object recognition tracking unit 130 does not track an object when the tracking reliability value of the non-recognition tracking unit 120 is greater than or equal to a predetermined reference value, and performs tracking only when the tracking reliability value falls below the reference value. can That is, while the object is moving within the screen, the tracking method of the non-recognition tracking unit 120 is applied, but when the object moves out of the screen or moves at high speed and the reliability of tracking in the non-recognition tracking unit 120 decreases, object recognition tracking The unit 130 may execute tracing and collect and utilize the tracing results. This maximizes tracing performance while minimizing the use of computational resources.

도 2는 본 발명의 일실시예에 따른 비인식 추적 및 사물인식 추적이 적용되는 경우의 예를 도시한 도면이다.2 is a diagram illustrating an example of a case where non-recognition tracking and object recognition tracking are applied according to an embodiment of the present invention.

도면에 도시한 바와 같이, 화면 내에서 인식해야 하는 사물(도면에서는 사람 얼굴)이 존재하는 경우, 먼저 사물 정보 수신부(110)에서 해당 사물의 위치와 속성 등에 관한 정보를 수신한다.As shown in the figure, when there is an object (human face in the figure) to be recognized on the screen, the object information receiving unit 110 first receives information about the location and attributes of the object.

(b)에서와 같이 사물이 이동하는 경우, 비인식 추적부(120) 및 사물인식 추적부(130)에서 각각 사물의 이동을 추적하고, 이를 종합하여 종합 추적 결과를 생성하게 된다. (b)에서와 같이, 사물이 화면 내에서 이동하는 경우 비인식 추적부(120)의 추적 결과 신뢰도가 높게 나타날 가능성이 높기 때문에, 이 경우에는 비인식 추적부의 추적 결과만으로 종합 추적 결과를 생성할 수 있다.When an object moves as in (b), the non-recognition tracking unit 120 and the object recognition tracking unit 130 respectively track the movement of the object, and synthesize them to generate a comprehensive tracking result. As in (b), since the reliability of the tracking result of the non-recognition tracking unit 120 is highly likely to appear when the object moves within the screen, in this case, a comprehensive tracking result can be generated only with the tracking result of the non-recognition tracking unit 120. can

만일 (c)에서와 같이 추적할 사물이 화면 밖으로 이동하게 되면, 비인식 추적부(120)에서는 사물을 추적하기가 어렵게 된다. 이후 (d)에서와 같이 사물이 화면 내로 다시 들어오게 되더라도, 비인식 추적부(120)에서는 이전 프레임에서의 사물의 위치 정보가 존재하지 않기 때문에, 사물의 이동을 추적하기 어렵다. 따라서, 이 경우에는 사물인식 추적부(130)에서 해당 프레임에서 해당 사물을 다시 인식하여 추적을 계속할 수 있도록 한다.If the object to be tracked moves out of the screen as in (c), it becomes difficult for the non-recognition tracking unit 120 to track the object. Even if the object enters the screen again as in (d), it is difficult to track the object's movement because the object's location information in the previous frame does not exist in the non-recognition tracking unit 120. Therefore, in this case, the object recognition tracking unit 130 recognizes the object again in the corresponding frame so that the tracking can be continued.

도 3은 본 발명의 일실시예에 따른 사물 추적 방법의 흐름을 도시한 흐름이다.3 is a flow illustrating the flow of an object tracking method according to an embodiment of the present invention.

본 발명에 따른 사물 추적 방법은 중앙처리장치 및 메모리를 구비하는 사물 추적 시스템에서 데이터 경계를 도출하는 방법으로, 이와 같은 컴퓨팅 시스템에서 구동될 수 있다.An object tracking method according to the present invention is a method of deriving a data boundary in an object tracking system having a central processing unit and a memory, and can be driven in such a computing system.

따라서, 사물 추적 방법은 상술한 사물 추적 시스템에 대하여 설명된 특징적인 구성을 모두 포함하고 있으며, 아래의 설명에서 설명되지 않은 내용도 상술한 사물 추적 시스템에 대한 설명을 참조하여 구현할 수 있다.Accordingly, the object tracking method includes all of the characteristic configurations described for the object tracking system described above, and contents not described in the following description can also be implemented with reference to the description of the object tracking system described above.

사물 정보 수신 단계(S301)는 복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신한다. 동영상 데이터는 복수의 정지영상 프레임들을 시계열적으로 나열하여, 시간의 흐름에 따라 정지영상을 빠르게 재생함으로써, 움직이는 영상을 제공한다. 이와 같은 동영상 데이터를 분석하기 위해서는 동영상에 포함되는 사물(Object)을 인식할 필요가 있다. 예를 들어, CCTV에서 침입자를 탐지하는 경우, 침입자를 추적할 사물(Object)로 선택하고, 이동을 식별해 내야 한다.In the object information receiving step (S301), information about an object to be tracked is received from video data composed of a plurality of frames. Moving image data is provided by arranging a plurality of still image frames in time series and reproducing the still image quickly according to the lapse of time, thereby providing a moving image. In order to analyze such video data, it is necessary to recognize objects included in the video. For example, when a CCTV detects an intruder, the intruder must be selected as an object to be tracked and movement must be identified.

사물 정보 수신 단계(S301)에서 수신하는 추적할 사물에 관한 정보는 추적할 사물이 영상 내에서 위치하는 위치 정보 또는 존재하는 범위를 나타내는 범위 정보를 포함할 수 있으며, 추가로 추적할 사물의 속성에 관한 정보를 포함할 수 있다. 예를 들어 추적하는 대상이 사람의 얼굴인 경우, 추적할 사물이 얼굴임을 속성 정보로 제공함으로써, 사물인식을 통해 사물을 추적할 때에 보다 정확한 인식이 가능하도록 할 수 있다.The information about the object to be tracked received in the object information receiving step (S301) may include location information of the object to be tracked within the image or range information indicating the range in which the object to be tracked is located. information may be included. For example, when an object to be tracked is a face of a person, by providing attribute information that the object to be tracked is a face, more accurate recognition is possible when tracking an object through object recognition.

비인식 추적 단계(S302)는 상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적한다. 동영상의 매 프레임에서 사물을 인식하여 해당 사물의 위치를 추적하는 것이 종래의 대부분의 사물 추적 기술이었는데, 사물을 인식하는 인공지능 네트워크는 사물을 정확히 인식(detection)하고 구분(classification)하는 데에 초점이 맞춰져 있어서, 이동하는 사물을 추적하는 추적 성능이 높지 않다. 예를 들어, 사람의 얼굴을 추적하는 경우라고 한다면, 얼굴의 정면이 노출되었을 때, 해당 부분이 사람의 얼굴이라고 인식하는 것은 가능하지만, 다음 장면에서 얼굴이 옆 또는 뒤쪽으로 회전하여 이동하는 경우, 다음 얼굴이 뒤쪽으로 돌아 있는 장면의 프레임에서 얼굴을 인식할 수 없기 때문에, 추적에 실패하게 된다.In the non-recognition tracking step (S302), the movement of the object to be tracked is tracked using the position of the object to be tracked in the previous frame of the video data and the current frame. Recognizing an object in each frame of a video and tracking the location of the object has been the most conventional object tracking technology, but the artificial intelligence network that recognizes objects focuses on accurately detecting and classifying objects. is adjusted, so the tracking performance for tracking a moving object is not high. For example, in the case of tracking a person's face, when the front of the face is exposed, it is possible to recognize that the corresponding part is a person's face, but in the next scene, if the face is rotated to the side or back, In the frame of the scene where the next face is turned backwards, the tracking fails because the face cannot be recognized.

따라서, 비인식 추적 단계(S302)는 인식이 아니라, 추적(tracking)에 초점을 맞춘 네트워크를 설계하고, 이전 프레임에서 어떤 위치 또는 범위에 사물이 존재하였을 때, 다음 프레임에서 해당 사물이 어떻게 이동하는지를 확인함으로써, 프레임 사이에서의 사물의 이동을 정확하게 판별해 낼 수 있도록 한 것이다. 즉, 종래의 사물인식 기반 추적 기술은 인식 기술을 활용하여 추적을 가능하게 하는 것이라면, 비인식 추적 단계(S302)에서 이전 프레임과 현재 프레임에서의 사물의 이동을 탐지하는 기술은 사물의 추적에 최적화하여 추적 성능을 극대화한 기술이라고 할 수 있다.Therefore, in the non-recognition tracking step (S302), a network focused on tracking rather than recognition is designed, and when an object exists in a certain position or range in the previous frame, how the object moves in the next frame By checking, it is possible to accurately determine the movement of objects between frames. That is, if the conventional object recognition-based tracking technology enables tracking by utilizing recognition technology, the technology for detecting the movement of an object in the previous frame and the current frame in the non-recognition tracking step (S302) is optimized for object tracking. Therefore, it can be said that it is a technology that maximizes tracking performance.

비인식 추적 단계(S302)에서 이전 프레임에서의 사물의 위치 정보 및 현재 프레임 정보를 이용하여 추적하는 기술은 인공지능을 통해 구현될 수 있는데, 이를 구현하기 위한 인공지능 알고리즘이 다양하게 개발되고 있으며, 본 발명에서는 그 중 어떤 방법을 적용하여도 문제되지 않는다. 일반적으로 이와 같이 사물을 인식하지 않고 추적하는 기술을 비주얼 사물 추적(VOT; Visual Object Tracking)이라고 부른다.In the non-recognition tracking step (S302), the tracking technology using the location information of the object in the previous frame and the current frame information can be implemented through artificial intelligence. Various artificial intelligence algorithms are being developed to implement this, In the present invention, it does not matter which method is applied. In general, a technology for tracking an object without recognizing it is called visual object tracking (VOT).

사물인식 추적 단계(S303)는 상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적한다. 앞서 설명한 바와 같이 비인식 추적 단계(S302)의 추적 방법으로는 화면 밖으로 이동하는 사물을 추적할 수 없는데, 프레임마다 사물을 인식한다면, 화면 밖으로 이동했던 사물이 돌아왔을 때, 해당 사물을 다시 인식하여 찾아낼 수 있는 장점이 있다. 따라서 본 발명의 사물 추적 시스템은 비인식 추적 단계(S302)의 추적기술과 함께, 프레임별 사물인식 기반의 추적 기술을 동시에 활용함으로써, 서로의 단점을 보완할 수 있도록 한 것이다.In the object recognition tracking step (S303), the movement of the object is tracked by recognizing the object to be tracked for each frame of the video data. As described above, the tracking method of the non-recognition tracking step (S302) cannot track an object moving out of the screen. If the object is recognized every frame, when the object that has moved out of the screen returns, it recognizes the object again There are advantages to discovering. Therefore, the object tracking system according to the present invention simultaneously utilizes the frame-by-frame object recognition-based tracking technology along with the non-recognition tracking step (S302) to compensate for each other's disadvantages.

사물인식 추적 단계(S303)에서 각 프레임별로 사물을 인식하기 위해서는 사전에 인식할 사물에 대한 학습 데이터를 이용하여 해당 사물의 특징을 학습하는 과정이 필요하다. 만일 사람의 얼굴을 추적할 사물로 선택하는 경우에는 다양한 사람의 얼굴 이미지를 학습데이터로 학습하여, 영상 내에서 사람의 얼굴 부분과 다른 사물들을 구별해 낼 수 있도록 해야 한다. 따라서, 사물인식 추적 단계(S303)는 추적할 사물에 관한 정보를 확인하여, 추적할 사물이 학습된 종류의 사물인지를 판단하고, 학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하도록 할 수 있다.In order to recognize an object for each frame in the object recognition tracking step (S303), a process of learning characteristics of the object using learning data of the object to be recognized in advance is required. If a human face is selected as an object to be tracked, it is necessary to learn various human face images as learning data so that the human face part and other objects can be distinguished in the image. Therefore, in the object recognition tracking step (S303), information about the object to be tracked is checked to determine whether the object to be tracked is a learned type of object, and the movement of the object to be tracked is tracked only when the object is a learned type of object. can do.

비인식 추적 단계(S302) 및 사물인식 추적 단계(S303)는 각각 사물을 추적한 결과와 함께 추적 신뢰도 값을 계산할 수 있다. 비인식 추적 단계(S302)의 이전 프레임에서의 사물의 위치 및 현재 프레임을 이용한 사물 추적 알고리즘과 사물인식 추적 단계(S303)의 매 프레임별 사물인식 기반의 추적 알고리즘은 모두 추적 결과에 따라 추적 신뢰도 값을 제공할 수 있다. 추적 신뢰도 값은 추적 결과가 어느 정도로 정확한지를 나타내는 수치로, 0에서 1 사이의 값을 가지도록 계산될 수 있다.In the non-recognition tracking step (S302) and the object recognition tracking step (S303), a tracking reliability value may be calculated together with a result of tracking the object, respectively. The object tracking algorithm using the position of the object in the previous frame and the current frame in the non-recognition tracking step (S302) and the object recognition-based tracking algorithm for each frame in the object recognition tracking step (S303) both track reliability values according to the tracking results. can provide. The tracking reliability value is a numerical value indicating how accurate the tracking result is, and may be calculated to have a value between 0 and 1.

종합 추적 단계(S304)는 상기 사물인식 추적 단계(S303)의 추적 결과 및 상기 비인식 추적 단계(S302)의 추적 결과를 기초로 종합 추적 결과를 생성한다. 비인식 추적 단계(S302)의 추적 결과에 대한 추적 신뢰도가 높은 경우에는 비인식 추적 단계(S302)의 추적 결과를 전적으로 사용하여 종합 추적 결과를 생성할 수도 있고, 비인식 추적 단계(S302)의 추적 신뢰도가 낮고, 사물인식 추적 단계(S303)의 추적 신뢰도가 높은 경우에는 사물인식 추적 단계(S303)의 추적 결과를 종합 추적 결과로 사용할 수도 있다. 또한, 그 중간에는 각각에 가중치를 부여하여 합산한 추적 결과를 종합 추적 결과로 생성할 수 있다.The comprehensive tracking step (S304) generates a comprehensive tracking result based on the tracking result of the object recognition tracking step (S303) and the tracking result of the non-recognition tracking step (S302). If the tracking reliability of the tracking result of the non-recognized tracking step (S302) is high, the tracking result of the non-recognized tracking step (S302) may be used entirely to generate a comprehensive tracking result, or the tracking of the non-recognized tracking step (S302) When the reliability is low and the tracking reliability of the object recognition tracking step (S303) is high, the tracking result of the object recognition tracking step (S303) may be used as a comprehensive tracking result. Also, in the middle, a tracking result summed by assigning a weight to each may be generated as a comprehensive tracking result.

종합 추적 단계(S304)는 이를 위하여, 추적 신뢰도 값을 이용하여 상기 사물인식 추적 단계(S303)의 추적 결과와 상기 비인식 추적 단계(S302)의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성할 수 있다. 또한, 상기 비인식 추적 단계(S302)의 추적 신뢰도 값을 기초로 비인식 추적 단계(S302)의 추적 결과의 가중치를 구하고, 상기 사물인식 추적 단계(S303)의 추적 신뢰도 값과 상기 비인식 추적 단계(S302)의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적 단계(S303)의 추적 결과의 가중치를 구할 수 있다. 가중치는 0에서 1 사이의 값을 가지도록 하고, 한 쪽의 추적결과만 사용하는 경우에는 해당 방법의 가중치를 1로 하고, 반대쪽 방법의 가중치를 0으로 설정하도록 할 수 있다.To this end, the comprehensive tracking step (S304) obtains the weights of the tracking result of the object recognition tracking step (S303) and the tracking result of the non-recognition tracking step (S302) using the tracking reliability value, respectively, and comprehensive tracking by reflecting them. can produce results. In addition, based on the tracking reliability value of the non-recognition tracking step (S302), the weight of the tracking result of the non-recognition tracking step (S302) is obtained, and the tracking reliability value of the object recognition tracking step (S303) and the non-recognition tracking step The weight of the tracking result of the object recognition tracking step (S303) can be obtained based on the difference between the tracking reliability values of (S302). The weight should have a value between 0 and 1, and when only one tracking result is used, the weight of the corresponding method may be set to 1 and the weight of the other method may be set to 0.

본 발명은 종래의 방법과 달리 비인식 추적 단계(S302) 및 사물인식 추적 단계(S303)에서 각각 추적을 진행하여 추적의 정확도를 높이도록 한 것이므로, 종래의 방법에 비해 많은 연산을 위한 리소스를 차지하게 된다. 따라서, 사물인식 추적 단계(S303)는 비인식 추적 단계(S302)의 추적 신뢰도 값이 소정의 기준치 이상인 경우에는 사물을 추적하지 않다가, 추적 신뢰도 값이 상기 기준치 이하로 내려가는 경우에만 추적을 하도록 할 수 있다. 즉, 사물이 화면 내에서 이동하는 중에는 비인식 추적 단계(S302)의 추적 방법을 적용하다가, 사물이 화면 밖으로 이동하거나 고속으로 이동하여 비인식 추적 단계(S302)에서 추적 신뢰도가 떨어지게 되면 사물인식 추적 단계(S303)에서 추적을 실행하고, 추적 결과를 종합하여 활용하도록 할 수 있다. 이를 통해 연산 리소스 사용을 최소화하면서도 추적의 성능을 극대화할 수 있다.Unlike the conventional method, the present invention performs tracking in the non-recognition tracking step (S302) and the object recognition tracking step (S303) to increase the accuracy of tracking, so it takes up more computational resources than the conventional method. will do Therefore, in the object recognition tracking step (S303), when the tracking reliability value of the non-recognition tracking step (S302) is greater than or equal to a predetermined reference value, the object is not tracked, and tracking is performed only when the tracking reliability value falls below the reference value. can That is, while the object is moving within the screen, the tracking method of the non-recognition tracking step (S302) is applied, but when the object moves out of the screen or moves at high speed and the tracking reliability decreases in the non-recognition tracking step (S302), object recognition tracking is performed. In step S303, tracking may be executed, and the tracking results may be synthesized and utilized. This maximizes tracing performance while minimizing the use of computational resources.

본 발명에 따른 사물 추적 방법은 컴퓨터가 실행하도록 기능시키기 위한 프로그램으로 제작되어 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The object tracking method according to the present invention may be produced as a program for a computer to execute and recorded on a computer-readable recording medium.

컴퓨터로 읽을 수 있는 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CDROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CDROMs and DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes such as those produced by a compiler. The hardware device may be configured to act as one or more software modules to perform processing according to the present invention and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있다.Although the above has been described with reference to the embodiments, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention described in the claims below.

101: 사물 추적 시스템
110: 사물 정보 수신부 120: 비인식 추적부
130: 사물인식 추적부 140: 종합 추적부
101: object tracking system
110: object information receiving unit 120: non-recognition tracking unit
130: object recognition tracking unit 140: comprehensive tracking unit

Claims (11)

복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신하는 사물 정보 수신부;
상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적하는 비인식 추적부;
상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적하는 사물인식 추적부 및
상기 사물인식 추적부의 추적 결과 및 상기 비인식 추적부의 추적 결과를 기초로 종합 추적 결과를 생성하는 종합 추적부
를 포함하고,
상기 사물인식 추적부 및 상기 비인식 추적부는 각각 추적 신뢰도 값을 계산하며,
상기 종합 추적부는
상기 추적 신뢰도 값을 이용하여 상기 사물인식 추적부의 추적 결과와 상기 비인식 추적부의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성하되
상기 비인식 추적부의 추적 신뢰도 값을 기초로 비인식 추적부의 추적 결과의 가중치를 구하고,
상기 사물인식 추적부의 추적 신뢰도 값과 상기 비인식 추적부의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적부의 추적 결과의 가중치를 구하는 것
을 특징으로 하는 사물 추적 시스템.
an object information receiving unit which receives information about an object to be tracked from video data composed of a plurality of frames;
a non-recognition tracking unit for tracking the movement of the object to be tracked using a position of the object to be tracked in a previous frame of the video data and a current frame;
an object recognition tracker for recognizing the object to be tracked for each frame of the video data and tracking the movement of the object; and
A comprehensive tracking unit that generates a comprehensive tracking result based on a tracking result of the object recognition tracking unit and a tracking result of the non-recognition tracking unit.
including,
The object recognition tracking unit and the non-recognition tracking unit each calculate a tracking reliability value,
The comprehensive tracking unit
Using the tracking reliability value, weights of the tracking result of the object recognition tracking unit and the tracking result of the non-recognition tracking unit are respectively obtained, and a comprehensive tracking result is generated by reflecting the weights,
Obtaining a weight of a tracking result of the unrecognized tracking unit based on a tracking reliability value of the unrecognized tracking unit;
Calculating a weight of a tracking result of the object recognition tracking unit based on a difference between a tracking reliability value of the object recognition tracking unit and a tracking reliability value of the non-recognition tracking unit
Characterized by an object tracking system.
삭제delete 삭제delete 제1항에 있어서,
상기 사물인식 추적부는
상기 비인식 추적부의 추적 신뢰도 값이 소정의 기준치 이하인 경우에만 상기 추적할 사물의 이동을 추적하고,
상기 종합 추적부는
상기 사물인식 추적부가 이동을 추적하지 않는 경우에는 상기 비인식 추적부의 추적 결과를 종합 추적 결과로 생성하는 것
을 특징으로 하는 사물 추적 시스템.
According to claim 1,
The object recognition tracking unit
Tracking the movement of the object to be tracked only when the tracking reliability value of the unrecognized tracking unit is equal to or less than a predetermined reference value;
The comprehensive tracking unit
Generating a tracking result of the non-recognition tracking unit as a comprehensive tracking result when the object recognition tracking unit does not track movement
Characterized by an object tracking system.
제1항에 있어서,
상기 사물인식 추적부는
상기 추적할 사물에 관한 정보 기초로 상기 추적할 사물이 학습된 종류의 사물인지 확인하고,
학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하고,
상기 종합 추적부는
상기 사물인식 추적부가 이동을 추적하지 않는 경우에는 상기 비인식 추적부 추적 결과를 종합 추적 결과로 생성하는 것
을 특징으로 하는 사물 추적 시스템.
According to claim 1,
The object recognition tracking unit
Confirm whether the object to be tracked is a learned type based on the information about the object to be tracked;
Track the movement of the object to be tracked only if it is a learned type of object,
The comprehensive tracking unit
When the object recognition tracker does not track movement, generating a tracking result of the non-recognition tracker as a comprehensive tracking result
Characterized by an object tracking system.
메모리 및 중앙처리장치를 구비하는 사물 추적 시스템의 사물 추적 방법에 있어서,
복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신하는 사물 정보 수신 단계;
상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적하는 비인식 추적 단계;
상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적하는 사물인식 추적 단계 및
상기 사물인식 추적 단계의 추적 결과 및 상기 비인식 추적 단계의 추적 결과를 기초로 종합 추적 결과를 생성하는 종합 추적 단계
를 포함하고
상기 사물인식 추적 단계 및 상기 비인식 추적 단계는 각각 추적 신뢰도 값을 계산하며,
상기 종합 추적 단계는
상기 추적 신뢰도 값을 이용하여 상기 사물인식 추적 단계의 추적 결과와 상기 비인식 추적 단계의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성하되,
상기 비인식 추적 단계의 추적 신뢰도 값을 기초로 비인식 추적 단계의 추적 결과의 가중치를 구하고,
상기 사물인식 추적 단계의 추적 신뢰도 값과 상기 비인식 추적 단계의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적 단계의 추적 결과의 가중치를 구하는 것
을 특징으로 하는 사물 추적 방법.
In the object tracking method of an object tracking system having a memory and a central processing unit,
an object information receiving step of receiving information about an object to be tracked from video data composed of a plurality of frames;
a non-recognition tracking step of tracking the movement of the object to be tracked using a position of the object to be tracked in a previous frame of the video data and a current frame;
An object recognition tracking step of recognizing the object to be tracked for each frame of the video data and tracking the movement of the object; and
A comprehensive tracking step of generating a comprehensive tracking result based on a tracking result of the object recognition tracking step and a tracking result of the non-recognition tracking step.
and include
The object recognition tracking step and the non-recognition tracking step each calculate a tracking reliability value,
The comprehensive tracking step is
Using the tracking reliability value, weights of the tracking result of the object recognition tracking step and the tracking result of the non-recognition tracking step are respectively obtained, and a comprehensive tracking result is generated by reflecting them,
Based on the tracking reliability value of the non-recognized tracking step, weights of tracking results in the non-recognized tracking step are obtained;
Obtaining a weight of a tracking result of the object recognition tracking step based on a difference between a tracking reliability value of the object recognition tracking step and a tracking reliability value of the non-recognition tracking step.
An object tracking method characterized by
삭제delete 삭제delete 제6항에 있어서,
상기 사물인식 추적 단계는
상기 비인식 추적 단계의 추적 신뢰도 값이 소정의 기준치 이하인 경우에만 상기 추적할 사물의 이동을 추적하고,
상기 종합 추적 단계는
상기 사물인식 추적 단계가 이동을 추적하지 않는 경우에는 상기 비인식 추적 단계 추적 결과를 종합 추적 결과로 생성하는 것
을 특징으로 하는 사물 추적 방법.
According to claim 6,
The object recognition tracking step is
Tracking the movement of the object to be tracked only when the tracking reliability value in the non-recognized tracking step is equal to or less than a predetermined reference value;
The comprehensive tracking step is
If the object recognition tracking step does not track movement, generating a tracking result of the non-recognition tracking step as a comprehensive tracking result.
An object tracking method characterized by
제6항에 있어서,
상기 사물인식 추적 단계는
상기 추적할 사물에 관한 정보 기초로 상기 추적할 사물이 학습된 종류의 사물인지 확인하고,
학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하고,
상기 종합 추적 단계는
상기 사물인식 추적 단계가 이동을 추적하지 않는 경우에는 상기 비인식 추적 단계의 추적 결과를 종합 추적 결과로 생성하는 것
을 특징으로 하는 사물 추적 방법.
According to claim 6,
The object recognition tracking step is
Confirm whether the object to be tracked is a learned type based on the information about the object to be tracked;
Track the movement of the object to be tracked only if it is a learned type of object,
The comprehensive tracking step is
If the object recognition tracking step does not track movement, generating a tracking result of the non-recognition tracking step as a comprehensive tracking result.
An object tracking method characterized by
제6항, 제9항 및 제10항 중 어느 한 항의 방법을 컴퓨터가 실행하도록 기능시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.
A computer-readable recording medium on which a program for causing a computer to function to execute the method of any one of claims 6, 9, and 10 is recorded.
KR1020200177195A 2020-12-17 2020-12-17 A Hybrid Object Tracking System and Method therefor KR102538919B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200177195A KR102538919B1 (en) 2020-12-17 2020-12-17 A Hybrid Object Tracking System and Method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200177195A KR102538919B1 (en) 2020-12-17 2020-12-17 A Hybrid Object Tracking System and Method therefor

Publications (2)

Publication Number Publication Date
KR20220086940A KR20220086940A (en) 2022-06-24
KR102538919B1 true KR102538919B1 (en) 2023-06-01

Family

ID=82216005

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200177195A KR102538919B1 (en) 2020-12-17 2020-12-17 A Hybrid Object Tracking System and Method therefor

Country Status (1)

Country Link
KR (1) KR102538919B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346370A (en) 2004-06-02 2005-12-15 Mitsubishi Electric Corp Object-tracking device
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101527876B1 (en) * 2013-11-21 2015-06-11 한국해양과학기술원 Method of real-time recognizing and tracking for underwater objects using sonar images
US9514364B2 (en) * 2014-05-29 2016-12-06 Qualcomm Incorporated Efficient forest sensing based eye tracking
KR20160123647A (en) 2015-04-16 2016-10-26 한국전자통신연구원 Apparatus and method for providing additional information usung object tracking
KR101769601B1 (en) * 2016-07-13 2017-08-18 아이디어주식회사 Unmanned aerial vehicle having Automatic Tracking
KR20190116681A (en) * 2018-04-05 2019-10-15 주식회사 에스제이피랩 The controlling system of the broadcasting image equipment with objcct tracking algorithm

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346370A (en) 2004-06-02 2005-12-15 Mitsubishi Electric Corp Object-tracking device
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium

Also Published As

Publication number Publication date
KR20220086940A (en) 2022-06-24

Similar Documents

Publication Publication Date Title
Liu et al. Context-aware three-dimensional mean-shift with occlusion handling for robust object tracking in RGB-D videos
Motiian et al. Online human interaction detection and recognition with multiple cameras
SanMiguel et al. Adaptive online performance evaluation of video trackers
US10600190B2 (en) Object detection and tracking method and system for a video
CN113963445A (en) Pedestrian falling action recognition method and device based on attitude estimation
WO2021050773A1 (en) Keypoint based pose-tracking using entailment
Nandakumar et al. A multi-modal gesture recognition system using audio, video, and skeletal joint data
Tian et al. Scene Text Detection in Video by Learning Locally and Globally.
CN104219488A (en) Method and device of generating target image as well as video monitoring system
CN113393496A (en) Target tracking method based on space-time attention mechanism
Gao et al. A joint local–global search mechanism for long-term tracking with dynamic memory network
KR102538919B1 (en) A Hybrid Object Tracking System and Method therefor
Ahmed et al. Localization of region of interest in surveillance scene
KR101362768B1 (en) Method and apparatus for detecting an object
Csurka et al. Direct identification of moving objects and background from 2D motion models
US11551434B2 (en) Apparatus and method for retraining object detection using undetected image
JP2020035098A (en) Image processing system and information processing method and program
WO2013128839A1 (en) Image recognition system, image recognition method and computer program
CN113658222A (en) Vehicle detection tracking method and device
Zhang et al. A joint system for person tracking and face detection
KR20230072709A (en) System and Method for Salient Object Detection based on Deep Learning
KR20130056171A (en) Real-time object recognition and tracking method using representative feature, and apparatus thereof
KR100779171B1 (en) Real time robust face detection apparatus and method
US11847823B2 (en) Object and keypoint detection system with low spatial jitter, low latency and low power usage
KR102176179B1 (en) Electronic device for performing feature vector assignment of a tracklet for object tracking in an image and operating method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right