KR20220086940A - A Hybrid Object Tracking System and Method therefor - Google Patents
A Hybrid Object Tracking System and Method therefor Download PDFInfo
- Publication number
- KR20220086940A KR20220086940A KR1020200177195A KR20200177195A KR20220086940A KR 20220086940 A KR20220086940 A KR 20220086940A KR 1020200177195 A KR1020200177195 A KR 1020200177195A KR 20200177195 A KR20200177195 A KR 20200177195A KR 20220086940 A KR20220086940 A KR 20220086940A
- Authority
- KR
- South Korea
- Prior art keywords
- tracking
- recognition
- unit
- result
- tracked
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 사물 추적 시스템 및 방법에 관한 것으로, 복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신하는 사물 정보 수신부, 상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적하는 비인식 추적부, 상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적하는 사물인식 추적부 및 상기 사물인식 추적부의 추적 결과 및 상기 비인식 추적부의 추적 결과를 기초로 종합 추적 결과를 생성하는 종합 추적부를 포함하는 사물 추적 시스템과 그 사물 추적 방법에 관한 것이다.The present invention relates to a system and method for tracking an object, comprising: an object information receiver configured to receive information on an object to be tracked in video data composed of a plurality of frames; and a location and a current frame of the object to be tracked in a previous frame of the video data A non-recognition tracking unit for tracking the movement of the object to be tracked using The present invention relates to an object tracking system and an object tracking method including a comprehensive tracking unit for generating a comprehensive tracking result based on a result and the tracking result of the non-recognized tracking unit.
Description
본 발명은 사물 추적 시스템 및 방법에 관한 것으로, 영상 내에서 선택된 사물을 추적하는 과정에서 효율적이고 정확한 사물의 이동 추적이 가능하도록 하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for tracking an object, and to a system and method for enabling efficient and accurate movement tracking of an object in a process of tracking an object selected in an image.
영상을 분석하고, 이를 기초로 서비스를 제공하는 기술이 늘어나면서, 영상 내에서 특정 사물을 인식하고, 인식된 사물의 영상 내 이동을 추적하는 기술에 대한 수요가 늘어나고 있다.As the technology for analyzing an image and providing a service based on it increases, the demand for a technology for recognizing a specific object in an image and tracking the movement of the recognized object in the image is increasing.
종래의 영상 내 사물 추적(Object Tracking) 기술 중 많이 사용되는 기술은 사물인식 추적(Object Detection based Tracking) 기술로, 영상을 구성하는 복수의 프레임 각각에서 추적 대상인 사물의 특징을 가지는 영역을 지속적으로 인식함으로써, 해당 사물이 영상에서 시계열 흐름에 따라 어떻게 이동하는지 추적하는 기술이다.Among the conventional object tracking technologies in an image, a widely used technology is an object detection based tracking technology, which continuously recognizes an area having the characteristics of an object to be tracked in each of a plurality of frames constituting an image. By doing so, it is a technology that tracks how the object moves according to the time series flow in the image.
종래기술인 한국공개특허 제10-2016-0123647호, "객체 추적을 이용한 동영상 부가정보 제공 장치 및 제공 방법"은 이와 같은 사물 인식 기반의 추적 기술을 이용하여 다양한 서비스를 제공할 수 있도록 하는 기술이다. 그러나, 이와 같은 사물인식 추적기술을 이용하는 경우, 인식할 사물의 특징을 파악할 수 있도록 사물에 대한 사전 학습 작업이 필요하며, 동일한 사물이 화면상에서 방향 등이 변경되는 경우, 이를 인식하기 어려운 경우가 발생된다는 문제점이 있다.The prior art, Korean Patent Application Laid-Open No. 10-2016-0123647, "An apparatus and method for providing additional video information using object tracking" is a technology that enables various services to be provided using such an object recognition-based tracking technology. However, in the case of using such an object recognition tracking technology, it is necessary to perform a pre-learning operation on an object so that the characteristics of the object to be recognized can be identified. There is a problem that
이와 같은 문제점을 해결하기 위하여, 최근에는 사물인식을 이용하지 않는 비인식 추적기술이 개발되고 있는데, 비주얼 사물 추적(VOT; Visual Object Tracking)이라고도 불리는 이 기술은 현재 프레임과 이전 프레임의 영상을 비교하여, 이전 프레임에서의 사물이 현재 프레임에서 어떻게 이동하였는지를 인공지능 기반으로 확인하는 기술로, 사물의 이동에 대한 추적 성능이 뛰어나지만, 추적을 놓친 경우(사물이 화면 밖으로 나갔다가 들어오는 경우 등)에 이를 복원하는 것이 불가능한 문제점이 있다.In order to solve this problem, recently, non-recognition tracking technology that does not use object recognition has been developed. This technology, also called Visual Object Tracking (VOT), compares the image of the current frame with the previous frame. , a technology that checks how an object in the previous frame moved in the current frame based on artificial intelligence There is a problem that it is impossible to restore.
본 발명은 비인식 추적 기술을 이용하여, 사물의 이동을 효과적으로 추적하면서도, 사물이 화면 밖으로 나갔다가 들어오는 경우와 같이 사물의 추적이 중단되는 경우에도 다시 사물의 이동을 추적할 수 있도록 하는 것을 목적으로 한다.The present invention uses a non-recognized tracking technology to effectively track the movement of an object, while tracking the movement of an object again even when the tracking of the object is stopped, such as when the object goes out of the screen and comes in. do.
본 발명은 비인식 추적 방법을 이용하여 사물을 추적하면서, 신뢰도가 낮은 경우에 보충적으로 사물인식 추적 방법을 이용함으로써, 효과적인 사물 추적이 가능하도록 하는 것을 목적으로 한다.An object of the present invention is to enable effective object tracking by using the object recognition tracking method supplementally when the reliability is low while tracking the object using the non-recognition tracking method.
본 발명은 신뢰도 값을 기반으로 비인식 추적 방법의 신뢰도가 낮은 경우에만 사물인식 추적 방법이 사용되도록 함으로써, 연산을 최소화하고도 효과적인 사물 추적이 가능하도록 하는 것을 목적으로 한다.An object of the present invention is to enable an object-recognized tracking method to be used only when the reliability of the non-recognized tracking method is low based on a reliability value, thereby enabling effective object tracking while minimizing computation.
본 발명은 비인식 추적 방법과 사물인식 추적 방법을 동시에 적용하는 경우, 신뢰도 값을 기반으로 각 방법의 추적 결과에 가중치를 부여하여 종합 추적 결과를 생성함으로써, 추적 성능을 극대화하는 것을 목적으로 한다.When the non-recognition tracking method and the object recognition tracking method are simultaneously applied, an object of the present invention is to maximize tracking performance by creating a comprehensive tracking result by assigning weights to the tracking results of each method based on a reliability value.
이러한 목적을 달성하기 위하여 본 발명의 일실시예에 따른 사물 추적 시스템은 복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신하는 사물 정보 수신부, 상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적하는 비인식 추적부, 상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적하는 사물인식 추적부 및 상기 사물인식 추적부의 추적 결과 및 상기 비인식 추적부의 추적 결과를 기초로 종합 추적 결과를 생성하는 종합 추적부를 포함하는 것을 특징으로 한다.In order to achieve this object, an object tracking system according to an embodiment of the present invention includes an object information receiving unit that receives information about an object to be tracked in video data composed of a plurality of frames, A non-recognition tracking unit for tracking the movement of the object to be tracked by using the location of the object and the current frame, an object recognition tracking unit for tracking the movement of the object by recognizing the object to be tracked for each frame of the video data, and and a comprehensive tracking unit for generating a comprehensive tracking result based on the tracking result of the object recognition tracking unit and the tracking result of the non-recognition tracking unit.
이 때, At this time,
상기 사물인식 추적부 및 상기 비인식 추적부는 각각 추적 신뢰도 값을 계산하고, 상기 종합 추적부는 상기 추적 신뢰도 값을 이용하여 상기 사물인식 추적부의 추적 결과와 상기 비인식 추적부의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성할 수 있다.The object recognition tracking unit and the non-recognition tracking unit calculate a tracking reliability value, respectively, and the comprehensive tracking unit obtains the weight of the tracking result of the object recognition tracking unit and the tracking result of the non-recognition tracking unit using the tracking reliability value, respectively , it is possible to create a comprehensive tracking result by reflecting this.
또한, 상기 종합 추적부는 상기 비인식 추적부의 추적 신뢰도 값을 기초로 비인식 추적부의 추적 결과의 가중치를 구하고, 상기 사물인식 추적부의 추적 신뢰도 값과 상기 비인식 추적부의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적부의 추적 결과의 가중치를 구할 수 있다.In addition, the comprehensive tracking unit obtains the weight of the tracking result of the non-recognition tracking unit based on the tracking reliability value of the non-recognition tracking unit, and based on the difference between the tracking reliability value of the object recognition tracking unit and the tracking reliability value of the non-recognition tracking unit The weight of the tracking result of the object recognition tracking unit may be obtained.
또한, 상기 사물인식 추적부는 상기 비인식 추적부의 추적 신뢰도 값이 소정의 기준치 이하인 경우에만 상기 추적할 사물의 이동을 추적하고, 상기 종합 추적부는 상기 사물인식 추적부가 이동을 추적하지 않는 경우에는 상기 비인식 추적부의 추적 결과를 종합 추적 결과로 생성할 수 있다.In addition, the object recognition tracking unit tracks the movement of the object to be tracked only when the tracking reliability value of the non-recognition tracking unit is less than or equal to a predetermined reference value, and the comprehensive tracking unit tracks the movement of the object recognition tracking unit when the object recognition tracking unit does not track the movement. The tracking result of the recognition tracking unit may be generated as a comprehensive tracking result.
또한, 상기 사물인식 추적부는 상기 추적할 사물에 관한 정보를 기초로 상기 추적할 사물이 학습된 종류의 사물인지 확인하고, 학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하고, 상기 종합 추적부는 상기 사물인식 추적부가 이동을 추적하지 않는 경우에는 상기 비인식 추적부 추적 결과를 종합 추적 결과로 생성할 수 있다.In addition, the object recognition tracking unit checks whether the object to be tracked is a learned type of object based on the information on the object to be tracked, and tracks the movement of the object to be tracked only in the case of the learned type of object, and the synthesis The tracking unit may generate the non-recognition tracking unit tracking result as a comprehensive tracking result when the object recognition tracking unit does not track movement.
본 발명은 비인식 추적 기술을 이용하여, 사물의 이동을 효과적으로 추적하면서도, 사물이 화면 밖으로 나갔다가 들어오는 경우와 같이 사물의 추적이 중단되는 경우에도 다시 사물의 이동을 추적할 수 있도록 한다.The present invention uses a non-recognized tracking technology to effectively track the movement of an object, while tracking the movement of an object again even when the tracking of the object is stopped, such as when the object goes out of the screen and then comes in.
본 발명은 비인식 추적 방법을 이용하여 사물을 추적하면서, 신뢰도가 낮은 경우에 보충적으로 사물인식 추적 방법을 이용함으로써, 효과적인 사물 추적이 가능하도록 한다.The present invention enables effective object tracking by using the object recognition tracking method supplementally when the reliability is low while tracking the object using the non-recognition tracking method.
본 발명은 신뢰도 값을 기반으로 비인식 추적 방법의 신뢰도가 낮은 경우에만 사물인식 추적 방법이 사용되도록 함으로써, 연산을 최소화하고도 효과적인 사물 추적이 가능하도록 한다.The present invention allows the object recognition tracking method to be used only when the reliability of the non-recognition tracking method is low based on the reliability value, thereby enabling effective object tracking while minimizing computation.
본 발명은 비인식 추적 방법과 사물인식 추적 방법을 동시에 적용하는 경우, 신뢰도 값을 기반으로 각 방법의 추적 결과에 가중치를 부여하여 종합 추적 결과를 생성함으로써, 추적 성능을 극대화한다.In the present invention, when the non-recognition tracking method and the object recognition tracking method are simultaneously applied, the tracking performance is maximized by assigning a weight to the tracking result of each method based on the reliability value to generate a comprehensive tracking result.
도 1은 본 발명의 일실시예에 따른 사물 추적 시스템의 내부 구성을 도시한 구성도이다.
도 2는 본 발명의 일실시예에 따른 비인식 추적 및 사물인식 추적이 적용되는 경우의 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 사물 추적 방법의 흐름을 도시한 흐름이다.1 is a configuration diagram illustrating an internal configuration of an object tracking system according to an embodiment of the present invention.
2 is a diagram illustrating an example in which non-recognition tracking and object recognition tracking are applied according to an embodiment of the present invention.
3 is a flowchart illustrating a flow of an object tracking method according to an embodiment of the present invention.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하기로 한다. 또한 본 발명의 실시예들을 설명함에 있어 구체적인 수치는 실시예에 불과하며 이에 의하여 발명의 범위가 제한되지 아니한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, in describing the embodiments of the present invention, specific numerical values are merely examples and the scope of the invention is not limited thereby.
본 발명에 따른 사물 추적 시스템은 중앙처리장치(CPU) 및 메모리(Memory, 기억장치)를 구비하고 인터넷 등의 통신망을 통하여 다른 단말기와 연결 가능한 서버의 형태로 구성될 수 있다. 또한, 모바일 단말, 사물인터넷(IoT) 기기 등에서 구현될 수도 있으며, 인터넷 등의 통신망이 연결되지 않은 환경에서도 독립적인 동작이 가능하다. 그러나 본 발명이 중앙처리장치 및 메모리 등의 구성에 의해 한정되지는 아니한다. 또한, 본 발명에 따른 사물 추적 시스템은 물리적으로 하나의 장치로 구성될 수도 있으며, 복수의 장치에 분산된 형태로 구현될 수도 있다.The object tracking system according to the present invention may be configured in the form of a server including a central processing unit (CPU) and a memory (Memory) and connectable to other terminals through a communication network such as the Internet. In addition, it may be implemented in a mobile terminal, an Internet of Things (IoT) device, etc., and independent operation is possible even in an environment in which a communication network such as the Internet is not connected. However, the present invention is not limited by the configuration of the central processing unit and the memory. In addition, the object tracking system according to the present invention may be physically configured as one device or may be implemented in a distributed form among a plurality of devices.
도 1은 본 발명의 일실시예에 따른 사물 추적 시스템의 내부 구성을 도시한 구성도이다.1 is a configuration diagram illustrating an internal configuration of an object tracking system according to an embodiment of the present invention.
도면에 도시한 바와 같이, 본 발명의 일실시예에 따른 사물 추적 시스템(101)은 사물 정보 수신부(110), 비인식 추적부(120), 사물인식 추적부(130) 및 종합 추적부(140)를 포함하여 구성될 수 있다. 각각의 구성요소들은 물리적으로 동일한 컴퓨터 시스템 내에서 동작하는 소프트웨어 모듈일 수 있으며, 물리적으로 2개 이상으로 분리된 컴퓨터 시스템이 서로 연동하여 동작할 수 있도록 구성된 형태일 수 있는데, 동일한 기능을 포함하는 다양한 실시형태가 본 발명의 권리범위에 속한다.As shown in the drawing, the object tracking system 101 according to an embodiment of the present invention includes an object
사물 정보 수신부(110)는 복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신한다. 동영상 데이터는 복수의 정지영상 프레임들을 시계열적으로 나열하여, 시간의 흐름에 따라 정지영상을 빠르게 재생함으로써, 움직이는 영상을 제공한다. 이와 같은 동영상 데이터를 분석하기 위해서는 동영상에 포함되는 사물(Object)을 인식할 필요가 있다. 예를 들어, CCTV에서 침입자를 탐지하는 경우, 침입자를 추적할 사물(Object)로 선택하고, 이동을 식별해 내야 한다.The object
사물 정보 수신부(110)에서 수신하는 추적할 사물에 관한 정보는 추적할 사물이 영상 내에서 위치하는 위치 정보 또는 존재하는 범위를 나타내는 범위 정보를 포함할 수 있으며, 추가로 추적할 사물의 속성에 관한 정보를 포함할 수 있다. 예를 들어 추적하는 대상이 사람의 얼굴인 경우, 추적할 사물이 얼굴임을 속성 정보로 제공함으로써, 사물인식을 통해 사물을 추적할 때에 보다 정확한 인식이 가능하도록 할 수 있다.The information about the object to be tracked received by the object
사물 정보 수신부(110)에서 추적할 사물에 관한 정보를 수신하기 위하여, 사용자가 어플리케이션 등을 이용하여 원하는 사물을 추적하는 경우에는 사용자의 마우스 클릭 또는 터치 입력을 수신하여 해당 위치의 사물을 추적하도록 할 수도 있고, 지능형 CCTV 등에 적용되는 경우에는 침입자 등 이상행동이 감지되는 사물을 자동으로 식별하여 추적할 사물로 선택하고 해당 사물에 대한 정보를 사물 정보 수신부(110)에서 수신하도록 할 수도 있다.In order to receive information about an object to be tracked from the object
비인식 추적부(120)는 상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적한다. 동영상의 매 프레임에서 사물을 인식하여 해당 사물의 위치를 추적하는 것이 종래의 대부분의 사물 추적 기술이었는데, 사물을 인식하는 인공지능 네트워크는 사물을 정확히 인식(detection)하고 구분(classification)하는 데에 초점이 맞춰져 있어서, 이동하는 사물을 추적하는 추적 성능이 높지 않다. 예를 들어, 사람의 얼굴을 추적하는 경우라고 한다면, 얼굴의 정면이 노출되었을 때, 해당 부분이 사람의 얼굴이라고 인식하는 것은 가능하지만, 다음 장면에서 얼굴이 옆 또는 뒤쪽으로 회전하여 이동하는 경우, 다음 얼굴이 뒤쪽으로 돌아 있는 장면의 프레임에서 얼굴을 인식할 수 없기 때문에, 추적에 실패하게 된다.The
따라서, 비인식 추적부(120)는 인식이 아니라, 추적(tracking)에 초점을 맞춘 네트워크를 설계하고, 이전 프레임에서 어떤 위치 또는 범위에 사물이 존재하였을 때, 다음 프레임에서 해당 사물이 어떻게 이동하는지를 확인함으로써, 프레임 사이에서의 사물의 이동을 정확하게 판별해 낼 수 있도록 한 것이다. 즉, 종래의 사물인식 기반 추적 기술은 인식 기술을 활용하여 추적을 가능하게 하는 것이라면, 비인식 추적부(120)에서 이전 프레임과 현재 프레임에서의 사물의 이동을 탐지하는 기술은 사물의 추적에 최적화하여 추적 성능을 극대화한 기술이라고 할 수 있다.Therefore, the
비인식 추적부(120)에서 이전 프레임에서의 사물의 위치 정보 및 현재 프레임 정보를 이용하여 추적하는 기술은 인공지능을 통해 구현될 수 있는데, 이를 구현하기 위한 인공지능 알고리즘이 다양하게 개발되고 있으며, 본 발명에서는 그 중 어떤 방법을 적용하여도 문제되지 않는다. 일반적으로 이와 같이 사물을 인식하지 않고 추적하는 기술을 비주얼 사물 추적(VOT; Visual Object Tracking)이라고 부른다.The technology for tracking by using the location information of the object in the previous frame and the current frame information in the
비인식 추적부(120)에서 사물을 추적하는 방식은 화면 내에서 이동하는 사물이 변형되거나 회전되는 경우에도 상대적으로 정확한 추적이 가능하고, 추적에 최적화된 네트워크를 이용하여 추적함으로써, 추적성능을 극대화할 수 있다는 장점이 존재하는 반면, 사물이 화면 밖으로 나갔다가 다시 들어오는 경우, 이를 추적할 방법이 없다는 문제점이 있다.In the method of tracking an object in the
사물인식 추적부(130)는 상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적한다. 앞서 설명한 바와 같이 비인식 추적부(120)의 추적 방법으로는 화면 밖으로 이동하는 사물을 추적할 수 없는데, 프레임마다 사물을 인식한다면, 화면 밖으로 이동했던 사물이 돌아왔을 때, 해당 사물을 다시 인식하여 찾아낼 수 있는 장점이 있다. 따라서 본 발명의 사물 추적 시스템은 비인식 추적부(120)의 추적기술과 함께, 프레임별 사물인식 기반의 추적 기술을 동시에 활용함으로써, 서로의 단점을 보완할 수 있도록 한 것이다.The object
사물인식 추적부(130)에서 각 프레임별로 사물을 인식하기 위해서는 사전에 인식할 사물에 대한 학습 데이터를 이용하여 해당 사물의 특징을 학습하는 과정이 필요하다. 만일 사람의 얼굴을 추적할 사물로 선택하는 경우에는 다양한 사람의 얼굴 이미지를 학습데이터로 학습하여, 영상 내에서 사람의 얼굴 부분과 다른 사물들을 구별해 낼 수 있도록 해야 한다. 따라서, 사물인식 추적부(130)는 추적할 사물에 관한 정보를 확인하여, 추적할 사물이 학습된 종류의 사물인지를 판단하고, 학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하도록 할 수 있다.In order for the object
비인식 추적부(120) 및 사물인식 추적부(130)는 각각 사물을 추적한 결과와 함께 추적 신뢰도 값을 계산할 수 있다. 비인식 추적부(120)의 이전 프레임에서의 사물의 위치 및 현재 프레임을 이용한 사물 추적 알고리즘과 사물인식 추적부(130)의 매 프레임별 사물인식 기반의 추적 알고리즘은 모두 추적 결과에 따라 추적 신뢰도 값을 제공할 수 있다. 추적 신뢰도 값은 추적 결과가 어느 정도로 정확한지를 나타내는 수치로, 0에서 1 사이의 값을 가지도록 계산될 수 있다.The
예를 들어, 사물인식 추적부(130)에서의 사물인식 기반 추적 방법 중 하나인 YOLO의 알고리즘에서는 인식한 사물이 해당 사물의 클래스(분류)에 속할 확률을 구하고, 해당 사물이 위치하는 영역의 정확도를 나타내는 IOU(Intersection over Union) 값을 구하여 이 둘을 곱함으로써 신뢰도 값을 구할 수 있다. 인식한 사물이 해당 사물의 클래스에 속할 확률과 영역의 정확도는 모두 0에서 1 사이의 값을 가지므로, 최종 추적 신뢰도 값은 0에서 1 사이의 값을 가지게 된다. 이 예시에서, 추적 신뢰도는 아래의 수식 1에 의하여 계산될 수 있다.For example, in the algorithm of YOLO, which is one of the object recognition-based tracking methods in the object
[수식 1][Formula 1]
종합 추적부(140)는 상기 사물인식 추적부(130)의 추적 결과 및 상기 비인식 추적부(120)의 추적 결과를 기초로 종합 추적 결과를 생성한다. 비인식 추적부(120)의 추적 결과에 대한 추적 신뢰도가 높은 경우에는 비인식 추적부(120)의 추적 결과를 전적으로 사용하여 종합 추적 결과를 생성할 수도 있고, 비인식 추적부(120)의 추적 신뢰도가 낮고, 사물인식 추적부(130)의 추적 신뢰도가 높은 경우에는 사물인식 추적부(130)의 추적 결과를 종합 추적 결과로 사용할 수도 있다. 또한, 그 중간에는 각각에 가중치를 부여하여 합산한 추적 결과를 종합 추적 결과로 생성할 수 있다.The
종합 추적부(140)는 이를 위하여, 추적 신뢰도 값을 이용하여 상기 사물인식 추적부(130)의 추적 결과와 상기 비인식 추적부(120)의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성할 수 있다. 또한, 상기 비인식 추적부(120)의 추적 신뢰도 값을 기초로 비인식 추적부(120)의 추적 결과의 가중치를 구하고, 상기 사물인식 추적부(130)의 추적 신뢰도 값과 상기 비인식 추적부(120)의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적부(130)의 추적 결과의 가중치를 구할 수 있다. 가중치는 0에서 1 사이의 값을 가지도록 하고, 한 쪽의 추적결과만 사용하는 경우에는 해당 방법의 가중치를 1로 하고, 반대쪽 방법의 가중치를 0으로 설정하도록 할 수 있다.To this end, the
보다 구체적으로 종합 추적부(140)는 아래 수식 2에 의하여 비인식 추적부(120)의 추적 결과의 가중치를 구할 수 있다.More specifically, the
[수식 2][Equation 2]
이 때, wt는 비인식 추적부(120)의 추적 결과의 가중치At this time, wt is the weight of the tracking result of the
ct는 비인식 추적부(120)의 추적 신뢰도(0부터 1 사이의 값)ct is the tracking reliability of the unrecognized tracking unit 120 (a value between 0 and 1)
, 는 신뢰도를 구분하기 위한 소정의 기준 값 , is a predetermined reference value for classifying reliability
추적 방법에 따라서, 신뢰도의 값이 의미하는 바가 조금씩 차이가 있을 수 있기 때문에, , 는 추적 알고리즘을 무엇으로 적용하는지에 따라서, 변경될 수 있다.Depending on the tracking method, the meaning of the reliability value may be slightly different, , can be changed depending on what the tracking algorithm is applied to.
또한, 종합 추적부(140)는 아래 수식 3에 의하여 사물인식 추적부(130)의 추적 결과의 가중치를 구할 수 있다.In addition, the
[수식 3][Equation 3]
이 때, wd는 사물인식 추적부(130)의 추적 결과의 가중치At this time, wd is the weight of the tracking result of the object
ct는 비인식 추적부(120)의 추적 신뢰도(0부터 1 사이의 값)ct is the tracking reliability of the unrecognized tracking unit 120 (a value between 0 and 1)
cd는 사물인식 추적부(130)의 추적 신뢰도(0부터 1 사이의 값)cd is the tracking reliability of the object recognition tracking unit 130 (a value between 0 and 1)
는 신뢰도를 구분하기 위한 소정의 기준값 is a predetermined reference value for classifying reliability
추적 방법에 따라서 신뢰도의 값이 의미하는 바가 차이가 있을 수 있기 때문에, 는 추적 알고리즘을 무엇으로 적용하는지에 따라서 변경될 수 있다.Because the meaning of the reliability value may differ depending on the tracking method, can be changed depending on what the tracking algorithm is applied to.
본 발명은 종래의 방법과 달리 비인식 추적부(120) 및 사물인식 추적부(130)에서 각각 추적을 진행하여 추적의 정확도를 높이도록 한 것이므로, 종래의 방법에 비해 많은 연산을 위한 리소스를 차지하게 된다. 따라서, 사물인식 추적부(130)는 비인식 추적부(120)의 추적 신뢰도 값이 소정의 기준치 이상인 경우에는 사물을 추적하지 않다가, 추적 신뢰도 값이 상기 기준치 이하로 내려가는 경우에만 추적을 하도록 할 수 있다. 즉, 사물이 화면 내에서 이동하는 중에는 비인식 추적부(120)의 추적 방법을 적용하다가, 사물이 화면 밖으로 이동하거나 고속으로 이동하여 비인식 추적부(120)에서 추적 신뢰도가 떨어지게 되면 사물인식 추적부(130)에서 추적을 실행하고, 추적 결과를 종합하여 활용하도록 할 수 있다. 이를 통해 연산 리소스 사용을 최소화하면서도 추적의 성능을 극대화할 수 있다.In the present invention, unlike the conventional method, since the
도 2는 본 발명의 일실시예에 따른 비인식 추적 및 사물인식 추적이 적용되는 경우의 예를 도시한 도면이다.2 is a diagram illustrating an example in which non-recognition tracking and object recognition tracking are applied according to an embodiment of the present invention.
도면에 도시한 바와 같이, 화면 내에서 인식해야 하는 사물(도면에서는 사람 얼굴)이 존재하는 경우, 먼저 사물 정보 수신부(110)에서 해당 사물의 위치와 속성 등에 관한 정보를 수신한다.As shown in the drawing, when there is an object (a human face in the drawing) to be recognized on the screen, first, the
(b)에서와 같이 사물이 이동하는 경우, 비인식 추적부(120) 및 사물인식 추적부(130)에서 각각 사물의 이동을 추적하고, 이를 종합하여 종합 추적 결과를 생성하게 된다. (b)에서와 같이, 사물이 화면 내에서 이동하는 경우 비인식 추적부(120)의 추적 결과 신뢰도가 높게 나타날 가능성이 높기 때문에, 이 경우에는 비인식 추적부의 추적 결과만으로 종합 추적 결과를 생성할 수 있다.As in (b), when an object moves, the
만일 (c)에서와 같이 추적할 사물이 화면 밖으로 이동하게 되면, 비인식 추적부(120)에서는 사물을 추적하기가 어렵게 된다. 이후 (d)에서와 같이 사물이 화면 내로 다시 들어오게 되더라도, 비인식 추적부(120)에서는 이전 프레임에서의 사물의 위치 정보가 존재하지 않기 때문에, 사물의 이동을 추적하기 어렵다. 따라서, 이 경우에는 사물인식 추적부(130)에서 해당 프레임에서 해당 사물을 다시 인식하여 추적을 계속할 수 있도록 한다.If the object to be tracked moves out of the screen as in (c), it becomes difficult for the
도 3은 본 발명의 일실시예에 따른 사물 추적 방법의 흐름을 도시한 흐름이다.3 is a flowchart illustrating a flow of an object tracking method according to an embodiment of the present invention.
본 발명에 따른 사물 추적 방법은 중앙처리장치 및 메모리를 구비하는 사물 추적 시스템에서 데이터 경계를 도출하는 방법으로, 이와 같은 컴퓨팅 시스템에서 구동될 수 있다.The object tracking method according to the present invention is a method of deriving a data boundary in an object tracking system including a central processing unit and a memory, and may be driven in such a computing system.
따라서, 사물 추적 방법은 상술한 사물 추적 시스템에 대하여 설명된 특징적인 구성을 모두 포함하고 있으며, 아래의 설명에서 설명되지 않은 내용도 상술한 사물 추적 시스템에 대한 설명을 참조하여 구현할 수 있다.Accordingly, the object tracking method includes all the characteristic components described for the object tracking system described above, and content not described in the following description can be implemented with reference to the description of the object tracking system described above.
사물 정보 수신 단계(S301)는 복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신한다. 동영상 데이터는 복수의 정지영상 프레임들을 시계열적으로 나열하여, 시간의 흐름에 따라 정지영상을 빠르게 재생함으로써, 움직이는 영상을 제공한다. 이와 같은 동영상 데이터를 분석하기 위해서는 동영상에 포함되는 사물(Object)을 인식할 필요가 있다. 예를 들어, CCTV에서 침입자를 탐지하는 경우, 침입자를 추적할 사물(Object)로 선택하고, 이동을 식별해 내야 한다.In the object information receiving step (S301), information on an object to be tracked is received from video data composed of a plurality of frames. The moving image data provides a moving image by arranging a plurality of still image frames in time series and rapidly reproducing the still image according to the passage of time. In order to analyze such moving picture data, it is necessary to recognize an object included in the moving picture. For example, when CCTV detects an intruder, it is necessary to select the intruder as an object to track and identify the movement.
사물 정보 수신 단계(S301)에서 수신하는 추적할 사물에 관한 정보는 추적할 사물이 영상 내에서 위치하는 위치 정보 또는 존재하는 범위를 나타내는 범위 정보를 포함할 수 있으며, 추가로 추적할 사물의 속성에 관한 정보를 포함할 수 있다. 예를 들어 추적하는 대상이 사람의 얼굴인 경우, 추적할 사물이 얼굴임을 속성 정보로 제공함으로써, 사물인식을 통해 사물을 추적할 때에 보다 정확한 인식이 가능하도록 할 수 있다.The information on the object to be tracked received in the object information receiving step S301 may include location information on which the object to be tracked is located in the image or range information indicating the range in which it exists. It may contain information about For example, when the object to be tracked is a human face, by providing attribute information that the object to be tracked is a face, more accurate recognition may be possible when tracking an object through object recognition.
비인식 추적 단계(S302)는 상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적한다. 동영상의 매 프레임에서 사물을 인식하여 해당 사물의 위치를 추적하는 것이 종래의 대부분의 사물 추적 기술이었는데, 사물을 인식하는 인공지능 네트워크는 사물을 정확히 인식(detection)하고 구분(classification)하는 데에 초점이 맞춰져 있어서, 이동하는 사물을 추적하는 추적 성능이 높지 않다. 예를 들어, 사람의 얼굴을 추적하는 경우라고 한다면, 얼굴의 정면이 노출되었을 때, 해당 부분이 사람의 얼굴이라고 인식하는 것은 가능하지만, 다음 장면에서 얼굴이 옆 또는 뒤쪽으로 회전하여 이동하는 경우, 다음 얼굴이 뒤쪽으로 돌아 있는 장면의 프레임에서 얼굴을 인식할 수 없기 때문에, 추적에 실패하게 된다.In the unrecognized tracking step (S302), the movement of the object to be tracked is tracked using the location of the object to be tracked in the previous frame of the video data and the current frame. Most of the conventional object tracking technologies have been to recognize an object in every frame of a video and track the location of the object. Because this is set, the tracking performance of tracking moving objects is not high. For example, in the case of tracking a human face, when the front of the face is exposed, it is possible to recognize that the part is a human face, but in the next scene, if the face rotates sideways or backwards, Since the face cannot be recognized in the frame of the scene in which the next face is turned back, tracking will fail.
따라서, 비인식 추적 단계(S302)는 인식이 아니라, 추적(tracking)에 초점을 맞춘 네트워크를 설계하고, 이전 프레임에서 어떤 위치 또는 범위에 사물이 존재하였을 때, 다음 프레임에서 해당 사물이 어떻게 이동하는지를 확인함으로써, 프레임 사이에서의 사물의 이동을 정확하게 판별해 낼 수 있도록 한 것이다. 즉, 종래의 사물인식 기반 추적 기술은 인식 기술을 활용하여 추적을 가능하게 하는 것이라면, 비인식 추적 단계(S302)에서 이전 프레임과 현재 프레임에서의 사물의 이동을 탐지하는 기술은 사물의 추적에 최적화하여 추적 성능을 극대화한 기술이라고 할 수 있다.Therefore, in the non-recognition tracking step (S302), a network focused on tracking, not recognition, is designed, and when an object exists in a certain position or range in the previous frame, how the object moves in the next frame By checking, it is possible to accurately determine the movement of objects between frames. That is, if the conventional object recognition-based tracking technology enables tracking by using a recognition technology, the technology of detecting the movement of an object in the previous frame and the current frame in the non-recognition tracking step (S302) is optimized for tracking the object. Therefore, it can be said that it is a technology that maximizes the tracking performance.
비인식 추적 단계(S302)에서 이전 프레임에서의 사물의 위치 정보 및 현재 프레임 정보를 이용하여 추적하는 기술은 인공지능을 통해 구현될 수 있는데, 이를 구현하기 위한 인공지능 알고리즘이 다양하게 개발되고 있으며, 본 발명에서는 그 중 어떤 방법을 적용하여도 문제되지 않는다. 일반적으로 이와 같이 사물을 인식하지 않고 추적하는 기술을 비주얼 사물 추적(VOT; Visual Object Tracking)이라고 부른다.In the unrecognized tracking step (S302), the tracking technology using the location information of the object in the previous frame and the current frame information can be implemented through artificial intelligence, and various artificial intelligence algorithms for implementing this are being developed, In the present invention, it does not matter which method is applied. In general, such a technology for tracking objects without recognizing them is called Visual Object Tracking (VOT).
사물인식 추적 단계(S303)는 상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적한다. 앞서 설명한 바와 같이 비인식 추적 단계(S302)의 추적 방법으로는 화면 밖으로 이동하는 사물을 추적할 수 없는데, 프레임마다 사물을 인식한다면, 화면 밖으로 이동했던 사물이 돌아왔을 때, 해당 사물을 다시 인식하여 찾아낼 수 있는 장점이 있다. 따라서 본 발명의 사물 추적 시스템은 비인식 추적 단계(S302)의 추적기술과 함께, 프레임별 사물인식 기반의 추적 기술을 동시에 활용함으로써, 서로의 단점을 보완할 수 있도록 한 것이다.In the object recognition tracking step (S303), the object to be tracked is recognized for each frame of the video data and the movement of the object is tracked. As described above, the tracking method of the non-recognized tracking step (S302) cannot track an object moving out of the screen. There are advantages to be found. Therefore, the object tracking system of the present invention uses the tracking technology of the non-recognition tracking step (S302) and the tracking technology based on the object recognition for each frame at the same time to compensate for each other's shortcomings.
사물인식 추적 단계(S303)에서 각 프레임별로 사물을 인식하기 위해서는 사전에 인식할 사물에 대한 학습 데이터를 이용하여 해당 사물의 특징을 학습하는 과정이 필요하다. 만일 사람의 얼굴을 추적할 사물로 선택하는 경우에는 다양한 사람의 얼굴 이미지를 학습데이터로 학습하여, 영상 내에서 사람의 얼굴 부분과 다른 사물들을 구별해 낼 수 있도록 해야 한다. 따라서, 사물인식 추적 단계(S303)는 추적할 사물에 관한 정보를 확인하여, 추적할 사물이 학습된 종류의 사물인지를 판단하고, 학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하도록 할 수 있다.In order to recognize an object for each frame in the object recognition tracking step ( S303 ), it is necessary to learn the characteristics of the object by using the learning data for the object to be recognized in advance. If a human face is selected as an object to be tracked, it is necessary to learn various human face images as learning data so that the human face part and other objects can be distinguished in the image. Therefore, in the object recognition tracking step (S303), information on the object to be tracked is checked, the object to be tracked is determined whether the object is a learned type of object, and the movement of the object to be tracked is tracked only in the case of the learned type of object. can do.
비인식 추적 단계(S302) 및 사물인식 추적 단계(S303)는 각각 사물을 추적한 결과와 함께 추적 신뢰도 값을 계산할 수 있다. 비인식 추적 단계(S302)의 이전 프레임에서의 사물의 위치 및 현재 프레임을 이용한 사물 추적 알고리즘과 사물인식 추적 단계(S303)의 매 프레임별 사물인식 기반의 추적 알고리즘은 모두 추적 결과에 따라 추적 신뢰도 값을 제공할 수 있다. 추적 신뢰도 값은 추적 결과가 어느 정도로 정확한지를 나타내는 수치로, 0에서 1 사이의 값을 가지도록 계산될 수 있다.In the non-recognition tracking step ( S302 ) and the object recognition tracking step ( S303 ), a tracking reliability value may be calculated together with a result of tracking an object, respectively. The object tracking algorithm using the position of the object in the previous frame and the current frame of the non-recognition tracking step (S302) and the object recognition-based tracking algorithm for each frame of the object recognition tracking step (S303) are all tracking reliability values according to the tracking results. can provide The tracking reliability value is a number indicating how accurate the tracking result is, and may be calculated to have a value between 0 and 1.
종합 추적 단계(S304)는 상기 사물인식 추적 단계(S303)의 추적 결과 및 상기 비인식 추적 단계(S302)의 추적 결과를 기초로 종합 추적 결과를 생성한다. 비인식 추적 단계(S302)의 추적 결과에 대한 추적 신뢰도가 높은 경우에는 비인식 추적 단계(S302)의 추적 결과를 전적으로 사용하여 종합 추적 결과를 생성할 수도 있고, 비인식 추적 단계(S302)의 추적 신뢰도가 낮고, 사물인식 추적 단계(S303)의 추적 신뢰도가 높은 경우에는 사물인식 추적 단계(S303)의 추적 결과를 종합 추적 결과로 사용할 수도 있다. 또한, 그 중간에는 각각에 가중치를 부여하여 합산한 추적 결과를 종합 추적 결과로 생성할 수 있다.The comprehensive tracking step (S304) generates a comprehensive tracking result based on the tracking result of the object recognition tracking step (S303) and the tracking result of the non-recognition tracking step (S302). If the tracking reliability for the tracking result of the non-recognized tracking step (S302) is high, a comprehensive tracking result may be generated using the tracking result of the non-recognized tracking step (S302) entirely, and the tracking of the non-recognized tracking step (S302) When the reliability is low and the tracking reliability of the object recognition tracking step S303 is high, the tracking result of the object recognition tracking step S303 may be used as a comprehensive tracking result. In addition, in the middle, a weight may be given to each and the summed tracking result may be generated as a comprehensive tracking result.
종합 추적 단계(S304)는 이를 위하여, 추적 신뢰도 값을 이용하여 상기 사물인식 추적 단계(S303)의 추적 결과와 상기 비인식 추적 단계(S302)의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성할 수 있다. 또한, 상기 비인식 추적 단계(S302)의 추적 신뢰도 값을 기초로 비인식 추적 단계(S302)의 추적 결과의 가중치를 구하고, 상기 사물인식 추적 단계(S303)의 추적 신뢰도 값과 상기 비인식 추적 단계(S302)의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적 단계(S303)의 추적 결과의 가중치를 구할 수 있다. 가중치는 0에서 1 사이의 값을 가지도록 하고, 한 쪽의 추적결과만 사용하는 경우에는 해당 방법의 가중치를 1로 하고, 반대쪽 방법의 가중치를 0으로 설정하도록 할 수 있다.To this end, the comprehensive tracking step (S304) obtains the weights of the tracking result of the object recognition tracking step (S303) and the tracking result of the non-recognition tracking step (S302) by using the tracking reliability value, and reflects them to perform comprehensive tracking results can be generated. In addition, the weight of the tracking result of the non-recognition tracking step (S302) is obtained based on the tracking reliability value of the non-recognition tracking step (S302), and the tracking reliability value of the object recognition tracking step (S303) and the non-recognition tracking step Based on the difference in the tracking reliability value of ( S302 ), the weight of the tracking result of the object recognition tracking step ( S303 ) can be obtained. The weight may have a value between 0 and 1, and when only one tracking result is used, the weight of the method may be set to 1, and the weight of the other method may be set to 0.
본 발명은 종래의 방법과 달리 비인식 추적 단계(S302) 및 사물인식 추적 단계(S303)에서 각각 추적을 진행하여 추적의 정확도를 높이도록 한 것이므로, 종래의 방법에 비해 많은 연산을 위한 리소스를 차지하게 된다. 따라서, 사물인식 추적 단계(S303)는 비인식 추적 단계(S302)의 추적 신뢰도 값이 소정의 기준치 이상인 경우에는 사물을 추적하지 않다가, 추적 신뢰도 값이 상기 기준치 이하로 내려가는 경우에만 추적을 하도록 할 수 있다. 즉, 사물이 화면 내에서 이동하는 중에는 비인식 추적 단계(S302)의 추적 방법을 적용하다가, 사물이 화면 밖으로 이동하거나 고속으로 이동하여 비인식 추적 단계(S302)에서 추적 신뢰도가 떨어지게 되면 사물인식 추적 단계(S303)에서 추적을 실행하고, 추적 결과를 종합하여 활용하도록 할 수 있다. 이를 통해 연산 리소스 사용을 최소화하면서도 추적의 성능을 극대화할 수 있다.In the present invention, unlike the conventional method, since tracking is performed in each of the non-recognition tracking step (S302) and the object recognition tracking step (S303) to increase the tracking accuracy, it occupies more resources than the conventional method. will do Therefore, in the object recognition tracking step (S303), if the tracking reliability value of the non-recognition tracking step (S302) is greater than or equal to a predetermined reference value, the object is not tracked, and only when the tracking reliability value falls below the reference value. can That is, while the tracking method of the non-recognition tracking step (S302) is applied while the object is moving within the screen, when the tracking reliability decreases in the non-recognition tracking step (S302) because the object moves out of the screen or moves at high speed, object recognition tracking In step S303, the tracking may be executed, and the tracking results may be synthesized and utilized. In this way, it is possible to maximize the performance of tracing while minimizing the use of computational resources.
본 발명에 따른 사물 추적 방법은 컴퓨터가 실행하도록 기능시키기 위한 프로그램으로 제작되어 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The object tracking method according to the present invention may be recorded in a computer-readable recording medium produced as a program for causing a computer to execute.
컴퓨터로 읽을 수 있는 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CDROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of the computer-readable recording medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CDROM and DVD, and a magneto-optical medium such as a floppy disk. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for carrying out the processing according to the present invention, and vice versa.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있다.Although the above has been described with reference to the embodiments, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention described in the claims below.
101: 사물 추적 시스템
110: 사물 정보 수신부
120: 비인식 추적부
130: 사물인식 추적부
140: 종합 추적부101: object tracking system
110: object information receiving unit 120: non-recognition tracking unit
130: object recognition tracking unit 140: comprehensive tracking unit
Claims (11)
상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적하는 비인식 추적부;
상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적하는 사물인식 추적부 및
상기 사물인식 추적부의 추적 결과 및 상기 비인식 추적부의 추적 결과를 기초로 종합 추적 결과를 생성하는 종합 추적부
를 포함하는 사물 추적 시스템.an object information receiver configured to receive information about an object to be tracked in video data composed of a plurality of frames;
a non-recognized tracking unit for tracking the movement of the object to be tracked using the location of the object to be tracked in the previous frame of the moving picture data and the current frame;
an object recognition tracking unit for recognizing the object to be tracked for each frame of the video data and tracking the movement of the object; and
Comprehensive tracking unit for generating a comprehensive tracking result based on the tracking result of the object recognition tracking unit and the tracking result of the non-recognition tracking unit
An object tracking system comprising a.
상기 사물인식 추적부 및 상기 비인식 추적부는 각각 추적 신뢰도 값을 계산하고,
상기 종합 추적부는
상기 추적 신뢰도 값을 이용하여 상기 사물인식 추적부의 추적 결과와 상기 비인식 추적부의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성하는 것
을 특징으로 하는 사물 추적 시스템.According to claim 1,
The object recognition tracking unit and the non-recognition tracking unit calculate a tracking reliability value, respectively,
The comprehensive tracking unit
Obtaining the weight of the tracking result of the object recognition tracking unit and the tracking result of the non-recognition tracking unit using the tracking reliability value, respectively, and reflecting this to generate a comprehensive tracking result
Object tracking system, characterized in that.
상기 종합 추적부는
상기 비인식 추적부의 추적 신뢰도 값을 기초로 비인식 추적부의 추적 결과의 가중치를 구하고,
상기 사물인식 추적부의 추적 신뢰도 값과 상기 비인식 추적부의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적부의 추적 결과의 가중치를 구하는 것
을 특징으로 하는 사물 추적 시스템.3. The method of claim 2,
The comprehensive tracking unit
Obtaining the weight of the tracking result of the unrecognized tracking unit based on the tracking reliability value of the non-recognized tracking unit,
Obtaining the weight of the tracking result of the object recognition tracking unit based on the difference between the tracking reliability value of the object recognition tracking unit and the tracking reliability value of the non-recognition tracking unit
Object tracking system, characterized in that.
상기 사물인식 추적부는
상기 비인식 추적부의 추적 신뢰도 값이 소정의 기준치 이하인 경우에만 상기 추적할 사물의 이동을 추적하고,
상기 종합 추적부는
상기 사물인식 추적부가 이동을 추적하지 않는 경우에는 상기 비인식 추적부의 추적 결과를 종합 추적 결과로 생성하는 것
을 특징으로 하는 사물 추적 시스템.4. The method of claim 3,
The object recognition tracking unit
tracking the movement of the object to be tracked only when the tracking reliability value of the unrecognized tracking unit is less than or equal to a predetermined reference value;
The comprehensive tracking unit
When the object recognition tracking unit does not track movement, generating the tracking result of the non-recognition tracking unit as a comprehensive tracking result
Object tracking system, characterized in that.
상기 사물인식 추적부는
상기 추적할 사물에 관한 정보 기초로 상기 추적할 사물이 학습된 종류의 사물인지 확인하고,
학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하고,
상기 종합 추적부는
상기 사물인식 추적부가 이동을 추적하지 않는 경우에는 상기 비인식 추적부 추적 결과를 종합 추적 결과로 생성하는 것
을 특징으로 하는 사물 추적 시스템.According to claim 1,
The object recognition tracking unit
Checking whether the object to be tracked is a learned type of object based on the information about the object to be tracked,
Track the movement of the object to be tracked only if it is a learned type of object,
The comprehensive tracking unit
When the object recognition tracking unit does not track movement, generating the non-recognition tracking unit tracking result as a comprehensive tracking result
Object tracking system, characterized in that.
복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신하는 사물 정보 수신 단계;
상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적하는 비인식 추적 단계;
상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적하는 사물인식 추적 단계 및
상기 사물인식 추적 단계의 추적 결과 및 상기 비인식 추적 단계의 추적 결과를 기초로 종합 추적 결과를 생성하는 종합 추적 단계
를 포함하는 사물 추적 방법.In the object tracking method of the object tracking system having a memory and a central processing unit,
an object information receiving step of receiving information about an object to be tracked in video data composed of a plurality of frames;
a non-recognized tracking step of tracking the movement of the object to be tracked using the current frame and the location of the object to be tracked in the previous frame of the moving picture data;
an object recognition tracking step of recognizing the object to be tracked for each frame of the video data and tracking the movement of the object;
A comprehensive tracking step of generating a comprehensive tracking result based on the tracking result of the object recognition tracking step and the tracking result of the non-recognition tracking step
An object tracking method comprising
상기 사물인식 추적 단계 및 상기 비인식 추적 단계는 각각 추적 신뢰도 값을 계산하고,
상기 종합 추적 단계는
상기 추적 신뢰도 값을 이용하여 상기 사물인식 추적 단계의 추적 결과와 상기 비인식 추적 단계의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성하는 것
을 특징으로 하는 사물 추적 방법.7. The method of claim 6,
The object recognition tracking step and the non-recognition tracking step calculate a tracking reliability value, respectively,
The comprehensive tracking step is
Obtaining the weight of the tracking result of the object recognition tracking step and the tracking result of the non-recognition tracking step using the tracking reliability value, respectively, and reflecting this to generate a comprehensive tracking result
An object tracking method, characterized in that
상기 종합 추적 단계는
상기 비인식 추적 단계의 추적 신뢰도 값을 기초로 비인식 추적 단계의 추적 결과의 가중치를 구하고,
상기 사물인식 추적 단계의 추적 신뢰도 값과 상기 비인식 추적 단계의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적 단계의 추적 결과의 가중치를 구하는 것
을 특징으로 하는 사물 추적 방법.8. The method of claim 7,
The comprehensive tracking step is
Obtaining the weight of the tracking result of the unrecognized tracking step based on the tracking reliability value of the non-recognized tracking step,
Obtaining the weight of the tracking result of the object recognition tracking step based on the difference between the tracking reliability value of the object recognition tracking step and the tracking reliability value of the non-recognition tracking step
An object tracking method, characterized in that
상기 사물인식 추적 단계는
상기 비인식 추적 단계의 추적 신뢰도 값이 소정의 기준치 이하인 경우에만 상기 추적할 사물의 이동을 추적하고,
상기 종합 추적 단계는
상기 사물인식 추적 단계가 이동을 추적하지 않는 경우에는 상기 비인식 추적 단계 추적 결과를 종합 추적 결과로 생성하는 것
을 특징으로 하는 사물 추적 방법.9. The method of claim 8,
The object recognition tracking step is
tracking the movement of the object to be tracked only when the tracking reliability value of the unrecognized tracking step is less than or equal to a predetermined reference value;
The comprehensive tracking step is
When the object recognition tracking step does not track movement, generating the tracking result of the non-recognition tracking step as a comprehensive tracking result
An object tracking method, characterized in that
상기 사물인식 추적 단계는
상기 추적할 사물에 관한 정보 기초로 상기 추적할 사물이 학습된 종류의 사물인지 확인하고,
학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하고,
상기 종합 추적 단계는
상기 사물인식 추적 단계가 이동을 추적하지 않는 경우에는 상기 비인식 추적 단계의 추적 결과를 종합 추적 결과로 생성하는 것
을 특징으로 하는 사물 추적 방법.7. The method of claim 6,
The object recognition tracking step is
Checking whether the object to be tracked is a learned type of object based on the information about the object to be tracked,
Track the movement of the object to be tracked only if it is a learned type of object,
The comprehensive tracking step is
When the object recognition tracking step does not track movement, generating the tracking result of the non-recognition tracking step as a comprehensive tracking result
An object tracking method, characterized in that
A computer-readable recording medium in which a program for causing a computer to execute the method of any one of claims 6 to 10 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200177195A KR102538919B1 (en) | 2020-12-17 | 2020-12-17 | A Hybrid Object Tracking System and Method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200177195A KR102538919B1 (en) | 2020-12-17 | 2020-12-17 | A Hybrid Object Tracking System and Method therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220086940A true KR20220086940A (en) | 2022-06-24 |
KR102538919B1 KR102538919B1 (en) | 2023-06-01 |
Family
ID=82216005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200177195A KR102538919B1 (en) | 2020-12-17 | 2020-12-17 | A Hybrid Object Tracking System and Method therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102538919B1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346370A (en) * | 2004-06-02 | 2005-12-15 | Mitsubishi Electric Corp | Object-tracking device |
KR20150059191A (en) * | 2013-11-21 | 2015-06-01 | 한국해양과학기술원 | Method of real-time recognizing and tracking for underwater objects using sonar images |
JP2016071830A (en) * | 2014-09-26 | 2016-05-09 | 日本電気株式会社 | Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium |
KR20160123647A (en) | 2015-04-16 | 2016-10-26 | 한국전자통신연구원 | Apparatus and method for providing additional information usung object tracking |
KR20170012287A (en) * | 2014-05-29 | 2017-02-02 | 퀄컴 인코포레이티드 | Efficient forest sensing based eye tracking |
KR20170022872A (en) * | 2016-07-13 | 2017-03-02 | 아이디어주식회사 | Unmanned aerial vehicle having Automatic Tracking |
KR20190116681A (en) * | 2018-04-05 | 2019-10-15 | 주식회사 에스제이피랩 | The controlling system of the broadcasting image equipment with objcct tracking algorithm |
-
2020
- 2020-12-17 KR KR1020200177195A patent/KR102538919B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346370A (en) * | 2004-06-02 | 2005-12-15 | Mitsubishi Electric Corp | Object-tracking device |
KR20150059191A (en) * | 2013-11-21 | 2015-06-01 | 한국해양과학기술원 | Method of real-time recognizing and tracking for underwater objects using sonar images |
KR20170012287A (en) * | 2014-05-29 | 2017-02-02 | 퀄컴 인코포레이티드 | Efficient forest sensing based eye tracking |
JP2016071830A (en) * | 2014-09-26 | 2016-05-09 | 日本電気株式会社 | Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium |
KR20160123647A (en) | 2015-04-16 | 2016-10-26 | 한국전자통신연구원 | Apparatus and method for providing additional information usung object tracking |
KR20170022872A (en) * | 2016-07-13 | 2017-03-02 | 아이디어주식회사 | Unmanned aerial vehicle having Automatic Tracking |
KR20190116681A (en) * | 2018-04-05 | 2019-10-15 | 주식회사 에스제이피랩 | The controlling system of the broadcasting image equipment with objcct tracking algorithm |
Also Published As
Publication number | Publication date |
---|---|
KR102538919B1 (en) | 2023-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11107222B2 (en) | Video object tracking | |
JP7147078B2 (en) | Video frame information labeling method, apparatus, apparatus and computer program | |
Motiian et al. | Online human interaction detection and recognition with multiple cameras | |
US20230042187A1 (en) | Behavior recognition method and system, electronic device and computer-readable storage medium | |
WO2021050773A1 (en) | Keypoint based pose-tracking using entailment | |
CN113393496A (en) | Target tracking method based on space-time attention mechanism | |
Shetty et al. | Movie review prediction system by real time analysis of facial expression | |
Fontanel et al. | Detecting anomalies in semantic segmentation with prototypes | |
CN114663957A (en) | Face detection method, and training method and device of face detection model | |
CN116958267B (en) | Pose processing method and device, electronic equipment and storage medium | |
KR102538919B1 (en) | A Hybrid Object Tracking System and Method therefor | |
CN111784750A (en) | Method, device and equipment for tracking moving object in video image and storage medium | |
Csurka et al. | Direct identification of moving objects and background from 2D motion models | |
Naphade et al. | Detecting semantic concepts using context and audiovisual features | |
Mizher et al. | Action key frames extraction using l1-norm and accumulative optical flow for compact video shot summarisation | |
JP2020035098A (en) | Image processing system and information processing method and program | |
CN113658222A (en) | Vehicle detection tracking method and device | |
CN113129332A (en) | Method and apparatus for performing target object tracking | |
Zhang et al. | A joint system for person tracking and face detection | |
US20240054611A1 (en) | Systems and methods for encoding temporal information for video instance segmentation and object detection | |
US11847823B2 (en) | Object and keypoint detection system with low spatial jitter, low latency and low power usage | |
CN116612537B (en) | Semi-supervised action detection method based on background weakening and consistency calculation | |
CN113129330B (en) | Track prediction method and device for movable equipment | |
KR20230072237A (en) | System and Method for Detecting Objects using Spatio-temporal Information | |
KR20230072709A (en) | System and Method for Salient Object Detection based on Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |