KR20220086940A - A Hybrid Object Tracking System and Method therefor - Google Patents

A Hybrid Object Tracking System and Method therefor Download PDF

Info

Publication number
KR20220086940A
KR20220086940A KR1020200177195A KR20200177195A KR20220086940A KR 20220086940 A KR20220086940 A KR 20220086940A KR 1020200177195 A KR1020200177195 A KR 1020200177195A KR 20200177195 A KR20200177195 A KR 20200177195A KR 20220086940 A KR20220086940 A KR 20220086940A
Authority
KR
South Korea
Prior art keywords
tracking
recognition
unit
result
tracked
Prior art date
Application number
KR1020200177195A
Other languages
Korean (ko)
Other versions
KR102538919B1 (en
Inventor
홍석범
함명원
김정훈
왕민권
Original Assignee
주식회사 파인더스에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 파인더스에이아이 filed Critical 주식회사 파인더스에이아이
Priority to KR1020200177195A priority Critical patent/KR102538919B1/en
Publication of KR20220086940A publication Critical patent/KR20220086940A/en
Application granted granted Critical
Publication of KR102538919B1 publication Critical patent/KR102538919B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 사물 추적 시스템 및 방법에 관한 것으로, 복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신하는 사물 정보 수신부, 상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적하는 비인식 추적부, 상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적하는 사물인식 추적부 및 상기 사물인식 추적부의 추적 결과 및 상기 비인식 추적부의 추적 결과를 기초로 종합 추적 결과를 생성하는 종합 추적부를 포함하는 사물 추적 시스템과 그 사물 추적 방법에 관한 것이다.The present invention relates to a system and method for tracking an object, comprising: an object information receiver configured to receive information on an object to be tracked in video data composed of a plurality of frames; and a location and a current frame of the object to be tracked in a previous frame of the video data A non-recognition tracking unit for tracking the movement of the object to be tracked using The present invention relates to an object tracking system and an object tracking method including a comprehensive tracking unit for generating a comprehensive tracking result based on a result and the tracking result of the non-recognized tracking unit.

Description

하이브리드 사물 추적 시스템 및 방법 {A Hybrid Object Tracking System and Method therefor}A Hybrid Object Tracking System and Method therefor

본 발명은 사물 추적 시스템 및 방법에 관한 것으로, 영상 내에서 선택된 사물을 추적하는 과정에서 효율적이고 정확한 사물의 이동 추적이 가능하도록 하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for tracking an object, and to a system and method for enabling efficient and accurate movement tracking of an object in a process of tracking an object selected in an image.

영상을 분석하고, 이를 기초로 서비스를 제공하는 기술이 늘어나면서, 영상 내에서 특정 사물을 인식하고, 인식된 사물의 영상 내 이동을 추적하는 기술에 대한 수요가 늘어나고 있다.As the technology for analyzing an image and providing a service based on it increases, the demand for a technology for recognizing a specific object in an image and tracking the movement of the recognized object in the image is increasing.

종래의 영상 내 사물 추적(Object Tracking) 기술 중 많이 사용되는 기술은 사물인식 추적(Object Detection based Tracking) 기술로, 영상을 구성하는 복수의 프레임 각각에서 추적 대상인 사물의 특징을 가지는 영역을 지속적으로 인식함으로써, 해당 사물이 영상에서 시계열 흐름에 따라 어떻게 이동하는지 추적하는 기술이다.Among the conventional object tracking technologies in an image, a widely used technology is an object detection based tracking technology, which continuously recognizes an area having the characteristics of an object to be tracked in each of a plurality of frames constituting an image. By doing so, it is a technology that tracks how the object moves according to the time series flow in the image.

종래기술인 한국공개특허 제10-2016-0123647호, "객체 추적을 이용한 동영상 부가정보 제공 장치 및 제공 방법"은 이와 같은 사물 인식 기반의 추적 기술을 이용하여 다양한 서비스를 제공할 수 있도록 하는 기술이다. 그러나, 이와 같은 사물인식 추적기술을 이용하는 경우, 인식할 사물의 특징을 파악할 수 있도록 사물에 대한 사전 학습 작업이 필요하며, 동일한 사물이 화면상에서 방향 등이 변경되는 경우, 이를 인식하기 어려운 경우가 발생된다는 문제점이 있다.The prior art, Korean Patent Application Laid-Open No. 10-2016-0123647, "An apparatus and method for providing additional video information using object tracking" is a technology that enables various services to be provided using such an object recognition-based tracking technology. However, in the case of using such an object recognition tracking technology, it is necessary to perform a pre-learning operation on an object so that the characteristics of the object to be recognized can be identified. There is a problem that

이와 같은 문제점을 해결하기 위하여, 최근에는 사물인식을 이용하지 않는 비인식 추적기술이 개발되고 있는데, 비주얼 사물 추적(VOT; Visual Object Tracking)이라고도 불리는 이 기술은 현재 프레임과 이전 프레임의 영상을 비교하여, 이전 프레임에서의 사물이 현재 프레임에서 어떻게 이동하였는지를 인공지능 기반으로 확인하는 기술로, 사물의 이동에 대한 추적 성능이 뛰어나지만, 추적을 놓친 경우(사물이 화면 밖으로 나갔다가 들어오는 경우 등)에 이를 복원하는 것이 불가능한 문제점이 있다.In order to solve this problem, recently, non-recognition tracking technology that does not use object recognition has been developed. This technology, also called Visual Object Tracking (VOT), compares the image of the current frame with the previous frame. , a technology that checks how an object in the previous frame moved in the current frame based on artificial intelligence There is a problem that it is impossible to restore.

한국공개특허 제10-2016-0123647호Korean Patent Publication No. 10-2016-0123647

본 발명은 비인식 추적 기술을 이용하여, 사물의 이동을 효과적으로 추적하면서도, 사물이 화면 밖으로 나갔다가 들어오는 경우와 같이 사물의 추적이 중단되는 경우에도 다시 사물의 이동을 추적할 수 있도록 하는 것을 목적으로 한다.The present invention uses a non-recognized tracking technology to effectively track the movement of an object, while tracking the movement of an object again even when the tracking of the object is stopped, such as when the object goes out of the screen and comes in. do.

본 발명은 비인식 추적 방법을 이용하여 사물을 추적하면서, 신뢰도가 낮은 경우에 보충적으로 사물인식 추적 방법을 이용함으로써, 효과적인 사물 추적이 가능하도록 하는 것을 목적으로 한다.An object of the present invention is to enable effective object tracking by using the object recognition tracking method supplementally when the reliability is low while tracking the object using the non-recognition tracking method.

본 발명은 신뢰도 값을 기반으로 비인식 추적 방법의 신뢰도가 낮은 경우에만 사물인식 추적 방법이 사용되도록 함으로써, 연산을 최소화하고도 효과적인 사물 추적이 가능하도록 하는 것을 목적으로 한다.An object of the present invention is to enable an object-recognized tracking method to be used only when the reliability of the non-recognized tracking method is low based on a reliability value, thereby enabling effective object tracking while minimizing computation.

본 발명은 비인식 추적 방법과 사물인식 추적 방법을 동시에 적용하는 경우, 신뢰도 값을 기반으로 각 방법의 추적 결과에 가중치를 부여하여 종합 추적 결과를 생성함으로써, 추적 성능을 극대화하는 것을 목적으로 한다.When the non-recognition tracking method and the object recognition tracking method are simultaneously applied, an object of the present invention is to maximize tracking performance by creating a comprehensive tracking result by assigning weights to the tracking results of each method based on a reliability value.

이러한 목적을 달성하기 위하여 본 발명의 일실시예에 따른 사물 추적 시스템은 복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신하는 사물 정보 수신부, 상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적하는 비인식 추적부, 상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적하는 사물인식 추적부 및 상기 사물인식 추적부의 추적 결과 및 상기 비인식 추적부의 추적 결과를 기초로 종합 추적 결과를 생성하는 종합 추적부를 포함하는 것을 특징으로 한다.In order to achieve this object, an object tracking system according to an embodiment of the present invention includes an object information receiving unit that receives information about an object to be tracked in video data composed of a plurality of frames, A non-recognition tracking unit for tracking the movement of the object to be tracked by using the location of the object and the current frame, an object recognition tracking unit for tracking the movement of the object by recognizing the object to be tracked for each frame of the video data, and and a comprehensive tracking unit for generating a comprehensive tracking result based on the tracking result of the object recognition tracking unit and the tracking result of the non-recognition tracking unit.

이 때, At this time,

상기 사물인식 추적부 및 상기 비인식 추적부는 각각 추적 신뢰도 값을 계산하고, 상기 종합 추적부는 상기 추적 신뢰도 값을 이용하여 상기 사물인식 추적부의 추적 결과와 상기 비인식 추적부의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성할 수 있다.The object recognition tracking unit and the non-recognition tracking unit calculate a tracking reliability value, respectively, and the comprehensive tracking unit obtains the weight of the tracking result of the object recognition tracking unit and the tracking result of the non-recognition tracking unit using the tracking reliability value, respectively , it is possible to create a comprehensive tracking result by reflecting this.

또한, 상기 종합 추적부는 상기 비인식 추적부의 추적 신뢰도 값을 기초로 비인식 추적부의 추적 결과의 가중치를 구하고, 상기 사물인식 추적부의 추적 신뢰도 값과 상기 비인식 추적부의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적부의 추적 결과의 가중치를 구할 수 있다.In addition, the comprehensive tracking unit obtains the weight of the tracking result of the non-recognition tracking unit based on the tracking reliability value of the non-recognition tracking unit, and based on the difference between the tracking reliability value of the object recognition tracking unit and the tracking reliability value of the non-recognition tracking unit The weight of the tracking result of the object recognition tracking unit may be obtained.

또한, 상기 사물인식 추적부는 상기 비인식 추적부의 추적 신뢰도 값이 소정의 기준치 이하인 경우에만 상기 추적할 사물의 이동을 추적하고, 상기 종합 추적부는 상기 사물인식 추적부가 이동을 추적하지 않는 경우에는 상기 비인식 추적부의 추적 결과를 종합 추적 결과로 생성할 수 있다.In addition, the object recognition tracking unit tracks the movement of the object to be tracked only when the tracking reliability value of the non-recognition tracking unit is less than or equal to a predetermined reference value, and the comprehensive tracking unit tracks the movement of the object recognition tracking unit when the object recognition tracking unit does not track the movement. The tracking result of the recognition tracking unit may be generated as a comprehensive tracking result.

또한, 상기 사물인식 추적부는 상기 추적할 사물에 관한 정보를 기초로 상기 추적할 사물이 학습된 종류의 사물인지 확인하고, 학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하고, 상기 종합 추적부는 상기 사물인식 추적부가 이동을 추적하지 않는 경우에는 상기 비인식 추적부 추적 결과를 종합 추적 결과로 생성할 수 있다.In addition, the object recognition tracking unit checks whether the object to be tracked is a learned type of object based on the information on the object to be tracked, and tracks the movement of the object to be tracked only in the case of the learned type of object, and the synthesis The tracking unit may generate the non-recognition tracking unit tracking result as a comprehensive tracking result when the object recognition tracking unit does not track movement.

본 발명은 비인식 추적 기술을 이용하여, 사물의 이동을 효과적으로 추적하면서도, 사물이 화면 밖으로 나갔다가 들어오는 경우와 같이 사물의 추적이 중단되는 경우에도 다시 사물의 이동을 추적할 수 있도록 한다.The present invention uses a non-recognized tracking technology to effectively track the movement of an object, while tracking the movement of an object again even when the tracking of the object is stopped, such as when the object goes out of the screen and then comes in.

본 발명은 비인식 추적 방법을 이용하여 사물을 추적하면서, 신뢰도가 낮은 경우에 보충적으로 사물인식 추적 방법을 이용함으로써, 효과적인 사물 추적이 가능하도록 한다.The present invention enables effective object tracking by using the object recognition tracking method supplementally when the reliability is low while tracking the object using the non-recognition tracking method.

본 발명은 신뢰도 값을 기반으로 비인식 추적 방법의 신뢰도가 낮은 경우에만 사물인식 추적 방법이 사용되도록 함으로써, 연산을 최소화하고도 효과적인 사물 추적이 가능하도록 한다.The present invention allows the object recognition tracking method to be used only when the reliability of the non-recognition tracking method is low based on the reliability value, thereby enabling effective object tracking while minimizing computation.

본 발명은 비인식 추적 방법과 사물인식 추적 방법을 동시에 적용하는 경우, 신뢰도 값을 기반으로 각 방법의 추적 결과에 가중치를 부여하여 종합 추적 결과를 생성함으로써, 추적 성능을 극대화한다.In the present invention, when the non-recognition tracking method and the object recognition tracking method are simultaneously applied, the tracking performance is maximized by assigning a weight to the tracking result of each method based on the reliability value to generate a comprehensive tracking result.

도 1은 본 발명의 일실시예에 따른 사물 추적 시스템의 내부 구성을 도시한 구성도이다.
도 2는 본 발명의 일실시예에 따른 비인식 추적 및 사물인식 추적이 적용되는 경우의 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 사물 추적 방법의 흐름을 도시한 흐름이다.
1 is a configuration diagram illustrating an internal configuration of an object tracking system according to an embodiment of the present invention.
2 is a diagram illustrating an example in which non-recognition tracking and object recognition tracking are applied according to an embodiment of the present invention.
3 is a flowchart illustrating a flow of an object tracking method according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하기로 한다. 또한 본 발명의 실시예들을 설명함에 있어 구체적인 수치는 실시예에 불과하며 이에 의하여 발명의 범위가 제한되지 아니한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, in describing the embodiments of the present invention, specific numerical values are merely examples and the scope of the invention is not limited thereby.

본 발명에 따른 사물 추적 시스템은 중앙처리장치(CPU) 및 메모리(Memory, 기억장치)를 구비하고 인터넷 등의 통신망을 통하여 다른 단말기와 연결 가능한 서버의 형태로 구성될 수 있다. 또한, 모바일 단말, 사물인터넷(IoT) 기기 등에서 구현될 수도 있으며, 인터넷 등의 통신망이 연결되지 않은 환경에서도 독립적인 동작이 가능하다. 그러나 본 발명이 중앙처리장치 및 메모리 등의 구성에 의해 한정되지는 아니한다. 또한, 본 발명에 따른 사물 추적 시스템은 물리적으로 하나의 장치로 구성될 수도 있으며, 복수의 장치에 분산된 형태로 구현될 수도 있다.The object tracking system according to the present invention may be configured in the form of a server including a central processing unit (CPU) and a memory (Memory) and connectable to other terminals through a communication network such as the Internet. In addition, it may be implemented in a mobile terminal, an Internet of Things (IoT) device, etc., and independent operation is possible even in an environment in which a communication network such as the Internet is not connected. However, the present invention is not limited by the configuration of the central processing unit and the memory. In addition, the object tracking system according to the present invention may be physically configured as one device or may be implemented in a distributed form among a plurality of devices.

도 1은 본 발명의 일실시예에 따른 사물 추적 시스템의 내부 구성을 도시한 구성도이다.1 is a configuration diagram illustrating an internal configuration of an object tracking system according to an embodiment of the present invention.

도면에 도시한 바와 같이, 본 발명의 일실시예에 따른 사물 추적 시스템(101)은 사물 정보 수신부(110), 비인식 추적부(120), 사물인식 추적부(130) 및 종합 추적부(140)를 포함하여 구성될 수 있다. 각각의 구성요소들은 물리적으로 동일한 컴퓨터 시스템 내에서 동작하는 소프트웨어 모듈일 수 있으며, 물리적으로 2개 이상으로 분리된 컴퓨터 시스템이 서로 연동하여 동작할 수 있도록 구성된 형태일 수 있는데, 동일한 기능을 포함하는 다양한 실시형태가 본 발명의 권리범위에 속한다.As shown in the drawing, the object tracking system 101 according to an embodiment of the present invention includes an object information receiving unit 110 , a non-recognizing tracking unit 120 , an object recognition tracking unit 130 , and a comprehensive tracking unit 140 . ) may be included. Each component may be a software module operating in the same computer system physically, and may be configured so that two or more physically separated computer systems can operate in conjunction with each other. Embodiments fall within the scope of the present invention.

사물 정보 수신부(110)는 복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신한다. 동영상 데이터는 복수의 정지영상 프레임들을 시계열적으로 나열하여, 시간의 흐름에 따라 정지영상을 빠르게 재생함으로써, 움직이는 영상을 제공한다. 이와 같은 동영상 데이터를 분석하기 위해서는 동영상에 포함되는 사물(Object)을 인식할 필요가 있다. 예를 들어, CCTV에서 침입자를 탐지하는 경우, 침입자를 추적할 사물(Object)로 선택하고, 이동을 식별해 내야 한다.The object information receiving unit 110 receives information about an object to be tracked in video data composed of a plurality of frames. The moving image data provides a moving image by arranging a plurality of still image frames in time series and rapidly reproducing the still image according to the passage of time. In order to analyze such moving picture data, it is necessary to recognize an object included in the moving picture. For example, when CCTV detects an intruder, it is necessary to select the intruder as an object to track and identify the movement.

사물 정보 수신부(110)에서 수신하는 추적할 사물에 관한 정보는 추적할 사물이 영상 내에서 위치하는 위치 정보 또는 존재하는 범위를 나타내는 범위 정보를 포함할 수 있으며, 추가로 추적할 사물의 속성에 관한 정보를 포함할 수 있다. 예를 들어 추적하는 대상이 사람의 얼굴인 경우, 추적할 사물이 얼굴임을 속성 정보로 제공함으로써, 사물인식을 통해 사물을 추적할 때에 보다 정확한 인식이 가능하도록 할 수 있다.The information about the object to be tracked received by the object information receiving unit 110 may include location information where the object to be tracked is located in an image or range information indicating a range in which it exists, and additionally relates to the property of the object to be tracked. may contain information. For example, when the object to be tracked is a human face, by providing attribute information that the object to be tracked is a face, more accurate recognition may be possible when tracking an object through object recognition.

사물 정보 수신부(110)에서 추적할 사물에 관한 정보를 수신하기 위하여, 사용자가 어플리케이션 등을 이용하여 원하는 사물을 추적하는 경우에는 사용자의 마우스 클릭 또는 터치 입력을 수신하여 해당 위치의 사물을 추적하도록 할 수도 있고, 지능형 CCTV 등에 적용되는 경우에는 침입자 등 이상행동이 감지되는 사물을 자동으로 식별하여 추적할 사물로 선택하고 해당 사물에 대한 정보를 사물 정보 수신부(110)에서 수신하도록 할 수도 있다.In order to receive information about an object to be tracked from the object information receiving unit 110, when a user tracks a desired object using an application, the user's mouse click or touch input is received to track the object at the corresponding location. Alternatively, when applied to intelligent CCTV, etc., an object in which abnormal behavior such as an intruder is detected may be automatically identified and selected as an object to be tracked, and information about the object may be received from the object information receiving unit 110 .

비인식 추적부(120)는 상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적한다. 동영상의 매 프레임에서 사물을 인식하여 해당 사물의 위치를 추적하는 것이 종래의 대부분의 사물 추적 기술이었는데, 사물을 인식하는 인공지능 네트워크는 사물을 정확히 인식(detection)하고 구분(classification)하는 데에 초점이 맞춰져 있어서, 이동하는 사물을 추적하는 추적 성능이 높지 않다. 예를 들어, 사람의 얼굴을 추적하는 경우라고 한다면, 얼굴의 정면이 노출되었을 때, 해당 부분이 사람의 얼굴이라고 인식하는 것은 가능하지만, 다음 장면에서 얼굴이 옆 또는 뒤쪽으로 회전하여 이동하는 경우, 다음 얼굴이 뒤쪽으로 돌아 있는 장면의 프레임에서 얼굴을 인식할 수 없기 때문에, 추적에 실패하게 된다.The non-recognition tracking unit 120 tracks the movement of the object to be tracked using the location of the object to be tracked in the previous frame of the video data and the current frame. Most of the conventional object tracking technologies have been to recognize an object in every frame of a video and track the location of the object. Because this is set, the tracking performance of tracking moving objects is not high. For example, in the case of tracking a human face, when the front of the face is exposed, it is possible to recognize that the part is a human face, but in the next scene, if the face rotates sideways or backwards, Since the face cannot be recognized in the frame of the scene in which the next face is turned back, tracking will fail.

따라서, 비인식 추적부(120)는 인식이 아니라, 추적(tracking)에 초점을 맞춘 네트워크를 설계하고, 이전 프레임에서 어떤 위치 또는 범위에 사물이 존재하였을 때, 다음 프레임에서 해당 사물이 어떻게 이동하는지를 확인함으로써, 프레임 사이에서의 사물의 이동을 정확하게 판별해 낼 수 있도록 한 것이다. 즉, 종래의 사물인식 기반 추적 기술은 인식 기술을 활용하여 추적을 가능하게 하는 것이라면, 비인식 추적부(120)에서 이전 프레임과 현재 프레임에서의 사물의 이동을 탐지하는 기술은 사물의 추적에 최적화하여 추적 성능을 극대화한 기술이라고 할 수 있다.Therefore, the non-recognition tracking unit 120 designs a network focusing on tracking, not recognition, and when an object exists in a certain position or range in the previous frame, how the object moves in the next frame By checking, it is possible to accurately determine the movement of objects between frames. That is, if the conventional object recognition-based tracking technology enables tracking by using a recognition technology, the technology of detecting the movement of an object in the previous frame and the current frame in the non-recognition tracking unit 120 is optimized for tracking the object. Therefore, it can be said that it is a technology that maximizes the tracking performance.

비인식 추적부(120)에서 이전 프레임에서의 사물의 위치 정보 및 현재 프레임 정보를 이용하여 추적하는 기술은 인공지능을 통해 구현될 수 있는데, 이를 구현하기 위한 인공지능 알고리즘이 다양하게 개발되고 있으며, 본 발명에서는 그 중 어떤 방법을 적용하여도 문제되지 않는다. 일반적으로 이와 같이 사물을 인식하지 않고 추적하는 기술을 비주얼 사물 추적(VOT; Visual Object Tracking)이라고 부른다.The technology for tracking by using the location information of the object in the previous frame and the current frame information in the non-recognition tracking unit 120 can be implemented through artificial intelligence, and various artificial intelligence algorithms for implementing this are being developed, In the present invention, it does not matter which method is applied. In general, such a technology for tracking objects without recognizing them is called Visual Object Tracking (VOT).

비인식 추적부(120)에서 사물을 추적하는 방식은 화면 내에서 이동하는 사물이 변형되거나 회전되는 경우에도 상대적으로 정확한 추적이 가능하고, 추적에 최적화된 네트워크를 이용하여 추적함으로써, 추적성능을 극대화할 수 있다는 장점이 존재하는 반면, 사물이 화면 밖으로 나갔다가 다시 들어오는 경우, 이를 추적할 방법이 없다는 문제점이 있다.In the method of tracking an object in the non-recognized tracking unit 120, relatively accurate tracking is possible even when an object moving within the screen is deformed or rotated, and tracking performance is maximized by tracking using a network optimized for tracking. While there is an advantage of being able to do it, there is a problem that there is no way to track when an object goes out of the screen and then comes back.

사물인식 추적부(130)는 상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적한다. 앞서 설명한 바와 같이 비인식 추적부(120)의 추적 방법으로는 화면 밖으로 이동하는 사물을 추적할 수 없는데, 프레임마다 사물을 인식한다면, 화면 밖으로 이동했던 사물이 돌아왔을 때, 해당 사물을 다시 인식하여 찾아낼 수 있는 장점이 있다. 따라서 본 발명의 사물 추적 시스템은 비인식 추적부(120)의 추적기술과 함께, 프레임별 사물인식 기반의 추적 기술을 동시에 활용함으로써, 서로의 단점을 보완할 수 있도록 한 것이다.The object recognition tracking unit 130 tracks the movement of the object by recognizing the object to be tracked for each frame of the video data. As described above, an object moving out of the screen cannot be tracked by the tracking method of the non-recognition tracking unit 120, but if an object is recognized every frame, when the object that has moved out of the screen returns, the object is recognized again. There are advantages to be found. Therefore, the object tracking system of the present invention uses the tracking technology of the non-recognition tracking unit 120 and the tracking technology based on frame-by-frame object recognition at the same time to compensate for each other's shortcomings.

사물인식 추적부(130)에서 각 프레임별로 사물을 인식하기 위해서는 사전에 인식할 사물에 대한 학습 데이터를 이용하여 해당 사물의 특징을 학습하는 과정이 필요하다. 만일 사람의 얼굴을 추적할 사물로 선택하는 경우에는 다양한 사람의 얼굴 이미지를 학습데이터로 학습하여, 영상 내에서 사람의 얼굴 부분과 다른 사물들을 구별해 낼 수 있도록 해야 한다. 따라서, 사물인식 추적부(130)는 추적할 사물에 관한 정보를 확인하여, 추적할 사물이 학습된 종류의 사물인지를 판단하고, 학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하도록 할 수 있다.In order for the object recognition tracking unit 130 to recognize an object for each frame, it is necessary to learn the characteristics of the object by using the learning data for the object to be recognized in advance. If a human face is selected as an object to be tracked, it is necessary to learn various human face images as learning data so that the human face part and other objects can be distinguished in the image. Accordingly, the object recognition tracking unit 130 checks information about the object to be tracked, determines whether the object to be tracked is a learned type of object, and tracks the movement of the object to be tracked only in the case of the learned type of object. can do.

비인식 추적부(120) 및 사물인식 추적부(130)는 각각 사물을 추적한 결과와 함께 추적 신뢰도 값을 계산할 수 있다. 비인식 추적부(120)의 이전 프레임에서의 사물의 위치 및 현재 프레임을 이용한 사물 추적 알고리즘과 사물인식 추적부(130)의 매 프레임별 사물인식 기반의 추적 알고리즘은 모두 추적 결과에 따라 추적 신뢰도 값을 제공할 수 있다. 추적 신뢰도 값은 추적 결과가 어느 정도로 정확한지를 나타내는 수치로, 0에서 1 사이의 값을 가지도록 계산될 수 있다.The non-recognition tracking unit 120 and the object recognition tracking unit 130 may calculate a tracking reliability value together with a result of tracking an object, respectively. The object tracking algorithm using the position of the object in the previous frame and the current frame of the non-recognition tracking unit 120 and the object recognition-based tracking algorithm for each frame of the object recognition tracking unit 130 are all tracking reliability values according to the tracking results. can provide The tracking reliability value is a number indicating how accurate the tracking result is, and may be calculated to have a value between 0 and 1.

예를 들어, 사물인식 추적부(130)에서의 사물인식 기반 추적 방법 중 하나인 YOLO의 알고리즘에서는 인식한 사물이 해당 사물의 클래스(분류)에 속할 확률을 구하고, 해당 사물이 위치하는 영역의 정확도를 나타내는 IOU(Intersection over Union) 값을 구하여 이 둘을 곱함으로써 신뢰도 값을 구할 수 있다. 인식한 사물이 해당 사물의 클래스에 속할 확률과 영역의 정확도는 모두 0에서 1 사이의 값을 가지므로, 최종 추적 신뢰도 값은 0에서 1 사이의 값을 가지게 된다. 이 예시에서, 추적 신뢰도는 아래의 수식 1에 의하여 계산될 수 있다.For example, in the algorithm of YOLO, which is one of the object recognition-based tracking methods in the object recognition tracking unit 130, the probability that the recognized object belongs to the class (classification) of the object is obtained, and the accuracy of the area where the object is located The reliability value can be obtained by obtaining the IOU (Intersection over Union) value representing , and multiplying these two. Since both the probability that the recognized object belongs to the class of the object and the accuracy of the area have values between 0 and 1, the final tracking reliability value has a value between 0 and 1. In this example, the tracking reliability may be calculated by Equation 1 below.

[수식 1][Formula 1]

Figure pat00001
Figure pat00001

종합 추적부(140)는 상기 사물인식 추적부(130)의 추적 결과 및 상기 비인식 추적부(120)의 추적 결과를 기초로 종합 추적 결과를 생성한다. 비인식 추적부(120)의 추적 결과에 대한 추적 신뢰도가 높은 경우에는 비인식 추적부(120)의 추적 결과를 전적으로 사용하여 종합 추적 결과를 생성할 수도 있고, 비인식 추적부(120)의 추적 신뢰도가 낮고, 사물인식 추적부(130)의 추적 신뢰도가 높은 경우에는 사물인식 추적부(130)의 추적 결과를 종합 추적 결과로 사용할 수도 있다. 또한, 그 중간에는 각각에 가중치를 부여하여 합산한 추적 결과를 종합 추적 결과로 생성할 수 있다.The comprehensive tracking unit 140 generates a comprehensive tracking result based on the tracking result of the object recognition tracking unit 130 and the tracking result of the non-recognition tracking unit 120 . When the tracking reliability of the tracking result of the non-recognized tracking unit 120 is high, the comprehensive tracking result may be generated using the tracking result of the non-recognized tracking unit 120 entirely, and the tracking of the non-recognized tracking unit 120 is When the reliability is low and the tracking reliability of the object recognition tracking unit 130 is high, the tracking result of the object recognition tracking unit 130 may be used as a comprehensive tracking result. In addition, in the middle, a weight may be given to each and the summed tracking result may be generated as a comprehensive tracking result.

종합 추적부(140)는 이를 위하여, 추적 신뢰도 값을 이용하여 상기 사물인식 추적부(130)의 추적 결과와 상기 비인식 추적부(120)의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성할 수 있다. 또한, 상기 비인식 추적부(120)의 추적 신뢰도 값을 기초로 비인식 추적부(120)의 추적 결과의 가중치를 구하고, 상기 사물인식 추적부(130)의 추적 신뢰도 값과 상기 비인식 추적부(120)의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적부(130)의 추적 결과의 가중치를 구할 수 있다. 가중치는 0에서 1 사이의 값을 가지도록 하고, 한 쪽의 추적결과만 사용하는 경우에는 해당 방법의 가중치를 1로 하고, 반대쪽 방법의 가중치를 0으로 설정하도록 할 수 있다.To this end, the comprehensive tracking unit 140 obtains the weights of the tracking result of the object recognition tracking unit 130 and the tracking result of the non-recognition tracking unit 120 by using the tracking reliability value, and reflects them to perform comprehensive tracking. results can be generated. In addition, the weight of the tracking result of the non-recognition tracking unit 120 is obtained based on the tracking reliability value of the non-recognition tracking unit 120, and the tracking reliability value of the object recognition tracking unit 130 and the non-recognition tracking unit The weight of the tracking result of the object recognition tracking unit 130 may be obtained based on the difference in the tracking reliability value of 120 . The weight may have a value between 0 and 1, and when only one tracking result is used, the weight of the method may be set to 1, and the weight of the other method may be set to 0.

보다 구체적으로 종합 추적부(140)는 아래 수식 2에 의하여 비인식 추적부(120)의 추적 결과의 가중치를 구할 수 있다.More specifically, the comprehensive tracking unit 140 may obtain the weight of the tracking result of the non-recognized tracking unit 120 by Equation 2 below.

[수식 2][Equation 2]

Figure pat00002
Figure pat00002

이 때, wt는 비인식 추적부(120)의 추적 결과의 가중치At this time, wt is the weight of the tracking result of the unrecognized tracking unit 120 .

ct는 비인식 추적부(120)의 추적 신뢰도(0부터 1 사이의 값)ct is the tracking reliability of the unrecognized tracking unit 120 (a value between 0 and 1)

Figure pat00003
,
Figure pat00004
는 신뢰도를 구분하기 위한 소정의 기준 값
Figure pat00003
,
Figure pat00004
is a predetermined reference value for classifying reliability

추적 방법에 따라서, 신뢰도의 값이 의미하는 바가 조금씩 차이가 있을 수 있기 때문에,

Figure pat00005
,
Figure pat00006
는 추적 알고리즘을 무엇으로 적용하는지에 따라서, 변경될 수 있다.Depending on the tracking method, the meaning of the reliability value may be slightly different,
Figure pat00005
,
Figure pat00006
can be changed depending on what the tracking algorithm is applied to.

또한, 종합 추적부(140)는 아래 수식 3에 의하여 사물인식 추적부(130)의 추적 결과의 가중치를 구할 수 있다.In addition, the comprehensive tracking unit 140 may obtain the weight of the tracking result of the object recognition tracking unit 130 by Equation 3 below.

[수식 3][Equation 3]

Figure pat00007
Figure pat00007

이 때, wd는 사물인식 추적부(130)의 추적 결과의 가중치At this time, wd is the weight of the tracking result of the object recognition tracking unit 130 .

ct는 비인식 추적부(120)의 추적 신뢰도(0부터 1 사이의 값)ct is the tracking reliability of the unrecognized tracking unit 120 (a value between 0 and 1)

cd는 사물인식 추적부(130)의 추적 신뢰도(0부터 1 사이의 값)cd is the tracking reliability of the object recognition tracking unit 130 (a value between 0 and 1)

Figure pat00008
는 신뢰도를 구분하기 위한 소정의 기준값
Figure pat00008
is a predetermined reference value for classifying reliability

추적 방법에 따라서 신뢰도의 값이 의미하는 바가 차이가 있을 수 있기 때문에,

Figure pat00009
는 추적 알고리즘을 무엇으로 적용하는지에 따라서 변경될 수 있다.Because the meaning of the reliability value may differ depending on the tracking method,
Figure pat00009
can be changed depending on what the tracking algorithm is applied to.

본 발명은 종래의 방법과 달리 비인식 추적부(120) 및 사물인식 추적부(130)에서 각각 추적을 진행하여 추적의 정확도를 높이도록 한 것이므로, 종래의 방법에 비해 많은 연산을 위한 리소스를 차지하게 된다. 따라서, 사물인식 추적부(130)는 비인식 추적부(120)의 추적 신뢰도 값이 소정의 기준치 이상인 경우에는 사물을 추적하지 않다가, 추적 신뢰도 값이 상기 기준치 이하로 내려가는 경우에만 추적을 하도록 할 수 있다. 즉, 사물이 화면 내에서 이동하는 중에는 비인식 추적부(120)의 추적 방법을 적용하다가, 사물이 화면 밖으로 이동하거나 고속으로 이동하여 비인식 추적부(120)에서 추적 신뢰도가 떨어지게 되면 사물인식 추적부(130)에서 추적을 실행하고, 추적 결과를 종합하여 활용하도록 할 수 있다. 이를 통해 연산 리소스 사용을 최소화하면서도 추적의 성능을 극대화할 수 있다.In the present invention, unlike the conventional method, since the non-recognition tracking unit 120 and the object recognition tracking unit 130 perform tracking to increase the tracking accuracy, it occupies more resources than the conventional method. will do Accordingly, the object recognition tracking unit 130 does not track the object when the tracking reliability value of the non-recognition tracking unit 120 is greater than or equal to a predetermined reference value, but only performs tracking when the tracking reliability value falls below the reference value. can That is, while the tracking method of the non-recognition tracking unit 120 is applied while the object is moving within the screen, if the tracking reliability is lowered in the non-recognition tracking unit 120 because the object moves out of the screen or moves at high speed, object recognition tracking The unit 130 may execute tracking, and synthesize and utilize the tracking results. In this way, it is possible to maximize the performance of tracing while minimizing the use of computational resources.

도 2는 본 발명의 일실시예에 따른 비인식 추적 및 사물인식 추적이 적용되는 경우의 예를 도시한 도면이다.2 is a diagram illustrating an example in which non-recognition tracking and object recognition tracking are applied according to an embodiment of the present invention.

도면에 도시한 바와 같이, 화면 내에서 인식해야 하는 사물(도면에서는 사람 얼굴)이 존재하는 경우, 먼저 사물 정보 수신부(110)에서 해당 사물의 위치와 속성 등에 관한 정보를 수신한다.As shown in the drawing, when there is an object (a human face in the drawing) to be recognized on the screen, first, the object information receiver 110 receives information about the location and properties of the object.

(b)에서와 같이 사물이 이동하는 경우, 비인식 추적부(120) 및 사물인식 추적부(130)에서 각각 사물의 이동을 추적하고, 이를 종합하여 종합 추적 결과를 생성하게 된다. (b)에서와 같이, 사물이 화면 내에서 이동하는 경우 비인식 추적부(120)의 추적 결과 신뢰도가 높게 나타날 가능성이 높기 때문에, 이 경우에는 비인식 추적부의 추적 결과만으로 종합 추적 결과를 생성할 수 있다.As in (b), when an object moves, the non-recognition tracking unit 120 and the object recognition tracking unit 130 track the movement of the object, and synthesize them to generate a comprehensive tracking result. As in (b), when the object moves within the screen, since the reliability of the tracking result of the non-recognized tracking unit 120 is highly likely to appear, in this case, only the tracking result of the non-recognized tracking unit can generate a comprehensive tracking result. can

만일 (c)에서와 같이 추적할 사물이 화면 밖으로 이동하게 되면, 비인식 추적부(120)에서는 사물을 추적하기가 어렵게 된다. 이후 (d)에서와 같이 사물이 화면 내로 다시 들어오게 되더라도, 비인식 추적부(120)에서는 이전 프레임에서의 사물의 위치 정보가 존재하지 않기 때문에, 사물의 이동을 추적하기 어렵다. 따라서, 이 경우에는 사물인식 추적부(130)에서 해당 프레임에서 해당 사물을 다시 인식하여 추적을 계속할 수 있도록 한다.If the object to be tracked moves out of the screen as in (c), it becomes difficult for the non-recognized tracking unit 120 to track the object. Thereafter, even if the object is returned to the screen as in (d), since the location information of the object in the previous frame does not exist in the non-recognized tracking unit 120, it is difficult to track the movement of the object. Therefore, in this case, the object recognition tracking unit 130 recognizes the object in the corresponding frame again so that the tracking can be continued.

도 3은 본 발명의 일실시예에 따른 사물 추적 방법의 흐름을 도시한 흐름이다.3 is a flowchart illustrating a flow of an object tracking method according to an embodiment of the present invention.

본 발명에 따른 사물 추적 방법은 중앙처리장치 및 메모리를 구비하는 사물 추적 시스템에서 데이터 경계를 도출하는 방법으로, 이와 같은 컴퓨팅 시스템에서 구동될 수 있다.The object tracking method according to the present invention is a method of deriving a data boundary in an object tracking system including a central processing unit and a memory, and may be driven in such a computing system.

따라서, 사물 추적 방법은 상술한 사물 추적 시스템에 대하여 설명된 특징적인 구성을 모두 포함하고 있으며, 아래의 설명에서 설명되지 않은 내용도 상술한 사물 추적 시스템에 대한 설명을 참조하여 구현할 수 있다.Accordingly, the object tracking method includes all the characteristic components described for the object tracking system described above, and content not described in the following description can be implemented with reference to the description of the object tracking system described above.

사물 정보 수신 단계(S301)는 복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신한다. 동영상 데이터는 복수의 정지영상 프레임들을 시계열적으로 나열하여, 시간의 흐름에 따라 정지영상을 빠르게 재생함으로써, 움직이는 영상을 제공한다. 이와 같은 동영상 데이터를 분석하기 위해서는 동영상에 포함되는 사물(Object)을 인식할 필요가 있다. 예를 들어, CCTV에서 침입자를 탐지하는 경우, 침입자를 추적할 사물(Object)로 선택하고, 이동을 식별해 내야 한다.In the object information receiving step (S301), information on an object to be tracked is received from video data composed of a plurality of frames. The moving image data provides a moving image by arranging a plurality of still image frames in time series and rapidly reproducing the still image according to the passage of time. In order to analyze such moving picture data, it is necessary to recognize an object included in the moving picture. For example, when CCTV detects an intruder, it is necessary to select the intruder as an object to track and identify the movement.

사물 정보 수신 단계(S301)에서 수신하는 추적할 사물에 관한 정보는 추적할 사물이 영상 내에서 위치하는 위치 정보 또는 존재하는 범위를 나타내는 범위 정보를 포함할 수 있으며, 추가로 추적할 사물의 속성에 관한 정보를 포함할 수 있다. 예를 들어 추적하는 대상이 사람의 얼굴인 경우, 추적할 사물이 얼굴임을 속성 정보로 제공함으로써, 사물인식을 통해 사물을 추적할 때에 보다 정확한 인식이 가능하도록 할 수 있다.The information on the object to be tracked received in the object information receiving step S301 may include location information on which the object to be tracked is located in the image or range information indicating the range in which it exists. It may contain information about For example, when the object to be tracked is a human face, by providing attribute information that the object to be tracked is a face, more accurate recognition may be possible when tracking an object through object recognition.

비인식 추적 단계(S302)는 상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적한다. 동영상의 매 프레임에서 사물을 인식하여 해당 사물의 위치를 추적하는 것이 종래의 대부분의 사물 추적 기술이었는데, 사물을 인식하는 인공지능 네트워크는 사물을 정확히 인식(detection)하고 구분(classification)하는 데에 초점이 맞춰져 있어서, 이동하는 사물을 추적하는 추적 성능이 높지 않다. 예를 들어, 사람의 얼굴을 추적하는 경우라고 한다면, 얼굴의 정면이 노출되었을 때, 해당 부분이 사람의 얼굴이라고 인식하는 것은 가능하지만, 다음 장면에서 얼굴이 옆 또는 뒤쪽으로 회전하여 이동하는 경우, 다음 얼굴이 뒤쪽으로 돌아 있는 장면의 프레임에서 얼굴을 인식할 수 없기 때문에, 추적에 실패하게 된다.In the unrecognized tracking step (S302), the movement of the object to be tracked is tracked using the location of the object to be tracked in the previous frame of the video data and the current frame. Most of the conventional object tracking technologies have been to recognize an object in every frame of a video and track the location of the object. Because this is set, the tracking performance of tracking moving objects is not high. For example, in the case of tracking a human face, when the front of the face is exposed, it is possible to recognize that the part is a human face, but in the next scene, if the face rotates sideways or backwards, Since the face cannot be recognized in the frame of the scene in which the next face is turned back, tracking will fail.

따라서, 비인식 추적 단계(S302)는 인식이 아니라, 추적(tracking)에 초점을 맞춘 네트워크를 설계하고, 이전 프레임에서 어떤 위치 또는 범위에 사물이 존재하였을 때, 다음 프레임에서 해당 사물이 어떻게 이동하는지를 확인함으로써, 프레임 사이에서의 사물의 이동을 정확하게 판별해 낼 수 있도록 한 것이다. 즉, 종래의 사물인식 기반 추적 기술은 인식 기술을 활용하여 추적을 가능하게 하는 것이라면, 비인식 추적 단계(S302)에서 이전 프레임과 현재 프레임에서의 사물의 이동을 탐지하는 기술은 사물의 추적에 최적화하여 추적 성능을 극대화한 기술이라고 할 수 있다.Therefore, in the non-recognition tracking step (S302), a network focused on tracking, not recognition, is designed, and when an object exists in a certain position or range in the previous frame, how the object moves in the next frame By checking, it is possible to accurately determine the movement of objects between frames. That is, if the conventional object recognition-based tracking technology enables tracking by using a recognition technology, the technology of detecting the movement of an object in the previous frame and the current frame in the non-recognition tracking step (S302) is optimized for tracking the object. Therefore, it can be said that it is a technology that maximizes the tracking performance.

비인식 추적 단계(S302)에서 이전 프레임에서의 사물의 위치 정보 및 현재 프레임 정보를 이용하여 추적하는 기술은 인공지능을 통해 구현될 수 있는데, 이를 구현하기 위한 인공지능 알고리즘이 다양하게 개발되고 있으며, 본 발명에서는 그 중 어떤 방법을 적용하여도 문제되지 않는다. 일반적으로 이와 같이 사물을 인식하지 않고 추적하는 기술을 비주얼 사물 추적(VOT; Visual Object Tracking)이라고 부른다.In the unrecognized tracking step (S302), the tracking technology using the location information of the object in the previous frame and the current frame information can be implemented through artificial intelligence, and various artificial intelligence algorithms for implementing this are being developed, In the present invention, it does not matter which method is applied. In general, such a technology for tracking objects without recognizing them is called Visual Object Tracking (VOT).

사물인식 추적 단계(S303)는 상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적한다. 앞서 설명한 바와 같이 비인식 추적 단계(S302)의 추적 방법으로는 화면 밖으로 이동하는 사물을 추적할 수 없는데, 프레임마다 사물을 인식한다면, 화면 밖으로 이동했던 사물이 돌아왔을 때, 해당 사물을 다시 인식하여 찾아낼 수 있는 장점이 있다. 따라서 본 발명의 사물 추적 시스템은 비인식 추적 단계(S302)의 추적기술과 함께, 프레임별 사물인식 기반의 추적 기술을 동시에 활용함으로써, 서로의 단점을 보완할 수 있도록 한 것이다.In the object recognition tracking step (S303), the object to be tracked is recognized for each frame of the video data and the movement of the object is tracked. As described above, the tracking method of the non-recognized tracking step (S302) cannot track an object moving out of the screen. There are advantages to be found. Therefore, the object tracking system of the present invention uses the tracking technology of the non-recognition tracking step (S302) and the tracking technology based on the object recognition for each frame at the same time to compensate for each other's shortcomings.

사물인식 추적 단계(S303)에서 각 프레임별로 사물을 인식하기 위해서는 사전에 인식할 사물에 대한 학습 데이터를 이용하여 해당 사물의 특징을 학습하는 과정이 필요하다. 만일 사람의 얼굴을 추적할 사물로 선택하는 경우에는 다양한 사람의 얼굴 이미지를 학습데이터로 학습하여, 영상 내에서 사람의 얼굴 부분과 다른 사물들을 구별해 낼 수 있도록 해야 한다. 따라서, 사물인식 추적 단계(S303)는 추적할 사물에 관한 정보를 확인하여, 추적할 사물이 학습된 종류의 사물인지를 판단하고, 학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하도록 할 수 있다.In order to recognize an object for each frame in the object recognition tracking step ( S303 ), it is necessary to learn the characteristics of the object by using the learning data for the object to be recognized in advance. If a human face is selected as an object to be tracked, it is necessary to learn various human face images as learning data so that the human face part and other objects can be distinguished in the image. Therefore, in the object recognition tracking step (S303), information on the object to be tracked is checked, the object to be tracked is determined whether the object is a learned type of object, and the movement of the object to be tracked is tracked only in the case of the learned type of object. can do.

비인식 추적 단계(S302) 및 사물인식 추적 단계(S303)는 각각 사물을 추적한 결과와 함께 추적 신뢰도 값을 계산할 수 있다. 비인식 추적 단계(S302)의 이전 프레임에서의 사물의 위치 및 현재 프레임을 이용한 사물 추적 알고리즘과 사물인식 추적 단계(S303)의 매 프레임별 사물인식 기반의 추적 알고리즘은 모두 추적 결과에 따라 추적 신뢰도 값을 제공할 수 있다. 추적 신뢰도 값은 추적 결과가 어느 정도로 정확한지를 나타내는 수치로, 0에서 1 사이의 값을 가지도록 계산될 수 있다.In the non-recognition tracking step ( S302 ) and the object recognition tracking step ( S303 ), a tracking reliability value may be calculated together with a result of tracking an object, respectively. The object tracking algorithm using the position of the object in the previous frame and the current frame of the non-recognition tracking step (S302) and the object recognition-based tracking algorithm for each frame of the object recognition tracking step (S303) are all tracking reliability values according to the tracking results. can provide The tracking reliability value is a number indicating how accurate the tracking result is, and may be calculated to have a value between 0 and 1.

종합 추적 단계(S304)는 상기 사물인식 추적 단계(S303)의 추적 결과 및 상기 비인식 추적 단계(S302)의 추적 결과를 기초로 종합 추적 결과를 생성한다. 비인식 추적 단계(S302)의 추적 결과에 대한 추적 신뢰도가 높은 경우에는 비인식 추적 단계(S302)의 추적 결과를 전적으로 사용하여 종합 추적 결과를 생성할 수도 있고, 비인식 추적 단계(S302)의 추적 신뢰도가 낮고, 사물인식 추적 단계(S303)의 추적 신뢰도가 높은 경우에는 사물인식 추적 단계(S303)의 추적 결과를 종합 추적 결과로 사용할 수도 있다. 또한, 그 중간에는 각각에 가중치를 부여하여 합산한 추적 결과를 종합 추적 결과로 생성할 수 있다.The comprehensive tracking step (S304) generates a comprehensive tracking result based on the tracking result of the object recognition tracking step (S303) and the tracking result of the non-recognition tracking step (S302). If the tracking reliability for the tracking result of the non-recognized tracking step (S302) is high, a comprehensive tracking result may be generated using the tracking result of the non-recognized tracking step (S302) entirely, and the tracking of the non-recognized tracking step (S302) When the reliability is low and the tracking reliability of the object recognition tracking step S303 is high, the tracking result of the object recognition tracking step S303 may be used as a comprehensive tracking result. In addition, in the middle, a weight may be given to each and the summed tracking result may be generated as a comprehensive tracking result.

종합 추적 단계(S304)는 이를 위하여, 추적 신뢰도 값을 이용하여 상기 사물인식 추적 단계(S303)의 추적 결과와 상기 비인식 추적 단계(S302)의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성할 수 있다. 또한, 상기 비인식 추적 단계(S302)의 추적 신뢰도 값을 기초로 비인식 추적 단계(S302)의 추적 결과의 가중치를 구하고, 상기 사물인식 추적 단계(S303)의 추적 신뢰도 값과 상기 비인식 추적 단계(S302)의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적 단계(S303)의 추적 결과의 가중치를 구할 수 있다. 가중치는 0에서 1 사이의 값을 가지도록 하고, 한 쪽의 추적결과만 사용하는 경우에는 해당 방법의 가중치를 1로 하고, 반대쪽 방법의 가중치를 0으로 설정하도록 할 수 있다.To this end, the comprehensive tracking step (S304) obtains the weights of the tracking result of the object recognition tracking step (S303) and the tracking result of the non-recognition tracking step (S302) by using the tracking reliability value, and reflects them to perform comprehensive tracking results can be generated. In addition, the weight of the tracking result of the non-recognition tracking step (S302) is obtained based on the tracking reliability value of the non-recognition tracking step (S302), and the tracking reliability value of the object recognition tracking step (S303) and the non-recognition tracking step Based on the difference in the tracking reliability value of ( S302 ), the weight of the tracking result of the object recognition tracking step ( S303 ) can be obtained. The weight may have a value between 0 and 1, and when only one tracking result is used, the weight of the method may be set to 1, and the weight of the other method may be set to 0.

본 발명은 종래의 방법과 달리 비인식 추적 단계(S302) 및 사물인식 추적 단계(S303)에서 각각 추적을 진행하여 추적의 정확도를 높이도록 한 것이므로, 종래의 방법에 비해 많은 연산을 위한 리소스를 차지하게 된다. 따라서, 사물인식 추적 단계(S303)는 비인식 추적 단계(S302)의 추적 신뢰도 값이 소정의 기준치 이상인 경우에는 사물을 추적하지 않다가, 추적 신뢰도 값이 상기 기준치 이하로 내려가는 경우에만 추적을 하도록 할 수 있다. 즉, 사물이 화면 내에서 이동하는 중에는 비인식 추적 단계(S302)의 추적 방법을 적용하다가, 사물이 화면 밖으로 이동하거나 고속으로 이동하여 비인식 추적 단계(S302)에서 추적 신뢰도가 떨어지게 되면 사물인식 추적 단계(S303)에서 추적을 실행하고, 추적 결과를 종합하여 활용하도록 할 수 있다. 이를 통해 연산 리소스 사용을 최소화하면서도 추적의 성능을 극대화할 수 있다.In the present invention, unlike the conventional method, since tracking is performed in each of the non-recognition tracking step (S302) and the object recognition tracking step (S303) to increase the tracking accuracy, it occupies more resources than the conventional method. will do Therefore, in the object recognition tracking step (S303), if the tracking reliability value of the non-recognition tracking step (S302) is greater than or equal to a predetermined reference value, the object is not tracked, and only when the tracking reliability value falls below the reference value. can That is, while the tracking method of the non-recognition tracking step (S302) is applied while the object is moving within the screen, when the tracking reliability decreases in the non-recognition tracking step (S302) because the object moves out of the screen or moves at high speed, object recognition tracking In step S303, the tracking may be executed, and the tracking results may be synthesized and utilized. In this way, it is possible to maximize the performance of tracing while minimizing the use of computational resources.

본 발명에 따른 사물 추적 방법은 컴퓨터가 실행하도록 기능시키기 위한 프로그램으로 제작되어 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The object tracking method according to the present invention may be recorded in a computer-readable recording medium produced as a program for causing a computer to execute.

컴퓨터로 읽을 수 있는 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CDROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of the computer-readable recording medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CDROM and DVD, and a magneto-optical medium such as a floppy disk. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for carrying out the processing according to the present invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있다.Although the above has been described with reference to the embodiments, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention described in the claims below.

101: 사물 추적 시스템
110: 사물 정보 수신부 120: 비인식 추적부
130: 사물인식 추적부 140: 종합 추적부
101: object tracking system
110: object information receiving unit 120: non-recognition tracking unit
130: object recognition tracking unit 140: comprehensive tracking unit

Claims (11)

복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신하는 사물 정보 수신부;
상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적하는 비인식 추적부;
상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적하는 사물인식 추적부 및
상기 사물인식 추적부의 추적 결과 및 상기 비인식 추적부의 추적 결과를 기초로 종합 추적 결과를 생성하는 종합 추적부
를 포함하는 사물 추적 시스템.
an object information receiver configured to receive information about an object to be tracked in video data composed of a plurality of frames;
a non-recognized tracking unit for tracking the movement of the object to be tracked using the location of the object to be tracked in the previous frame of the moving picture data and the current frame;
an object recognition tracking unit for recognizing the object to be tracked for each frame of the video data and tracking the movement of the object; and
Comprehensive tracking unit for generating a comprehensive tracking result based on the tracking result of the object recognition tracking unit and the tracking result of the non-recognition tracking unit
An object tracking system comprising a.
제1항에 있어서,
상기 사물인식 추적부 및 상기 비인식 추적부는 각각 추적 신뢰도 값을 계산하고,
상기 종합 추적부는
상기 추적 신뢰도 값을 이용하여 상기 사물인식 추적부의 추적 결과와 상기 비인식 추적부의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성하는 것
을 특징으로 하는 사물 추적 시스템.
According to claim 1,
The object recognition tracking unit and the non-recognition tracking unit calculate a tracking reliability value, respectively,
The comprehensive tracking unit
Obtaining the weight of the tracking result of the object recognition tracking unit and the tracking result of the non-recognition tracking unit using the tracking reliability value, respectively, and reflecting this to generate a comprehensive tracking result
Object tracking system, characterized in that.
제2항에 있어서,
상기 종합 추적부는
상기 비인식 추적부의 추적 신뢰도 값을 기초로 비인식 추적부의 추적 결과의 가중치를 구하고,
상기 사물인식 추적부의 추적 신뢰도 값과 상기 비인식 추적부의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적부의 추적 결과의 가중치를 구하는 것
을 특징으로 하는 사물 추적 시스템.
3. The method of claim 2,
The comprehensive tracking unit
Obtaining the weight of the tracking result of the unrecognized tracking unit based on the tracking reliability value of the non-recognized tracking unit,
Obtaining the weight of the tracking result of the object recognition tracking unit based on the difference between the tracking reliability value of the object recognition tracking unit and the tracking reliability value of the non-recognition tracking unit
Object tracking system, characterized in that.
제3항에 있어서,
상기 사물인식 추적부는
상기 비인식 추적부의 추적 신뢰도 값이 소정의 기준치 이하인 경우에만 상기 추적할 사물의 이동을 추적하고,
상기 종합 추적부는
상기 사물인식 추적부가 이동을 추적하지 않는 경우에는 상기 비인식 추적부의 추적 결과를 종합 추적 결과로 생성하는 것
을 특징으로 하는 사물 추적 시스템.
4. The method of claim 3,
The object recognition tracking unit
tracking the movement of the object to be tracked only when the tracking reliability value of the unrecognized tracking unit is less than or equal to a predetermined reference value;
The comprehensive tracking unit
When the object recognition tracking unit does not track movement, generating the tracking result of the non-recognition tracking unit as a comprehensive tracking result
Object tracking system, characterized in that.
제1항에 있어서,
상기 사물인식 추적부는
상기 추적할 사물에 관한 정보 기초로 상기 추적할 사물이 학습된 종류의 사물인지 확인하고,
학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하고,
상기 종합 추적부는
상기 사물인식 추적부가 이동을 추적하지 않는 경우에는 상기 비인식 추적부 추적 결과를 종합 추적 결과로 생성하는 것
을 특징으로 하는 사물 추적 시스템.
According to claim 1,
The object recognition tracking unit
Checking whether the object to be tracked is a learned type of object based on the information about the object to be tracked,
Track the movement of the object to be tracked only if it is a learned type of object,
The comprehensive tracking unit
When the object recognition tracking unit does not track movement, generating the non-recognition tracking unit tracking result as a comprehensive tracking result
Object tracking system, characterized in that.
메모리 및 중앙처리장치를 구비하는 사물 추적 시스템의 사물 추적 방법에 있어서,
복수의 프레임으로 구성된 동영상 데이터에서 추적할 사물에 관한 정보를 수신하는 사물 정보 수신 단계;
상기 동영상 데이터의 이전 프레임에서의 상기 추적할 사물의 위치와 현재 프레임을 이용하여 상기 추적할 사물의 이동을 추적하는 비인식 추적 단계;
상기 동영상 데이터의 각각의 프레임 별로 상기 추적할 사물을 인식하여 상기 사물의 이동을 추적하는 사물인식 추적 단계 및
상기 사물인식 추적 단계의 추적 결과 및 상기 비인식 추적 단계의 추적 결과를 기초로 종합 추적 결과를 생성하는 종합 추적 단계
를 포함하는 사물 추적 방법.
In the object tracking method of the object tracking system having a memory and a central processing unit,
an object information receiving step of receiving information about an object to be tracked in video data composed of a plurality of frames;
a non-recognized tracking step of tracking the movement of the object to be tracked using the current frame and the location of the object to be tracked in the previous frame of the moving picture data;
an object recognition tracking step of recognizing the object to be tracked for each frame of the video data and tracking the movement of the object;
A comprehensive tracking step of generating a comprehensive tracking result based on the tracking result of the object recognition tracking step and the tracking result of the non-recognition tracking step
An object tracking method comprising
제6항에 있어서,
상기 사물인식 추적 단계 및 상기 비인식 추적 단계는 각각 추적 신뢰도 값을 계산하고,
상기 종합 추적 단계는
상기 추적 신뢰도 값을 이용하여 상기 사물인식 추적 단계의 추적 결과와 상기 비인식 추적 단계의 추적 결과의 가중치를 각각 구하고, 이를 반영하여 종합 추적 결과를 생성하는 것
을 특징으로 하는 사물 추적 방법.
7. The method of claim 6,
The object recognition tracking step and the non-recognition tracking step calculate a tracking reliability value, respectively,
The comprehensive tracking step is
Obtaining the weight of the tracking result of the object recognition tracking step and the tracking result of the non-recognition tracking step using the tracking reliability value, respectively, and reflecting this to generate a comprehensive tracking result
An object tracking method, characterized in that
제7항에 있어서,
상기 종합 추적 단계는
상기 비인식 추적 단계의 추적 신뢰도 값을 기초로 비인식 추적 단계의 추적 결과의 가중치를 구하고,
상기 사물인식 추적 단계의 추적 신뢰도 값과 상기 비인식 추적 단계의 추적 신뢰도 값의 차이를 기초로 상기 사물인식 추적 단계의 추적 결과의 가중치를 구하는 것
을 특징으로 하는 사물 추적 방법.
8. The method of claim 7,
The comprehensive tracking step is
Obtaining the weight of the tracking result of the unrecognized tracking step based on the tracking reliability value of the non-recognized tracking step,
Obtaining the weight of the tracking result of the object recognition tracking step based on the difference between the tracking reliability value of the object recognition tracking step and the tracking reliability value of the non-recognition tracking step
An object tracking method, characterized in that
제8항에 있어서,
상기 사물인식 추적 단계는
상기 비인식 추적 단계의 추적 신뢰도 값이 소정의 기준치 이하인 경우에만 상기 추적할 사물의 이동을 추적하고,
상기 종합 추적 단계는
상기 사물인식 추적 단계가 이동을 추적하지 않는 경우에는 상기 비인식 추적 단계 추적 결과를 종합 추적 결과로 생성하는 것
을 특징으로 하는 사물 추적 방법.
9. The method of claim 8,
The object recognition tracking step is
tracking the movement of the object to be tracked only when the tracking reliability value of the unrecognized tracking step is less than or equal to a predetermined reference value;
The comprehensive tracking step is
When the object recognition tracking step does not track movement, generating the tracking result of the non-recognition tracking step as a comprehensive tracking result
An object tracking method, characterized in that
제6항에 있어서,
상기 사물인식 추적 단계는
상기 추적할 사물에 관한 정보 기초로 상기 추적할 사물이 학습된 종류의 사물인지 확인하고,
학습된 종류의 사물인 경우에만 추적할 사물의 이동을 추적하고,
상기 종합 추적 단계는
상기 사물인식 추적 단계가 이동을 추적하지 않는 경우에는 상기 비인식 추적 단계의 추적 결과를 종합 추적 결과로 생성하는 것
을 특징으로 하는 사물 추적 방법.
7. The method of claim 6,
The object recognition tracking step is
Checking whether the object to be tracked is a learned type of object based on the information about the object to be tracked,
Track the movement of the object to be tracked only if it is a learned type of object,
The comprehensive tracking step is
When the object recognition tracking step does not track movement, generating the tracking result of the non-recognition tracking step as a comprehensive tracking result
An object tracking method, characterized in that
제6항 내지 제10항 중 어느 한 항의 방법을 컴퓨터가 실행하도록 기능시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.
A computer-readable recording medium in which a program for causing a computer to execute the method of any one of claims 6 to 10 is recorded.
KR1020200177195A 2020-12-17 2020-12-17 A Hybrid Object Tracking System and Method therefor KR102538919B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200177195A KR102538919B1 (en) 2020-12-17 2020-12-17 A Hybrid Object Tracking System and Method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200177195A KR102538919B1 (en) 2020-12-17 2020-12-17 A Hybrid Object Tracking System and Method therefor

Publications (2)

Publication Number Publication Date
KR20220086940A true KR20220086940A (en) 2022-06-24
KR102538919B1 KR102538919B1 (en) 2023-06-01

Family

ID=82216005

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200177195A KR102538919B1 (en) 2020-12-17 2020-12-17 A Hybrid Object Tracking System and Method therefor

Country Status (1)

Country Link
KR (1) KR102538919B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346370A (en) * 2004-06-02 2005-12-15 Mitsubishi Electric Corp Object-tracking device
KR20150059191A (en) * 2013-11-21 2015-06-01 한국해양과학기술원 Method of real-time recognizing and tracking for underwater objects using sonar images
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
KR20160123647A (en) 2015-04-16 2016-10-26 한국전자통신연구원 Apparatus and method for providing additional information usung object tracking
KR20170012287A (en) * 2014-05-29 2017-02-02 퀄컴 인코포레이티드 Efficient forest sensing based eye tracking
KR20170022872A (en) * 2016-07-13 2017-03-02 아이디어주식회사 Unmanned aerial vehicle having Automatic Tracking
KR20190116681A (en) * 2018-04-05 2019-10-15 주식회사 에스제이피랩 The controlling system of the broadcasting image equipment with objcct tracking algorithm

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346370A (en) * 2004-06-02 2005-12-15 Mitsubishi Electric Corp Object-tracking device
KR20150059191A (en) * 2013-11-21 2015-06-01 한국해양과학기술원 Method of real-time recognizing and tracking for underwater objects using sonar images
KR20170012287A (en) * 2014-05-29 2017-02-02 퀄컴 인코포레이티드 Efficient forest sensing based eye tracking
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
KR20160123647A (en) 2015-04-16 2016-10-26 한국전자통신연구원 Apparatus and method for providing additional information usung object tracking
KR20170022872A (en) * 2016-07-13 2017-03-02 아이디어주식회사 Unmanned aerial vehicle having Automatic Tracking
KR20190116681A (en) * 2018-04-05 2019-10-15 주식회사 에스제이피랩 The controlling system of the broadcasting image equipment with objcct tracking algorithm

Also Published As

Publication number Publication date
KR102538919B1 (en) 2023-06-01

Similar Documents

Publication Publication Date Title
US11107222B2 (en) Video object tracking
JP7147078B2 (en) Video frame information labeling method, apparatus, apparatus and computer program
Motiian et al. Online human interaction detection and recognition with multiple cameras
US20230042187A1 (en) Behavior recognition method and system, electronic device and computer-readable storage medium
WO2021050773A1 (en) Keypoint based pose-tracking using entailment
CN113393496A (en) Target tracking method based on space-time attention mechanism
Shetty et al. Movie review prediction system by real time analysis of facial expression
Fontanel et al. Detecting anomalies in semantic segmentation with prototypes
CN114663957A (en) Face detection method, and training method and device of face detection model
CN116958267B (en) Pose processing method and device, electronic equipment and storage medium
KR102538919B1 (en) A Hybrid Object Tracking System and Method therefor
CN111784750A (en) Method, device and equipment for tracking moving object in video image and storage medium
Csurka et al. Direct identification of moving objects and background from 2D motion models
Naphade et al. Detecting semantic concepts using context and audiovisual features
Mizher et al. Action key frames extraction using l1-norm and accumulative optical flow for compact video shot summarisation
JP2020035098A (en) Image processing system and information processing method and program
CN113658222A (en) Vehicle detection tracking method and device
CN113129332A (en) Method and apparatus for performing target object tracking
Zhang et al. A joint system for person tracking and face detection
US20240054611A1 (en) Systems and methods for encoding temporal information for video instance segmentation and object detection
US11847823B2 (en) Object and keypoint detection system with low spatial jitter, low latency and low power usage
CN116612537B (en) Semi-supervised action detection method based on background weakening and consistency calculation
CN113129330B (en) Track prediction method and device for movable equipment
KR20230072237A (en) System and Method for Detecting Objects using Spatio-temporal Information
KR20230072709A (en) System and Method for Salient Object Detection based on Deep Learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right