CN110060276B - 对象追踪方法、追踪处理方法、相应的装置、电子设备 - Google Patents

对象追踪方法、追踪处理方法、相应的装置、电子设备 Download PDF

Info

Publication number
CN110060276B
CN110060276B CN201910314829.1A CN201910314829A CN110060276B CN 110060276 B CN110060276 B CN 110060276B CN 201910314829 A CN201910314829 A CN 201910314829A CN 110060276 B CN110060276 B CN 110060276B
Authority
CN
China
Prior art keywords
image frame
target object
tracking
determining
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910314829.1A
Other languages
English (en)
Other versions
CN110060276A (zh
Inventor
王一同
黄军
季兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910314829.1A priority Critical patent/CN110060276B/zh
Publication of CN110060276A publication Critical patent/CN110060276A/zh
Priority to PCT/CN2020/082043 priority patent/WO2020211624A1/zh
Priority to US17/335,910 priority patent/US11967089B2/en
Application granted granted Critical
Publication of CN110060276B publication Critical patent/CN110060276B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本申请实施例提供了一种对象追踪方法、追踪处理方法、相应的装置、电子设备,该方法对象追踪方法能够在对象跟踪丢失时,通过提取的目标对象的第一局部特征,实现丢失对象的检测与重定位,以对目标对象进行重新跟踪,有效地解决现有技术方案在对象跟踪丢失时难以继续跟踪的问题。

Description

对象追踪方法、追踪处理方法、相应的装置、电子设备
技术领域
本申请涉及计算机视觉技术领域,具体而言,本申请涉及一种对象追踪方法、追踪处理方法、相应的装置、电子设备。
背景技术
对象跟踪是计算机视觉技术领域中一个热门的研究课题。对象跟踪的基本流程是,对于一个实时的视频流,在某一帧给定一个初始跟踪框来框出某个对象,并在随后的每一帧中不断地更新跟踪框,以保持不断地跟随着这个对象。对象跟踪技术在视频编辑等应用场景都有着重要的作用。
不过,本申请的发明人发现,现有的对象跟踪方案仍旧存在一些问题:当对象跟踪丢失(例如离开摄像头可见视野)再回归时,现有方案无法实现继续跟踪。
发明内容
为克服上述技术问题或者至少部分地解决上述技术问题,特提出以下技术方案:
第一方面,本申请实施例提供了一种对象追踪方法,该方法包括:
对于视频流中初始目标对象区域所在的第一图像帧,提取初始目标对象区域内的目标对象的第一局部特征;
根据初始目标对象区域在第一图像帧中的位置,在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪;
其中,在跟踪过程中,若目标对象在第一后续图像帧中的第二图像帧中跟踪丢失,则执行以下步骤:
根据第一局部特征,在从第二图像帧开始的第二后续图像帧中确定目标对象第一次出现的第三图像帧;
基于初始目标对象区域在第一图像帧中的位置,确定第三图像帧中目标对象所在的目标对象区域的位置;
根据第三图像帧中目标对象区域的位置,在第三图像帧之后的图像帧中继续进行目标对象的跟踪。
在一种可选的实现方式中,根据第一局部特征,在从第二图像帧开始的第二后续图像帧中确定目标对象第一次出现的第三图像帧,包括:
从第二后续图像帧中的第二图像帧开始,重复执行提取图像帧中的第二局部特征,并将第二局部特征与第一局部特征进行匹配,得到匹配结果的步骤,直至匹配结果为匹配成功,匹配成功时对应的图像帧为第三图像帧。
在一种可选的实现方式中,将第二局部特征与第一局部特征进行匹配,得到匹配结果,包括:
确定第二局部特征中的每个特征点与第一局部特征的各个特征点之间的距离;
根据第二局部特征中的每个特征点与第一局部特征的各个特征点之间的距离,确定第二局部特征与第一局部特征之间的特征点匹配对;
若特征点匹配对的数量大于第一阈值,则得到匹配成功的匹配结果;
若特征点匹配对的数量不大于第一阈值,则得到匹配失败的匹配结果。
在一种可选的实现方式中,根据第二局部特征中的每个特征点与第一局部特征的各个特征点之间的距离,确定第二局部特征与第一局部特征之间的特征点匹配对,包括:
针对第二局部特征中的每个特征点,确定每个特征点与第一局部特征的各个特征点之间的距离中的次小距离与最小距离的比值;
对于每个特征点,若该特征点所对应的比值大于第二阈值,则确定该特征点和第一局部特征中与该特征点距离最小的特征点为一个特征点匹配对。
在一种可选的实现方式中,确定该特征点和第一局部特征中与该特征点距离最小的特征点为一个特征点匹配对之后,还包括:
若该一个特征点匹配对为误匹配对,则对该一个特征点匹配进行过滤;
确定第二局部特征与第一局部特征之间的特征点匹配对,包括:
将过滤后的各个特征点匹配对作为第二局部特征与第一局部特征之间的特征点匹配对。
在一种可选的实现方式中,基于初始目标对象区域在第一图像帧中的位置,确定第三图像帧中目标对象所在的目标对象区域的位置,包括:
根据特征点匹配对,确定第三图像帧与第一图像帧之间的单应矩阵;
基于初始目标对象区域在第一图像帧中的位置,及单应矩阵,确定第三图像帧中目标对象所在的目标对象区域的位置。
在一种可选的实现方式中,该方法还包括:通过以下方式确定目标对象在第一后续图像帧中的跟踪状态,其中,跟踪状态包括跟踪成功或跟踪丢失:
对于第一后续图像帧中的第四图像帧,根据第四图像帧的上一图像帧中的目标对象区域的位置,在第四图像帧中确定对上一图像帧中的目标对象区域的目标响应值;
若目标响应值不大于第三阈值,则确定目标对象在第四图像帧中跟踪丢失;
若目标响应值大于第三阈值,则确定目标对象在第四图像帧中跟踪成功。
在一种可选的实现方式中,在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪,包括:
通过核化相关滤波器KCF算法在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪;
通过核化相关滤波器KCF算法在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪之前,还包括:
根据设备信息,确定KCF参数;
根据KCF参数,初始化KCF算法。
在一种可选的实现方式中,根据设备信息,确定KCF参数,包括:
根据设备信息,确定设备级别;
根据设备级别,确定KCF参数。
在一种可选的实现方式中,根据设备信息,确定设备级别,包括:
根据预设的映射表和设备信息,确定设备级别;
其中,预设的映射表包含各种设备信息与各种设备级别之间的对应关系。
在一种可选的实现方式中,KCF参数包括KCF特征和滤波核,根据设备级别,确定KCF参数,包括:
若确定出设备级别为第一级别,则将方向梯度直方图HoG特征确定为KCF特征,并将高斯核确定为滤波核;
若确定出设备级别为第二级别,则将灰度像素确定为KCF特征,并将高斯核确定为滤波核;
若确定出设备级别为第三级别,则将灰度像素确定为KCF特征,并将线性核确定为滤波核;
其中,第一级别的设备的性能高于第二级别的设备的性能,第二级别的设备的性能高于第三级别的设备的性能。
在一种可选的实现方式中,设备信息包括以下至少一项:
设备的机型、设备的型号、设备的配置信息。
在一种可选的实现方式中,在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪,包括:
通过核化相关滤波器KCF算法在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪;
通过核化相关滤波器KCF算法在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪之前,还包括:
根据设置的候选KCF参数对应的测试帧率,从候选KCF参数中确定KCF参数;
根据KCF参数,初始化KCF算法。
在一种可选的实现方式中,第二局部特征与第一局部特征相对应,第一局部特征包括以下任一种:
ORB局部特征、SURF局部特征、SIFT局部特征。
第二方面,本申请实施例提供了一种追踪处理方法,该方法包括:
确定目标对象在视频流的各个图像帧中的位置信息,位置信息是通过第一方面或第一方面的任一可选的实现方式中所示的方法确定的;
根据位置信息,对目标对象进行相应的处理。
在一种可选的实现方式中,对目标对象进行相应的处理,包括以下至少一种:
确定目标对象的运动轨迹;
在位置信息对应的图像帧添加与目标对象关联的关联对象。
第三方面,本申请实施例提供了一种对象追踪装置,该装置包括:
提取模块,用于对于视频流中初始目标对象区域所在的第一图像帧,提取初始目标对象区域内的目标对象的第一局部特征;
对象跟踪模块,用于根据初始目标对象区域在第一图像帧中的位置,在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪;
对象重追踪模块,用于在跟踪过程中,若目标对象在第一后续图像帧中的第二图像帧中跟踪丢失,则执行以下步骤:
根据第一局部特征,在从第二图像帧开始的第二后续图像帧中确定目标对象第一次出现的第三图像帧;
基于初始目标对象区域在第一图像帧中的位置,确定第三图像帧中目标对象所在的目标对象区域的位置;
根据第三图像帧中目标对象区域的位置,在第三图像帧之后的图像帧中继续进行目标对象的跟踪。
在一种可选的实现方式中,对象重追踪模块在用于根据第一局部特征,在从第二图像帧开始的第二后续图像帧中确定目标对象第一次出现的第三图像帧时,具体用于:
从第二后续图像帧中的第二图像帧开始,重复执行提取图像帧中的第二局部特征,并将第二局部特征与第一局部特征进行匹配,得到匹配结果的步骤,直至匹配结果为匹配成功,匹配成功时对应的图像帧为第三图像帧。
在一种可选的实现方式中,对象重追踪模块在用于将第二局部特征与第一局部特征进行匹配,得到匹配结果时,具体用于:
确定第二局部特征中的每个特征点与第一局部特征的各个特征点之间的距离;
根据第二局部特征中的每个特征点与第一局部特征的各个特征点之间的距离,确定第二局部特征与第一局部特征之间的特征点匹配对;
若特征点匹配对的数量大于第一阈值,则得到匹配成功的匹配结果;
若特征点匹配对的数量不大于第一阈值,则得到匹配失败的匹配结果。
在一种可选的实现方式中,对象重追踪模块在用于根据第二局部特征中的每个特征点与第一局部特征的各个特征点之间的距离,确定第二局部特征与第一局部特征之间的特征点匹配对时,具体用于:
针对第二局部特征中的每个特征点,确定每个特征点与第一局部特征的各个特征点之间的距离中的次小距离与最小距离的比值;
对于每个特征点,若该特征点所对应的比值大于第二阈值,则确定该特征点和第一局部特征中与该特征点距离最小的特征点为一个特征点匹配对。
在一种可选的实现方式中,对象重追踪模块在用于确定该特征点和第一局部特征中与该特征点距离最小的特征点为一个特征点匹配对之后,还用于若该一个特征点匹配对为误匹配对,则对该一个特征点匹配进行过滤;
对象重追踪模块在用于确定第二局部特征与第一局部特征之间的特征点匹配对时,具体用于将过滤后的各个特征点匹配对作为第二局部特征与第一局部特征之间的特征点匹配对。
在一种可选的实现方式中,对象重追踪模块在用于基于初始目标对象区域在第一图像帧中的位置,确定第三图像帧中目标对象所在的目标对象区域的位置时,具体用于:
根据特征点匹配对,确定第三图像帧与第一图像帧之间的单应矩阵;
基于初始目标对象区域在第一图像帧中的位置,及单应矩阵,确定第三图像帧中目标对象所在的目标对象区域的位置。
在一种可选的实现方式中,对象重追踪模块还用于:通过以下方式确定目标对象在第一后续图像帧中的跟踪状态,其中,跟踪状态包括跟踪成功或跟踪丢失:
对于第一后续图像帧中的第四图像帧,根据第四图像帧的上一图像帧中的目标对象区域的位置,在第四图像帧中确定对上一图像帧中的目标对象区域的目标响应值;
若目标响应值不大于第三阈值,则确定目标对象在第四图像帧中跟踪丢失;
若目标响应值大于第三阈值,则确定目标对象在第四图像帧中跟踪成功。
在一种可选的实现方式中,对象跟踪模块在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪时,具体用于:
通过核化相关滤波器KCF算法在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪;
该装置还包括设置模块,在对象跟踪模块通过核化相关滤波器KCF算法在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪之前,用于:
根据设备信息,确定KCF参数;
根据KCF参数,初始化KCF算法。
在一种可选的实现方式中,设置模块在用于根据设备信息,确定KCF参数时,具体用于:
根据设备信息,确定设备级别;
根据设备级别,确定KCF参数。
在一种可选的实现方式中,设置模块在用于根据设备信息,确定设备级别时,具体用于:
根据预设的映射表和设备信息,确定设备级别;
其中,预设的映射表包含各种设备信息与各种设备级别之间的对应关系。
在一种可选的实现方式中,KCF参数包括KCF特征和滤波核,设置模块在用于根据设备级别,确定KCF参数时,具体用于:
若确定出设备级别为第一级别,则将方向梯度直方图HoG特征确定为KCF特征,并将高斯核确定为滤波核;
若确定出设备级别为第二级别,则将灰度像素确定为KCF特征,并将高斯核确定为滤波核;
若确定出设备级别为第三级别,则将灰度像素确定为KCF特征,并将线性核确定为滤波核;
其中,第一级别的设备的性能高于第二级别的设备的性能,第二级别的设备的性能高于第三级别的设备的性能。
在一种可选的实现方式中,设备信息包括以下至少一项:
设备的机型、设备的型号、设备的配置信息。
在一种可选的实现方式中,设置模块还用于:
根据设置的候选KCF参数对应的测试帧率,从候选KCF参数中确定KCF参数;
根据KCF参数,初始化KCF算法。
在一种可选的实现方式中,第二局部特征与第一局部特征相对应,第一局部特征包括以下任一种:
ORB局部特征、SURF局部特征、SIFT局部特征。
第四方面,本申请实施例提供了一种追踪处理装置,该装置包括:
确定模块,用于确定目标对象在视频流的各个图像帧中的位置信息,位置信息是通过第一方面或第一方面的任一可选的实现方式中所示的方法确定的;
处理模块,用于根据位置信息,对目标对象进行相应的处理。
在一种可选的实现方式中,处理模块在用于对目标对象进行相应的处理时,具体用于以下至少一种:
确定目标对象的运动轨迹;
在位置信息对应的图像帧添加与目标对象关联的关联对象。
第五方面,本申请实施例提供了一种电子设备,该电子设备包括:
处理器和存储器,存储器存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现本申请实施例的第一方面或第一方面的任一可选的实现方式中所示的方法。
第六方面,本申请实施例提供了一种电子设备,该电子设备包括:
处理器和存储器,存储器存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现本申请实施例的第二方面或第二方面的任一可选的实现方式中所示的方法。
第七方面,本申请实施例提供了一种计算机可读存储介质,计算机存储介质用于存储计算机指令、程序、代码集或指令集,当其在计算机上运行时,使得计算机执行以实现本申请实施例的第一方面或第一方面的任一可选的实现方式中所示的方法。
第八方面,本申请实施例提供了一种计算机可读存储介质,计算机存储介质用于存储计算机指令、程序、代码集或指令集,当其在计算机上运行时,使得计算机执行以实现本申请实施例的第二方面或第二方面的任一可选的实现方式中所示的方法。
本申请实施例提供的对象追踪方法、追踪处理方法、相应的装置、电子设备,能够在对象跟踪丢失时,通过提取的目标对象的第一局部特征,实现丢失对象的检测与重定位,以对目标对象进行重新跟踪,有效地解决现有技术方案在对象跟踪丢失时难以继续跟踪的问题。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图做简单的介绍。
图1为本申请实施例提供的对象追踪方法的流程示意图;
图2为本申请实施例提供的特征点检测的示意图;
图3a为本申请实施例提供的重新获取跟踪框的示意图一;
图3b为本申请实施例提供的重新获取跟踪框的示意图二;
图3c为本申请实施例提供的重新获取跟踪框的示意图三;
图4为本申请实施例提供的对象追踪流程图;
图5为本申请实施例提供的对象追踪装置的结构示意图。
具体实施方式
下面详细描述本申请的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能解释为对本申请的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请实施例提供了一种对象追踪方法,如图1所示,该方法包括:
步骤S101:对于视频流中初始目标对象区域所在的第一图像帧,提取初始目标对象区域内的目标对象的第一局部特征;
步骤S102(也可称为对象跟踪步骤):根据初始目标对象区域在第一图像帧中的位置,在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪;
步骤S103:在跟踪过程中,若目标对象在第一后续图像帧中的第二图像帧中跟踪丢失,则执行以下步骤:
步骤S1031:根据第一局部特征,在从第二图像帧开始的第二后续图像帧中确定目标对象第一次出现的第三图像帧;
步骤S1032:基于初始目标对象区域在第一图像帧中的位置,确定第三图像帧中目标对象所在的目标对象区域的位置;
步骤S1033:根据第三图像帧中目标对象区域的位置,在第三图像帧之后的图像帧中继续进行目标对象的跟踪。
本申请实施例提供的对象追踪方法,能够在对象跟踪丢失时,通过提取的目标对象的第一局部特征,实现丢失对象的检测与重定位,以对目标对象进行重新跟踪,有效地解决现有技术方案在对象跟踪丢失时难以继续跟踪的问题。
对于本申请实施例,不具体限定视频流的类型。作为示例,视频流可以为实时视频流数据,例如可以为视频采集设备实时采集的数据;或者视频流数据也可以为历史视频流数据,例如为本地存储的视频流数据、或者从网上下载的数据、或者从其他设备接收到的视频流数据。
本申请实施例中,目标对象区域即图像中目标对象所在的区域,也就是目标对象标记。为描述方便,下文中以跟踪框来代表目标对象区域进行描述,如初始目标对象区域即初始跟踪框,也就是开始进行目标对象跟踪时,视频流中目标对象所在的第一帧图像中的目标对象区域。
本申请实施例中,第一图像帧、初始跟踪框(初始目标对象区域)和/或目标对象,可以为指定的或者根据预定算法确定出的,例如在视频流开始播放后,可以在某一帧(对应第一图像帧)框定一个包含目标对象的跟踪框(对应初始跟踪框),以进行目标对象的跟踪。又例如可以通过识别视频流中的特定对象,并在该特定对象首次出现的视频帧(对应第一图像帧)中通过预定算法确定跟踪框(对应初始跟踪框),将该特定对象作为目标对象进行跟踪。其中,第一图像帧可能是视频流的第一个图像帧,也可能是第一个图像帧外的任一个图像帧,为便于描述,本申请实施例的下文描述中可以将第一图像帧表述为第K帧;目标对象是指图像帧中可被识别的物体,例如车辆、建筑、天空等;本申请实施例中,对这些内容不作具体限定。
本申请实施例的步骤S101中,对于视频流中初始跟踪框所在的第一图像帧(第K帧),需要提取初始跟踪框内的目标对象的第一局部特征。其中,提取的局部特征是指目标对象对应的一部分具有不变形和差异性的特征,可以采用局部特征描述子进行描述。本申请实施例中,可以使用的局部特征描述子包括但不限于ORB(Oriented FAST and RotatedBRIEF,快速定向快速旋转)局部特征描述子、SURF(Speed Up Robust Features,加速稳健特征)局部特征描述子、SIFT(Scale invariant feature transform,尺度不变特征变换)局部特征描述子等。也就是说,第一局部特征可以为以下任一种:ORB局部特征、SURF局部特征、SIFT局部特征。
本申请实施例中,提取的第一局部特征可以预先进行缓存,以便在步骤S103中可以进行至少一次的使用。
本申请实施例的步骤S102中,即对象跟踪步骤中,根据初始目标对象区域(初始跟踪框)在第一图像帧中的位置,在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪。
其中,第一后续图像帧是指从第一图像帧的下一图像帧开始的连续图像帧(第K+1帧~第K+N帧,N≥2)。
本申请实施例中,可以通过预定跟踪算法在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪。预定跟踪算法可以采用相关滤波算法,与基于CNN的方案需要依赖一个高复杂度的CNN模型而导致实时性不佳,以及基于光流的方案准确性有所欠缺相比,采用相关滤波算法在性能和速度上可以取得很好的折中。
本申请实施例中,以预定跟踪算法采用KCF(Kernelized Correlation Filters,核化相关滤波器)算法为例,介绍对象跟踪步骤的实现方式,具体地,通过核化相关滤波器KCF算法在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪,其中,KCF算法的基本思想是利用核相关滤波,不断在上一帧输出跟踪框(第一次则是初始跟踪框)的基础上,更新计算当前帧的跟踪框的位置,同时利用时域转频域的操作加速计算,可以使地跟踪过程快速且准确。
具体地,结合第一图像帧(第K帧)和初始跟踪框第一图像帧上的位置,采样出正负样本,训练一个面向目标对象的分类器(回归器);在每一帧(对应第一后续图像帧中的任一图像帧),对上一帧跟踪框的位置进行扩大得到一个扩大范围,该扩大范围内包含与跟踪框大小相同的多个滑窗,利用已训练好的分类器(回归器)计算每个滑窗的响应值,并确定响应值最大的滑窗的响应值,当响应值足够大时,将该滑窗作为跟踪结果(即确定更新的跟踪框)。结合更新的跟踪框的位置和这一图像采样出正负样本,用于更新分类器(回归器),用于下一帧执行类似过程,以进行目标对象的跟踪。
本申请实施例中,不限定步骤S101和步骤S102的执行顺序,例如步骤S101和步骤S102可以同时执行,也可以分别执行,本领域技术人员可以根据实际情况进行设置。
本申请实施例的步骤S103中,在跟踪过程中,若目标对象在第一后续图像帧中的第二图像帧中跟踪丢失,则执行步骤S1031至步骤S1033。
其中,第二图像帧是指在对第一后续图像帧进行连续跟踪的过程中,出现对象跟踪丢失的第一个图像帧,可能是第K+1帧~第K+N帧中的任一帧,为描述方便,下文中以第二图像帧是第K+N帧为例。
本申请实施例中,目标对象在图像帧中的跟踪状态包括跟踪成功或跟踪丢失,例如第二图像帧的跟踪状态为跟踪丢失,第二图像帧的前一个图像帧的跟踪状态为跟踪成功,可以通过以下方式确定目标对象在第一后续图像帧中的跟踪状态:
以每个当前帧作为第四图像帧进行描述,对于第一后续图像帧中的第四图像帧,根据第四图像帧的上一图像帧中的目标对象区域的位置,在第四图像帧中确定对上一图像帧中的目标对象区域的目标响应值,例如可以对于第一后续图像帧中的第四图像帧,根据第四图像帧的上一图像帧中的跟踪框的位置,在第四图像帧中确定对上一图像帧中的跟踪框的目标响应值。
结合上文可知,对当前帧的跟踪过程中,会对上一帧跟踪框的位置进行扩大得到一个扩大范围,该扩大范围内包含与跟踪框大小相同的多个滑窗,利用已训练好的分类器(回归器)计算每个滑窗的响应值,并确定响应值最大的滑窗,将其响应值作为目标响应值,当目标响应值足够大时,确定出对象未跟踪丢失,此时可以将该滑窗作为当前帧的跟踪结果(即确定更新的跟踪框),本申请实施例中,在响应值最大的滑窗的目标响应值过小时,确定出对象跟踪丢失。具体地,可以通过设置的第三阈值来确定目标响应值足够大还是过小。若目标响应值不大于第三阈值,则确定目标对象在第四图像帧中跟踪丢失;若目标响应值大于第三阈值,则确定目标对象在第四图像帧中跟踪成功。对于第一后续图像帧中的每个图像帧的跟踪状态,都可以通过上述第四图像帧的处理方式来确定。即第四图像帧可以是第一后续图像帧中的任意图像帧。
本申请实施例的步骤S1031中,根据第一局部特征,在从第二图像帧开始的第二后续图像帧中确定目标对象第一次出现的第三图像帧;
其中,第二后续图像帧是指从第二图像帧开始的连续图像帧(第K+N帧~第K+N+M帧)。
第三图像帧是指对象跟踪丢失后,在第二后续图像帧中重新检测到目标对象的第一个图像帧。
实际应用中,在第二后续图像帧中从第二图像帧开始逐帧检测是否存在目标对象,直到在第三图像帧中检测到目标对象后,停止继续检测。
本申请实施例中,步骤S1031可通过以下方式实现:
从第二后续图像帧中的第二图像帧开始,重复执行提取图像帧中的第二局部特征,并将第二局部特征与第一局部特征进行匹配,得到匹配结果的步骤,直至匹配结果为匹配成功,匹配成功时对应的图像帧为第三图像帧。
也就是说,在从第二图像帧开始到第三图像帧中,对于每一图像帧,都会全图提取第二局部特征,并将第二局部特征与第一局部特征进行匹配,其中,由于第三图像帧之前的图像帧中不存在目标特征,提取的第二局部特征与第一局部特征会匹配失败,直至第三图像帧提取的第二局部特征与第一局部特征匹配成功,即可确定出第三图像帧中存在目标对象。
本申请实施例的步骤S1032中,基于初始目标对象区域在第一图像帧中的位置,确定第三图像帧中目标对象所在的目标对象区域的位置,进而在步骤S1033中,根据第三图像帧中目标对象区域的位置,在第三图像帧之后的图像帧中继续进行目标对象的跟踪。
本申请实施例中,可以基于初始目标对象区域在第一图像帧中的位置,确定第三图像帧中目标对象所在的目标对象区域的位置,将第三图像帧中目标对象区域的位置作为新的目标对象区域,将第三图像帧作为新的第一图像帧,继续执行对象跟踪步骤。即类似步骤S102的处理过程,根据新的跟踪框在第三图像帧中的位置,通过预定跟踪算法在视频流中第三图像帧的第三后续图像帧中进行目标对象的跟踪。进一步地,若在跟踪过程中,目标对象再一次跟踪丢失,则可以继续执行类似步骤S103的过程。循环执行这些过程,直至接收到停止跟踪指令或者视频流播放结束。
下面以提取的局部特征是为ORB特征为例,介绍提取局部特征以及基于局部特征进行匹配来重新查找目标对象的过程。
由上文的介绍可知,局部特征的提取主要发生在两种阶段。一种是初次标定初始跟踪框的阶段,这一阶段只需要提取初始跟踪框内的所有ORB局部特征(对应第一局部特征)即可,同时需要记录每个ORB局部特征在原图的坐标以及初始跟踪框的左上角和右下角在原图的坐标。另一种是当对象跟踪丢失后,需要在特定图像帧的全图上提取ORB局部特征(对应第二局部特征)。
具体地,ORB特征提取包括特征点检测和特征点描述两个过程。
特征点检测:ORB采用改进的FAST算法来检测关键点(即特征点)的位置。具体计算过程如下,如图2所示:
1、选取图像中的一个像素点P,把它的灰度值计为Ip
2、以P的位置为圆心,3像素为半径画一个圆,记录圆对应的16个像素点的灰度值(Ii,1≤i≤16);
3、设定一个合适的阈值t,当Ii与Ip差的绝对值大于t时,认为这Ii对应的像素点与P点不相同;
4、检查位置1、9、5和13四个像素点与P点是否相同(可以先检查1和9是否与P点相同,如果是,再检查5和13)。如果该四个像素点中至少有3个和P点相同,则认为p点是一个关键点。
特征点描述:ORB采用改进的BRIEF算法来计算关键点的描述子。
具体计算过程如下:
1、计算关键点P的方向(可以是通过统计关键点P的质心和原点的向量方向得到的);
2、将关键点P的方向朝预定方向进行旋转;
3、在旋转后的关键点P的周围以一定的模式选取L个点对,把这L个点对的比较结果组合起来作为二值化的描述子,即BRIEF描述子,该BRIEF描述子具有旋转不变性。
作为示例地,图3a示出了包含同一目标对象(图中所示的卡通人像)的两幅图像(图中只简单示出了目标图像部分),分别针对图3a中两幅图像中的该目标对象进行局部特征的提取,特征点的提取结果如图中的黑色符号“×”所示,由图中可以看出其中,两个图的局部特征是相对应的。
本申请实施例中,在提取第二局部特征之后,将第二局部特征与第一局部特征进行匹配,得到匹配结果的过程包括:
(1)确定第二局部特征中的每个特征点与第一局部特征的各个特征点之间的距离。
其中,确定的距离可以包括但不限于汉明距离、欧式距离等。本申请实施例中以汉明距离为例进行介绍。
即对于提取到的第二局部特征中的每个特征点,都与缓存好的第一局部特征的各个特征点进行比对,计算汉明距离。
(2)根据第二局部特征中的每个特征点与第一局部特征的各个特征点之间的距离,确定第二局部特征与第一局部特征之间的特征点匹配对,如图3b所示,在图3a的基础上,两个图的局部特征中的各个特征点基于相似度进行匹配,得到特征点匹配对(对应图3b中左图和右图之间的连线,每条两线上的两个特征点即为一个特征点匹配对)。
具体地,针对第二局部特征中的每个特征点,确定每个特征点与第一局部特征的各个特征点之间的距离中的次小距离与最小距离的比值;
作为示例地,对于第二局部特征中的特征点A,在第一局部特征中确定与特征点A汉明距离最小的特征点C以及与特征点A汉明距离次小的特征点B,确定特征点A和特征点B之间的第一汉明距离,特征点A和特征点C之间的第二汉明距离,并计算第一汉明距离与第二汉明距离的比值。
进一步地,对于每个特征点,若该特征点所对应的比值大于第二阈值,则确定该特征点和第一局部特征中与该特征点距离最小的特征点为一个特征点匹配对。
接上例,当第一汉明距离与第二汉明距离的比值大于预设阈值(第二阈值)时,则认为A和C是一个特征点匹配对。对第二局部特征中的每一个特征点均采用上述过程进行处理,即可得到第二局部特征与第一局部特征之间的全部特征点匹配对。
本申请实施例中,可以直接根据全部特征点匹配对来得到匹配结果,或者可以对得到的全部特征点匹配对进行几何校验,确定过滤后的特征点匹配对,用来得到匹配结果,例如如图3b中,四条连线中的最下方一条连线显然是误匹配,可以进行过滤。
具体地,在确定出一个特征点匹配对之后,若该一个特征点匹配对为误匹配对,则对该一个特征点匹配进行过滤;总的来说,将过滤后的各个特征点匹配对作为第二局部特征与第一局部特征之间的特征点匹配对,用来得到匹配结果。
可选地,得到所有匹配对以后,利用RANSAC算法过滤其中的误匹配,具体计算过程如下:
1、从候选特征点匹配对中确定匹配对样本,计算匹配对样本的变换矩阵,例如从候选特征点匹配对中随机抽出4个匹配对样本,计算其变换矩阵,将计算出的变换矩阵记为M。
2、确定候选特征点匹配对中符合该变换矩阵的匹配对,得到内点集合,即计算候选特征点匹配对中第一组数据利用M投影之后,与第二组数据的投影误差,若数据的投影误差小于设定的阈值,则将该数据加入内点集合I。
3、将内点集合中的各个特征点匹配对,通过过程1和2进行迭代,更新内点集合;即重新利用内点集合I内的特征点匹配对计算变换矩阵M并计算投影误差,直到迭代次数达到预设值。
4、根据最终得到的内点集合,得到匹配结果,即在内点集合I内的特征点匹配对才是过滤后的特征点匹配对。
(3)根据特征点匹配对的数量与第一阈值的关系,得到匹配结果。
具体地,若特征点匹配对的数量大于第一阈值,则得到匹配成功的匹配结果;这时可以匹配成功时对应的图像帧为第三图像帧,重新对目标对象进行跟踪。
若特征点匹配对的数量不大于第一阈值,则得到匹配失败的匹配结果。这是可以进入下一个图像帧继续提取第二局部特征,并与第一局部特征进行匹配。
其他实施例中,还可以通过其他方法将第二局部特征中的每个特征点与第一局部特征的各个特征点基于相似度进行匹配,确定第二局部特征与第一局部特征之间的特征点匹配对。
本申请实施例中,在第三图像帧的第二局部特征与第一局部特征匹配成功后,可以基于初始跟踪框在第一图像帧中的位置,在第三图像帧中确定目标对象所在的新的跟踪框的位置,用来重新对目标对象进行跟踪。
具体地,根据特征点匹配对,确定第三图像帧与第一图像帧之间的单应矩阵,即根据每个特征点匹配对分别对应第一图像帧和第三图像帧的坐标,计算两个图像帧之间单应矩阵。
基于初始目标对象区域在第一图像帧中的位置及单应矩阵,确定第三图像帧中目标对象所在的目标对象区域的位置,即根据单应矩阵,将初始跟踪框的左上角坐标和右下角坐标投影到第三图像帧上,得到第三图像帧中新的跟踪框的左上角坐标和右下角坐标,也就是得到了第三图像帧中确定新的跟踪框的位置,例如如图3c所示(该图中是基于过滤后的特征点匹配对来确定两幅图像之间的单应矩阵的),根据左图中跟踪框的左上角坐标和右下角坐标,得到右图中对应的跟踪框的左上角坐标和右下角坐标,实现了第三图像帧中目标对象的重定位,进而可以根据新的跟踪框在第三图像帧中的位置,通过预定跟踪算法在视频流中第三图像帧的后续图像帧中继续进行目标对象的跟踪。
对于本申请实施例,上述方法的执行主体可以为服务器,该服务器可以包括物理服务器和/或云端服务器,具体的,服务器可以基于本申请实施例所提供的方法,对数据库中或接收到的视频流进行处理,并将追踪处理结果发送给终端设备进行展示。或者,上述方法的执行主体也可以为终端设备,例如移动终端等,或者也可以为安装于终端设备上的应用程序。实际应用中,移动终端可以包括诸如移动电话、智能电话、平板电脑、笔记本电脑、个人数字助理、便携式多媒体播放器、导航装置等。本领域技术人员可以理解的是,除了特别用于移动目的的元件之外,根据本申请的实施方式的构造也能够应用于固定类型的终端,诸如数字电视、台式计算机等。
实际应用中,上述预定跟踪算法可以采用LK(Lucas-Kanade)光流法,通过计算光流特征点进行匹配的方式,实现跟踪框的定位。或者,也可以采用基于相关滤波的对象跟踪算法,其具有速度快、精度高的特点,或者也可以采用基于CNN(Convolutional NeuralNetworks,卷积神经网络)的对象跟踪算法,能够在场景中均取得非常好的效果。
考虑到在上述几类对象跟踪方案中,基于CNN的方案需要依赖一个高复杂度的CNN模型,而基于LK光流的方案准确性有所欠缺,因此本申请实施例结合基于相关滤波的跟踪方法,针对不同设备算力差异较大的情况,还提出了一种根据设备的机型确定预定跟踪算法的跟踪参数的方案,下面以预定跟踪算法为KCF算法为例进行介绍。
一种可行的实现方式中,在上述各实施例执行之前,或者在步骤S102执行之前,需要读取设备信息,包括但不限于设备的机型、设备的型号、设备的配置信息中的至少一项。
根据设备信息,确定KCF参数;根据KCF参数,初始化KCF算法,以通过KCF算法进行目标对象的跟踪。
具体而言,可以根据设备信息,确定设备级别;根据设备级别,确定KCF参数。
影响KCF速度的相关参数包含特征的选取以及滤波核的选择,不同参数配置下的KCF跟踪的速度和精度将会有所区别,速度越快则精度越低。本申请实施例中,确定的KCF参数包括KCF特征和滤波核。
若确定出设备级别为第一级别,则将HoG(方向梯度直方图)特征确定为KCF特征,并将高斯核确定为滤波核。此时跟踪效果最佳,配置要求高。
若确定出设备级别为第二级别,则将灰度像素确定为KCF特征,并将高斯核确定为滤波核。此时跟踪效果为中档,配置要求为中档。
若确定出设备级别为第三级别,则将灰度像素确定为KCF特征,并将线性核确定为滤波核。此时跟踪效果最差,但配置要求低,速度最快。
其中,第一级别的设备的性能高于第二级别的设备的性能,第二级别的设备的性能高于第三级别的设备的性能。
为便于描述,下文中将第一级别的设备称为高端机,第二级别的设备称为中端机,第三级别的设备称为低端机。
本申请实施例中根据预设的映射表和设备信息来确定设备级别。其中,预设的映射表包含各种设备信息与各种设备级别之间的对应关系。作为示例地,若设备信息为CPU(Central Processing Unit,中央处理器)主频,可以将CPU主频>2GHz的设备定为高端机,1.5GHz<CPU主频<2GHz的设备定为中端机,CPU主频<1.5GHz的设备定为低端机。
另一种可行的实现方式中,在上述各实施例执行之前,或者在步骤S102执行之前,根据设置的候选KCF参数对应的测试帧率,从候选KCF参数中确定KCF参数;根据KCF参数,初始化KCF算法,以通过KCF算法进行目标对象的跟踪。
即通过实时运行三种类型的候选KCF参数,动态计算帧率来测试设备适合的KCF参数。作为示例地,首先设置KCF特征选取为HoG特征,同时滤波核选取为高斯核,若此时测试帧率大于30FPS,则采用该KCF参数作为KCF参数;否则设置KCF特征为灰度像素(将跟踪框调整大小至固定尺度,并灰度化),同时滤波核选取为高斯核,若此时测试帧率大于30FPS,则采用该KCF参数作为KCF参数;否则设置KCF特征为灰度像素,同时滤波核选取为线性核,作为KCF参数。
本申请实施例中,通过针对不同的设备采用不同的跟踪算法参数,能够将上述方法可伸缩、自适应地运行在不同的设备上,达到良好的适配效果和兼容效果。
需要说明的是,第一局部特征和第二局部特征仅表示从不同类型的图像帧中提取的局部特征,而不能理解为对局部特征数量或类型的限定。实际应用中,第二局部特征是一个或多个图像帧中都会分别全图提取的局部特征,且第一局部特征和第二局部特征是对应于同一种局部特征描述子的局部特征,是用于相互匹配的。
同理地,第一图像帧、第二图像帧、第三图像帧和第四图像帧用来表示不同进度和情形下的图像帧,而不能理解为对图像帧顺序或位置或数量的限定。实际应用中,第一图像帧、第二图像帧、第三图像帧和第四连续帧可以是视频流中的连续图像帧,也可以是包含间隔图像帧的,还可能是重叠的图像帧。且第二图像帧和第三图像帧可能在视频流中不出现,或出现一次或多次。在第一次出现第二图像帧和第三图像帧后,还可能再次出现第二图像帧和第三图像帧,第二图像帧和第四图像帧可能为同一图像帧等。
同理地,第一阈值、第二阈值和第三阈值表示不同情境下设置的阈值,而不能理解为阈值大小的限定。
为了更好的说明本申请实施例的方案,下面结合一个具体示例对本申请实施例的方案进行进一步详细描述。具体的,该示例中,对象追踪方法的执行主体为智能手机,图4中示出了本示例中的一种对象追踪方法的流程示意图。其中,对象追踪可理解为追索对象踪迹,包括连续跟踪过程以及对象跟踪丢失时的重新追踪。具体而言,流程描述如下,其中,各步骤之间不限定执行顺序,以实际运用的流程顺序为准。
1、应用开始时,读取相应设备(图4中以手机为例)的型号,并根据手机型号确定设备级别(高端机型、中端机型还是低端机型),根据设备级别设置KCF参数。具体设置方法参数上文中的描述,在此不再赘述。
2、实时视频流开始后,在某一个帧(指定为第K帧)框定一个初始跟踪框,跟踪算法启动:KCF算法根据初始跟踪框和KCF参数,初始化KCF算法,训练后续所使用的KCF分类器/回归器,进行对象跟踪。同时对初始跟踪框跟踪框内的对象提取ORB局部特征(对应图中的待跟踪对象的ORB局部特征)。
3、从第K+1帧开始,KCF算法不断在上一帧输出跟踪框(第K帧则是标定的初始跟踪框)的基础上进行相关滤波,更新计算当前帧新的跟踪框位置,并返回该跟踪框位置的响应值。
4、如果响应值大于阈值,则系统认为跟踪成功,对象未跟踪丢失,下帧继续跟踪。
5、如果响应值不大于阈值,则针对当前帧全图提取ORB局部特征,并和预先缓存好的待跟踪对象的ORB局部特征进行匹配。
6、当进入ORB局部特征匹配的步骤后,判断匹配对个数是否大于预设阈值,如果没有,则认为对象已经跟踪丢失,则从下一帧开始不断进行全图ORB特征提取及匹配的操作。
7、否则,认为ORB特征匹配成功,根据ORB特征匹配的结果计算单应矩阵,并根据单应矩阵计算当前帧新的跟踪框的位置,并利用这个新的跟踪框的位置和KCF参数(可以是获取之前已经设置好的,也可以重新进行设置),重新初始化KCF算法,训练KCF分类器/回归器,进行对象跟踪。
8、此时对象跟踪又回到利用KCF算法跟踪的状态,直到对象下一次跟踪丢失(响应值小于阈值)。
本申请实施例提供的对象追踪方法,根据设备的机型确定跟踪算法参数来实现对象跟踪;当对象跟踪丢失时,通过局部描述子匹配的方法丢失对象的检测与重定位,以对目标对象进行重新跟踪,有效地解决现有技术方案在对象跟踪丢失时难以继续跟踪的问题。
本申请实施例提供的对象追踪方法,可应用在短视频、视频编辑等应用场景中。
具体而言,本申请实施例还提供了一种追踪处理方法,该方法包括:
步骤S201:确定目标对象在视频流的各个图像帧中的位置信息,位置信息是通过上述任一实施例所示的追踪处理方法确定的;
对于本申请实施例,不具体限定视频流的类型。作为示例地,视频流可以为实时视频流数据,例如为采集设备实时采集的数据;或者视频流数据也可以为历史视频流数据,例如为存储的或者下载的数据。
目标对象为视频流的各个图像帧中可被识别的物体,例如车辆、建筑、天空等。
一种可行的实现方式中,可以直接根据追踪处理方法中使用的跟踪框来确定目标对象在图像帧中的位置信息。
另一种可行的实现方式中,可以重新提取各个图像帧的局部特征,与预先提取的目标对象的局部特征进行匹配,确定目标对象在各个图像帧中的位置。其中,局部特征的提取方式和匹配方式可参见上文中的介绍,在此不再赘述。
结合上文中的各实施例可知,在某些图像帧中对象可能跟踪丢失,此时确定的位置信息可以为空。
步骤S202:根据位置信息,对目标对象进行相应的处理。
在一种可选的实现方式中,对目标对象进行相应的处理,包括以下至少一种:
(1)确定目标对象的运动轨迹。
在该场景中,目标对象即为被跟踪者,目标对象的运动轨迹即被跟踪者的行动轨迹。本申请实施例可以通过对象跟踪方法确定的位置信息来管理被跟踪者的行动轨迹。
其中,当某些图像帧的位置信息为空时,这些图像帧的轨迹可以进行根据之前的图像帧的运动轨迹和之后的图像帧的运动轨迹进行预测,也可以直接得到分段运动轨迹。
(2)在位置信息对应的图像帧添加与目标对象关联的关联对象。
例如可以应用在短视频、视频编辑等场景中。在这些场景中,目标对象即拍摄的对象,目标对象关联的关联对象可以为贴纸、挂件、特效等展示效果,也可以为其他素材。本申请实施例可以通过对象跟踪方法确定的位置信息来实现关联对象紧紧跟随拍摄的对象的效果,或者实现按照特定轨迹展示关联对象的效果。即使某些图像帧的位置信息为空,也不影响后续图像帧的展示效果。
本申请实施例提供的追踪处理方法,在对视频流的相应处理过程中,及时对象跟踪丢失也可以继续进行追踪,从而实现完整的处理效果,有效提升用户体验。
本领域技术人员应能理解,上述业务场景仅为举例,可以基于该范例进行的适当变化以用于其他场景,也可以属于本申请的精神或范畴。
本申请实施例还提供了一种对象追踪装置,如图5所示,该对象追踪装置50可以包括:提取模块501、对象跟踪模块502和对象重追踪模块503,其中,
提取模块501用于对于视频流中初始目标对象区域所在的第一图像帧,提取初始目标对象区域内的目标对象的第一局部特征;
对象跟踪模块502用于根据初始目标对象区域在第一图像帧中的位置,在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪;
对象重追踪模块503用于在跟踪过程中,若目标对象在第一后续图像帧中的第二图像帧中跟踪丢失,则执行以下步骤:
根据第一局部特征,在从第二图像帧开始的第二后续图像帧中确定目标对象第一次出现的第三图像帧;
基于初始目标对象区域在第一图像帧中的位置,确定第三图像帧中目标对象所在的目标对象区域的位置;
根据第三图像帧中目标对象区域的位置,在第三图像帧之后的图像帧中继续进行目标对象的跟踪。
在一种可选的实现方式中,对象重追踪模块503在用于根据第一局部特征,在从第二图像帧开始的第二后续图像帧中确定目标对象第一次出现的第三图像帧时,具体用于:
从第二后续图像帧中的第二图像帧开始,重复执行提取图像帧中的第二局部特征,并将第二局部特征与第一局部特征进行匹配,得到匹配结果的步骤,直至匹配结果为匹配成功,匹配成功时对应的图像帧为第三图像帧。
在一种可选的实现方式中,对象重追踪模块503在用于将第二局部特征与第一局部特征进行匹配,得到匹配结果时,具体用于:
确定第二局部特征中的每个特征点与第一局部特征的各个特征点之间的距离;
根据第二局部特征中的每个特征点与第一局部特征的各个特征点之间的距离,确定第二局部特征与第一局部特征之间的特征点匹配对;
若特征点匹配对的数量大于第一阈值,则得到匹配成功的匹配结果;
若特征点匹配对的数量不大于第一阈值,则得到匹配失败的匹配结果。
在一种可选的实现方式中,对象重追踪模块503在用于根据第二局部特征中的每个特征点与第一局部特征的各个特征点之间的距离,确定第二局部特征与第一局部特征之间的特征点匹配对时,具体用于:
针对第二局部特征中的每个特征点,确定每个特征点与第一局部特征的各个特征点之间的距离中的次小距离与最小距离的比值;
对于每个特征点,若该特征点所对应的比值大于第二阈值,则确定该特征点和第一局部特征中与该特征点距离最小的特征点为一个特征点匹配对。
在一种可选的实现方式中,对象重追踪模块503在用于确定该特征点和第一局部特征中与该特征点距离最小的特征点为一个特征点匹配对之后,还用于若该一个特征点匹配对为误匹配对,则对该一个特征点匹配进行过滤;
对象重追踪模块503在用于确定第二局部特征与第一局部特征之间的特征点匹配对时,具体用于将过滤后的各个特征点匹配对作为第二局部特征与第一局部特征之间的特征点匹配对。
在一种可选的实现方式中,对象重追踪模块503在用于基于初始目标对象区域在第一图像帧中的位置,确定第三图像帧中目标对象所在的目标对象区域的位置时,具体用于:
根据特征点匹配对,确定第三图像帧与第一图像帧之间的单应矩阵;
基于初始目标对象区域在第一图像帧中的位置,及单应矩阵,确定第三图像帧中目标对象所在的目标对象区域的位置。
在一种可选的实现方式中,对象重追踪模块503还用于:通过以下方式确定目标对象在第一后续图像帧中的跟踪状态,其中,跟踪状态包括跟踪成功或跟踪丢失:
对于第一后续图像帧中的第四图像帧,根据第四图像帧的上一图像帧中的目标对象区域的位置,在第四图像帧中确定对上一图像帧中的目标对象区域的目标响应值;
若目标响应值不大于第三阈值,则确定目标对象在第四图像帧中跟踪丢失;
若目标响应值大于第三阈值,则确定目标对象在第四图像帧中跟踪成功。
在一种可选的实现方式中,对象跟踪模块在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪时,具体用于:
通过核化相关滤波器KCF算法在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪;
该装置还包括设置模块,在对象跟踪模块通过核化相关滤波器KCF算法在视频流中第一图像帧的第一后续图像帧中进行目标对象的跟踪之前,用于:
根据设备信息,确定KCF参数;
根据KCF参数,初始化KCF算法。
在一种可选的实现方式中,设置模块在用于根据设备信息,确定KCF参数时,具体用于:
根据设备信息,确定设备级别;
根据设备级别,确定KCF参数。
在一种可选的实现方式中,设置模块在用于根据设备信息,确定设备级别时,具体用于:
根据预设的映射表和设备信息,确定设备级别;
其中,预设的映射表包含各种设备信息与各种设备级别之间的对应关系。
在一种可选的实现方式中,KCF参数包括KCF特征和滤波核,设置模块在用于根据设备级别,确定KCF参数时,具体用于:
若确定出设备级别为第一级别,则将方向梯度直方图HoG特征确定为KCF特征,并将高斯核确定为滤波核;
若确定出设备级别为第二级别,则将灰度像素确定为KCF特征,并将高斯核确定为滤波核;
若确定出设备级别为第三级别,则将灰度像素确定为KCF特征,并将线性核确定为滤波核;
其中,第一级别的设备的性能高于第二级别的设备的性能,第二级别的设备的性能高于第三级别的设备的性能。
在一种可选的实现方式中,设备信息包括以下至少一项:
设备的机型、设备的型号、设备的配置信息。
在一种可选的实现方式中,设置模块还用于:
根据设置的候选KCF参数对应的测试帧率,从候选KCF参数中确定KCF参数;
根据KCF参数,初始化KCF算法。
在一种可选的实现方式中,第二局部特征与第一局部特征相对应,第一局部特征包括以下任一种:
ORB局部特征、SURF局部特征、SIFT局部特征。
所属领域的技术人员可以清楚地了解到,本申请实施例提供的对象追踪装置,其实现原理及产生的技术效果和前述方法实施例相同,为描述的方便和简洁,装置实施例部分未提及之处,可参考前述方法实施例中相应内容,在此不再赘述。
本申请实施例提供的对象追踪装置,能够在对象跟踪丢失时,通过提取的目标对象的第一局部特征,实现丢失对象的检测与重定位,以对目标对象进行重新跟踪,有效地解决现有技术方案在对象跟踪丢失时难以继续跟踪的问题。
本申请实施例还提供了一种追踪处理装置,该追踪处理装置可以包括:确定模块以及处理模块,其中,
确定模块用于确定目标对象在视频流的各个图像帧中的位置信息,位置信息是通过第一方面或第一方面的任一可选的实现方式中所示的方法确定的;
处理模块用于根据位置信息,对目标对象进行相应的处理。
在一种可选的实现方式中,处理模块在用于对目标对象进行相应的处理时,具体用于以下至少一种:
确定目标对象的运动轨迹;
在位置信息对应的图像帧添加与目标对象关联的关联对象。
所属领域的技术人员可以清楚地了解到,本申请实施例提供的追踪处理装置,其实现原理及产生的技术效果和前述方法实施例相同,为描述的方便和简洁,装置实施例部分未提及之处,可参考前述方法实施例中相应内容,在此不再赘述。
本申请实施例还提供了一种电子设备,包括:处理器和存储器,存储器存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现前述方法实施例中相应内容。
可选地,电子设备还可以包括收发器。处理器和收发器相连,如通过总线相连。需要说明的是,实际应用中收发器不限于一个,该电子设备的结构并不构成对本申请实施例的限定。
其中,处理器可以是CPU,通用处理器,DSP,ASIC,FPGA或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请实施例公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线可包括一通路,在上述组件之间传送信息。总线可以是PCI总线或EISA总线等。总线可以分为地址总线、数据总线、控制总线等。存储器可以是ROM或可存储静态信息和指令的其他类型的静态存储设备,RAM或者可存储信息和指令的其他类型的动态存储设备,也可以是EEPROM、CD-ROM或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
本申请实施例提供的电子设备,能够有效挖掘自然语言描述信息的词性序列和待描述视频的视频特征序列之间的语义关系,并提供给解码器更多的特征利用空间,与现有技术中仅利用了视频级别的视觉特征,而忽略了自然语言中词性的影响相比,本申请实施例可以对待描述视频生成准确的自然语言描述信息,提高视频描述信息生成的性能,从而有助于对视频进行理解和分析,例如进行视频分类和检索等,具有潜在的经济效益。
本申请实施例还提供了一种可读存储介质,例如为计算机可读存储介质,该计算机存储介质用于存储计算机指令,当其在计算机上运行时,使得计算机可以执行前述方法实施例中相应内容。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上仅是本申请的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (14)

1.一种对象追踪方法,其特征在于,包括:
对于视频流中初始目标对象区域所在的第一图像帧,提取所述初始目标对象区域内的目标对象的第一局部特征;
根据所述初始目标对象区域在所述第一图像帧中的位置,在所述视频流中所述第一图像帧的第一后续图像帧中进行所述目标对象的跟踪;
其中,在跟踪过程中,若所述目标对象在所述第一后续图像帧中的第二图像帧中跟踪丢失,则执行以下步骤:
根据所述第一局部特征,在从所述第二图像帧开始的第二后续图像帧中确定所述目标对象第一次出现的第三图像帧;
确定所述第三图像帧中的第二局部特征与所述第一局部特征之间的特征点匹配对;
根据所述特征点匹配对,确定所述第三图像帧与所述第一图像帧之间的单应矩阵;
基于所述初始目标对象区域在所述第一图像帧中的位置,及所述单应矩阵,确定所述第三图像帧中所述目标对象所在的目标对象区域的位置;
根据所述第三图像帧中目标对象区域的位置,在所述第三图像帧之后的图像帧中继续进行所述目标对象的跟踪。
2.根据权利要求1所述的对象追踪方法,其特征在于,所述根据所述第一局部特征,在从所述第二图像帧开始的第二后续图像帧中确定所述目标对象第一次出现的第三图像帧,包括:
从所述第二后续图像帧中的第二图像帧开始,重复执行提取图像帧中的第二局部特征,并将所述第二局部特征与所述第一局部特征进行匹配,得到匹配结果的步骤,直至匹配结果为匹配成功,匹配成功时对应的图像帧为所述第三图像帧。
3.根据权利要求2所述的对象追踪方法,其特征在于,所述将所述第二局部特征与所述第一局部特征进行匹配,得到匹配结果,包括:
确定所述第二局部特征中的每个特征点与所述第一局部特征的各个特征点之间的距离;
根据所述第二局部特征中的每个特征点与所述第一局部特征的各个特征点之间的距离,确定所述第二局部特征与所述第一局部特征之间的特征点匹配对;
若特征点匹配对的数量大于第一阈值,则得到匹配成功的匹配结果;
若特征点匹配对的数量不大于所述第一阈值,则得到匹配失败的匹配结果。
4.根据权利要求3所述的对象追踪方法,其特征在于,所述根据所述第二局部特征中的每个特征点与所述第一局部特征的各个特征点之间的距离,确定所述第二局部特征与所述第一局部特征之间的特征点匹配对,包括:
针对所述第二局部特征中的每个特征点,确定每个特征点与所述第一局部特征的各个特征点之间的距离中的次小距离与最小距离的比值;
对于每个特征点,若该特征点所对应的所述比值大于第二阈值,则确定该特征点和所述第一局部特征中与该特征点距离最小的特征点为一个特征点匹配对。
5.根据权利要求1所述的对象追踪方法,其特征在于,还包括:通过以下方式确定所述目标对象在所述第一后续图像帧中的跟踪状态,其中,所述跟踪状态包括跟踪成功或跟踪丢失:
对于所述第一后续图像帧中的第四图像帧,根据所述第四图像帧的上一图像帧中的目标对象区域的位置,在所述第四图像帧中确定对所述上一图像帧中的目标对象区域的目标响应值;
若所述目标响应值不大于第三阈值,则确定所述目标对象在所述第四图像帧中跟踪丢失;
若所述目标响应值大于所述第三阈值,则确定所述目标对象在所述第四图像帧中跟踪成功。
6.根据权利要求1所述的对象追踪方法,其特征在于,所述在所述视频流中所述第一图像帧的第一后续图像帧中进行所述目标对象的跟踪,包括:
通过核化相关滤波器KCF算法在所述视频流中所述第一图像帧的第一后续图像帧中进行所述目标对象的跟踪;
所述通过核化相关滤波器KCF算法在所述视频流中所述第一图像帧的第一后续图像帧中进行所述目标对象的跟踪之前,还包括:
根据设备信息,确定KCF参数,或者
根据设置的候选KCF参数对应的测试帧率,从所述候选KCF参数中确定KCF参数;
根据所述KCF参数,初始化KCF算法。
7.根据权利要求6所述的对象追踪方法,其特征在于,所述根据设备信息,确定KCF参数,包括:
根据所述设备信息,确定设备级别;
根据所述设备级别,确定所述KCF参数。
8.根据权利要求7所述的对象追踪方法,其特征在于,所述根据所述设备信息,确定设备级别,包括:
根据预设的映射表和所述设备信息,确定所述设备级别;
其中,所述预设的映射表包含各种设备信息与各种设备级别之间的对应关系。
9.根据权利要求8所述的对象追踪方法,其特征在于,所述KCF参数包括KCF特征和滤波核,所述根据所述设备级别,确定所述KCF参数,包括:
若确定出所述设备级别为第一级别,则将方向梯度直方图HoG特征确定为KCF特征,并将高斯核确定为滤波核;
若确定出所述设备级别为第二级别,则将灰度像素确定为KCF特征,并将高斯核确定为滤波核;
若确定出所述设备级别为第三级别,则将灰度像素确定为KCF特征,并将线性核确定为滤波核;
其中,第一级别的设备的性能高于第二级别的设备的性能,第二级别的设备的性能高于第三级别的设备的性能。
10.一种追踪处理方法,其特征在于,包括:
确定目标对象在视频流的各个图像帧中的位置信息,所述位置信息是通过权利要求1-9任一项所述的对象追踪方法确定的;
根据所述位置信息,对目标对象进行相应的处理。
11.根据权利要求10所述的方法,其特征在于,所述对目标对象进行相应的处理,包括以下至少一种:
确定目标对象的运动轨迹;
在所述位置信息对应的图像帧添加与所述目标对象关联的关联对象。
12.一种对象追踪装置,其特征在于,包括:
提取模块,用于对于视频流中初始目标对象区域所在的第一图像帧,提取所述初始目标对象区域内的目标对象的第一局部特征;
对象跟踪模块,用于根据所述初始目标对象区域在所述第一图像帧中的位置,在所述视频流中所述第一图像帧的第一后续图像帧中进行所述目标对象的跟踪;
对象重追踪模块,用于在跟踪过程中,若所述目标对象在所述第一后续图像帧中的第二图像帧中跟踪丢失,则执行以下步骤:
根据所述第一局部特征,在从所述第二图像帧开始的第二后续图像帧中确定所述目标对象第一次出现的第三图像帧;
确定所述第三图像帧中的第二局部特征与所述第一局部特征之间的特征点匹配对;
根据所述特征点匹配对,确定所述第三图像帧与所述第一图像帧之间的单应矩阵;
基于所述初始目标对象区域在所述第一图像帧中的位置,及所述单应矩阵,确定所述第三图像帧中所述目标对象所在的目标对象区域的位置;
所述对象跟踪模块,还用于根据所述第三图像帧中目标对象区域的位置,在所述第三图像帧之后的图像帧中继续进行所述目标对象的跟踪。
13.一种追踪处理装置,其特征在于,包括:
确定模块,用于确定目标对象在视频流的各个图像帧中的位置信息,所述位置信息是通过权利要求1-9任一项所述的对象追踪方法确定的;
处理模块,用于根据所述位置信息,对目标对象进行相应的处理。
14.一种计算机可读存储介质,其特征在于,所述计算机存储介质用于存储计算机指令、程序、代码集或指令集,当其在计算机上运行时,使得计算机执行如权利要求1-11任一项所述的方法。
CN201910314829.1A 2019-04-18 2019-04-18 对象追踪方法、追踪处理方法、相应的装置、电子设备 Active CN110060276B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910314829.1A CN110060276B (zh) 2019-04-18 2019-04-18 对象追踪方法、追踪处理方法、相应的装置、电子设备
PCT/CN2020/082043 WO2020211624A1 (zh) 2019-04-18 2020-03-30 对象追踪方法、追踪处理方法、相应的装置、电子设备
US17/335,910 US11967089B2 (en) 2019-04-18 2021-06-01 Object tracking method, tracking processing method, corresponding apparatus, and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910314829.1A CN110060276B (zh) 2019-04-18 2019-04-18 对象追踪方法、追踪处理方法、相应的装置、电子设备

Publications (2)

Publication Number Publication Date
CN110060276A CN110060276A (zh) 2019-07-26
CN110060276B true CN110060276B (zh) 2023-05-16

Family

ID=67319648

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910314829.1A Active CN110060276B (zh) 2019-04-18 2019-04-18 对象追踪方法、追踪处理方法、相应的装置、电子设备

Country Status (3)

Country Link
US (1) US11967089B2 (zh)
CN (1) CN110060276B (zh)
WO (1) WO2020211624A1 (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110060276B (zh) 2019-04-18 2023-05-16 腾讯科技(深圳)有限公司 对象追踪方法、追踪处理方法、相应的装置、电子设备
CN110941989A (zh) * 2019-10-18 2020-03-31 北京达佳互联信息技术有限公司 图像校验、视频校验方法、装置、设备及存储介质
CN112215205B (zh) * 2020-11-06 2022-10-18 腾讯科技(深圳)有限公司 目标识别方法、装置、计算机设备和存储介质
CN112734803B (zh) * 2020-12-31 2023-03-24 山东大学 基于文字描述的单目标跟踪方法、装置、设备及存储介质
CN112837349A (zh) * 2021-02-09 2021-05-25 普联技术有限公司 一种目标跟踪方法、设备及计算机可读存储介质
CN113163254B (zh) * 2021-04-06 2023-03-28 广州津虹网络传媒有限公司 直播图像处理方法、装置及电子设备
TWI758162B (zh) * 2021-04-15 2022-03-11 和碩聯合科技股份有限公司 生物形體的追蹤系統及方法
CN113284253A (zh) * 2021-05-11 2021-08-20 西安邮电大学 一种改进核相关过滤波(kcf)算法的ar目标跟踪方法
CN113221805B (zh) * 2021-05-25 2022-08-02 云南电网有限责任公司电力科学研究院 一种电力设备图像位置获取方法及装置
CN113971684A (zh) * 2021-09-16 2022-01-25 中国人民解放军火箭军工程大学 一种基于kcf和surf特征的实时鲁棒目标跟踪方法
CN114554280B (zh) * 2022-01-14 2024-03-19 影石创新科技股份有限公司 影分身视频的生成方法、生成装置、电子设备及存储介质
CN117710697A (zh) * 2023-08-09 2024-03-15 荣耀终端有限公司 对象检测方法、电子设备、存储介质及程序产品
CN117132623B (zh) * 2023-10-26 2024-02-23 湖南苏科智能科技有限公司 物品追踪方法、装置、电子设备和存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101770568A (zh) * 2008-12-31 2010-07-07 南京理工大学 基于仿射不变点及光流计算的目标自动识别和跟踪方法
CN103106667A (zh) * 2013-02-01 2013-05-15 山东科技大学 一种面向遮挡和场景变换的运动对象追踪方法
JP2016099941A (ja) * 2014-11-26 2016-05-30 日本放送協会 オブジェクト位置推定システム、及びそのプログラム
CN106683121A (zh) * 2016-11-29 2017-05-17 广东工业大学 一种融合检测过程的鲁棒目标追踪方法
WO2017167159A1 (zh) * 2016-03-29 2017-10-05 中兴通讯股份有限公司 图像定位方法及装置
CN108198201A (zh) * 2017-12-19 2018-06-22 深圳市深网视界科技有限公司 一种多目标跟踪方法、终端设备及存储介质
CN109410245A (zh) * 2018-09-13 2019-03-01 北京米文动力科技有限公司 一种视频目标跟踪方法及设备
WO2019042426A1 (zh) * 2017-09-04 2019-03-07 腾讯科技(深圳)有限公司 增强现实场景的处理方法、设备及计算机存储介质
CN109613974A (zh) * 2018-10-18 2019-04-12 西安理工大学 一种大场景下的ar家居体验方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140169663A1 (en) * 2012-12-19 2014-06-19 Futurewei Technologies, Inc. System and Method for Video Detection and Tracking
CN105374050B (zh) * 2015-10-12 2019-10-18 浙江宇视科技有限公司 运动目标跟踪恢复方法及装置
JP6659524B2 (ja) * 2016-11-18 2020-03-04 株式会社東芝 移動体追跡装置、表示装置および移動体追跡方法
US10082554B1 (en) * 2017-07-01 2018-09-25 Tile, Inc. Dynamic selection and modification of tracking device behavior models
CN109003290A (zh) * 2017-12-11 2018-12-14 罗普特(厦门)科技集团有限公司 一种监控系统的视频跟踪方法
CN110060276B (zh) * 2019-04-18 2023-05-16 腾讯科技(深圳)有限公司 对象追踪方法、追踪处理方法、相应的装置、电子设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101770568A (zh) * 2008-12-31 2010-07-07 南京理工大学 基于仿射不变点及光流计算的目标自动识别和跟踪方法
CN103106667A (zh) * 2013-02-01 2013-05-15 山东科技大学 一种面向遮挡和场景变换的运动对象追踪方法
JP2016099941A (ja) * 2014-11-26 2016-05-30 日本放送協会 オブジェクト位置推定システム、及びそのプログラム
WO2017167159A1 (zh) * 2016-03-29 2017-10-05 中兴通讯股份有限公司 图像定位方法及装置
CN106683121A (zh) * 2016-11-29 2017-05-17 广东工业大学 一种融合检测过程的鲁棒目标追踪方法
WO2019042426A1 (zh) * 2017-09-04 2019-03-07 腾讯科技(深圳)有限公司 增强现实场景的处理方法、设备及计算机存储介质
CN108198201A (zh) * 2017-12-19 2018-06-22 深圳市深网视界科技有限公司 一种多目标跟踪方法、终端设备及存储介质
CN109410245A (zh) * 2018-09-13 2019-03-01 北京米文动力科技有限公司 一种视频目标跟踪方法及设备
CN109613974A (zh) * 2018-10-18 2019-04-12 西安理工大学 一种大场景下的ar家居体验方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Ying, L等.Low Complexity Homography Matrix Based SIFT for Real-Time 2D Rigid Object Tracking.《International Conference on Wireless Communications Networking &amp Mobile Computing IEEE》.2010,第1-4页. *
一种新颖高效的红外动态场景多目标检测跟踪算法;田广强;《红外技术》;第第40卷卷(第第3期期);第259-263页 *

Also Published As

Publication number Publication date
CN110060276A (zh) 2019-07-26
US11967089B2 (en) 2024-04-23
WO2020211624A1 (zh) 2020-10-22
US20210287381A1 (en) 2021-09-16

Similar Documents

Publication Publication Date Title
CN110060276B (zh) 对象追踪方法、追踪处理方法、相应的装置、电子设备
CN109558832B (zh) 一种人体姿态检测方法、装置、设备及存储介质
CN108388879B (zh) 目标的检测方法、装置和存储介质
US9087403B2 (en) Maintaining continuity of augmentations
US7936945B2 (en) System, method, device, and computer program product for providing image correction
WO2017096949A1 (zh) 一种对目标进行跟踪拍摄的方法、控制装置及系统
KR20160003066A (ko) 일반적인 카메라 움직임 및 파노라마 카메라 움직임을 갖는 단안 시각 slam
CN111104925B (zh) 图像处理方法、装置、存储介质和电子设备
CN110766025B (zh) 绘本识别方法、装置、系统及存储介质
CN107944381B (zh) 人脸跟踪方法、装置、终端及存储介质
Tian et al. Scene Text Detection in Video by Learning Locally and Globally.
CN111928842B (zh) 一种基于单目视觉实现slam定位的方法及相关装置
CN111928857B (zh) 一种动态环境中实现slam定位的方法及相关装置
CN111951325A (zh) 位姿跟踪方法、位姿跟踪装置及电子设备
CN113112542A (zh) 一种视觉定位方法、装置、电子设备及存储介质
CN115100659A (zh) 文本识别方法、装置、电子设备和存储介质
CN112991441A (zh) 相机定位方法、装置、电子设备及存储介质
Fan et al. A feature-based object tracking approach for realtime image processing on mobile devices
CN111476132A (zh) 视频场景识别方法、装置及电子设备、存储介质
WO2023273227A1 (zh) 指甲识别方法、装置、设备及存储介质
CN115393755A (zh) 视觉目标跟踪方法、装置、设备以及存储介质
CN112837349A (zh) 一种目标跟踪方法、设备及计算机可读存储介质
CN111476063B (zh) 目标跟踪方法、装置、存储介质和电子设备
CN115210758A (zh) 运动模糊稳健的图像特征匹配
CN109816709B (zh) 基于单目摄像头的深度估计方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant