CN108960084A - 目标追踪方法、系统、可读存储介质及电子设备 - Google Patents

目标追踪方法、系统、可读存储介质及电子设备 Download PDF

Info

Publication number
CN108960084A
CN108960084A CN201810632595.0A CN201810632595A CN108960084A CN 108960084 A CN108960084 A CN 108960084A CN 201810632595 A CN201810632595 A CN 201810632595A CN 108960084 A CN108960084 A CN 108960084A
Authority
CN
China
Prior art keywords
target
image
body surface
surface model
target tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810632595.0A
Other languages
English (en)
Inventor
袁春
林之冠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201810632595.0A priority Critical patent/CN108960084A/zh
Publication of CN108960084A publication Critical patent/CN108960084A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

一种目标追踪方法包括:将低分辨率图像重建为高分辨率的目标图像;根据所述目标图像训练出物体表面模型;根据训练得到的物体表面模型获取当前帧内目标的可能的位置;确定当前帧的目标的位置。本发明还提供了一种目标追踪系统、可读存储介质及电子设备。本发明一种目标追踪方法、系统、可读存储介质及电子设备,可将低分辨率的图像块生成为高分辨率的图像,有利于减少传统判别类追踪器在低分辨率场景下缺少信息判别的问题,还可根据确定的当前帧的目标的位置来更新物体表面模型,进而有利于提高目标追踪的确定度。

Description

目标追踪方法、系统、可读存储介质及电子设备
技术领域
本发明涉及计算机视觉与图像处理领域,尤其是涉及一种可基于低分辨率图像的目标追踪方法、系统、可读存储介质及电子设备。
背景技术
图像语义分割是计算机视觉领域中一项重要的研究内容,其目标是将图像分割成具有不同语义信息的区域,并且标注每个区域相应的语义标签,例如通过对一幅图像进行图像语义分割后可为图像中的物体添加语义标签(譬如桌子、墙壁、天空、人、狗等),可应用于例如无人驾驶等领域。
目前,用于图像语义分割的较主流的解决方案主要基于卷积神经网络(Convolutional Neural Networks,简称CNN),该网络学习图像的语义特征表示。比如全卷积网络(Fully Convolutional Networks,简称为FCN)通过构建包含卷积层、池化层和反卷积层的卷积神经网络,以端到端的方式将任意大小的输入图像转换为像素级的分类结果,为研究人员和工程师提供了一种简单而有效的方法来解决图像语义分割问题。DeepLab和DilatedNet把全卷积网络中普通卷积替换为扩散卷积使得语义分割预测时结合更多的上下文和场景信息。
然而,这些模型还存在各种各样的问题,特别是对于复杂的对象和多样的场景。例如全卷积网络忽略了图像的全局信息和潜在有用的场景语义上下文信息,因此容易将一些物体的某些部分错误地标注为其他物体。最近一些学者尝试融合更多的上下文信息和全局信息来解决这些容易预测错误的区域,例如DeepLab 和DilatedNet扩大了滤波器的感受野以融合更多的上下文,但遗漏了详细的信息,会把同一个物体预测成多个标签;ParseNet则融合了全局平均池化的特征以使这部分区域与全局标签统一,但对于场景复杂包含大量标签的图像则没有太大变化;DenseCRF基于全卷积网络的预测结果和图像的颜色纹理信息来进行后处理,合并颜色纹理相近但标签不同的区域,但容易把原本预测正确的区域合并为错误的区域。
以上背景技术内容的公开仅用于辅助理解本发明的发明构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日前已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
鉴于以上内容,有必要提供一种可提高追踪结果准确度的目标追踪方法、系统、可读存储介质及电子设备。
一种目标追踪方法,包括:
将低分辨率图像重建为高分辨率的目标图像;
根据所述目标图像训练出物体表面模型;
根据训练得到的物体表面模型获取当前帧内目标的可能的位置;
确定当前帧的目标的位置。
进一步地,所述目标追踪方法中,所述将低分辨率图像重建为高分辨率的目标图像包括:
对低分辨率图像进行插值操作,以得到插值低分辨率图像;
将插值低分辨率图像输入至卷积神经网络,以对低分辨率图像进行卷积操作,并输出卷积图像;
根据插值低分辨率图像及卷积图像生成所述目标图像。
进一步地,所述目标追踪方法中,所述对低分辨率图像进行插值操作包括:
对低分辨率图像进行双三次插值操作。
进一步地,所述目标追踪方法中,所述根据所述目标图像训练出物体表面模型包括:
对所述目标图像进行特征提取,以得到对应第一帧的目标框;
根据公式计算物体表面模型的矩阵w,其中所述公式为:
其中,x为所述目标框的M×N维的矩阵,y为M×N维的二维高斯分布所对应标签,分别为x,y,w经过傅立叶变换在频域的值,的共轭对称,⊙表示点乘,λ表示正则项,用于控制过拟合。
进一步地,所述目标追踪方法中,所述根据训练得到的物体表面模型获取当前帧内目标的可能的位置包括:
根据搜索窗及物体表面模型经傅立叶变换在频域的值计算响应图在频域的值其中:
其中,为z经过傅立叶变换在频域的值。对做傅立叶逆变换,得到响应图f(z)。
进一步地,所述目标追踪方法中,所述确定当前帧的目标的位置包括:
获取响应图对应的响应值;
将具有最大值的响应图的位置作为所述目标在当前帧的位置。
进一步地,所述目标追踪方法还包括:
更新所述物体表面模型。
进一步地,所述目标追踪方法中,所述更新所述物体表面模型包括:
根据当前帧目标的位置得到新目标框x1
再根据公式得到新的物体表面模型
根据公式更新所述物体表面模型,以得到新的物体表面模型w′:
w′=(1-α)w+αw1
其中,α是学习率,w1经过傅立叶逆变换在频域的值。
一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理执行时实现如目标追踪方法的步骤,所述目标追踪方法包括:
将低分辨率图像重建为高分辨率的目标图像;
根据所述目标图像训练出物体表面模型;
根据训练得到的物体表面模型获取当前帧内目标的可能的位置;
确定当前帧的目标的位置。
一种电子设备,包括存储器及处理器,所述存储器存储若干被所述处理器执行的程序,所述处理器执行所述程序时实现目标追踪方法的步骤,所述目标追踪方法包括:
将低分辨率图像重建为高分辨率的目标图像;
根据所述目标图像训练出物体表面模型;
根据训练得到的物体表面模型获取当前帧内目标的可能的位置;
确定当前帧的目标的位置。
本发提供一种目标追踪方法、系统、可读存储介质及电子设备,可将低分辨率的图像块生成为高分辨率的图像,有利于减少传统判别类追踪器在低分辨率场景下缺少信息判别的问题,还可根据确定的当前帧的目标的位置来更新物体表面模型,进而有利于提高目标追踪的确定度。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的目标追踪方法的第一较佳实施方式的流程图。
图2是图1中步骤S100的较佳实施方式的流程图。
图3是本发明提供的目标追踪方法的第二较佳实施方式的流程图。
图4是不同插值方法所对应的峰值信噪比的示意图。
图5是本发明电子设备与摄像装置连接的较佳实施方式的方框图。
图6是目标追踪系统的较佳实施方式的示意图。
图7是不同目标追踪方法的对比示意图。
主要元件符号说明
电子设备 40
处理器 401
显示屏 403
存储器 405
输入输出接口 407
总线 411
网络接口 409
摄像装置 419
目标追踪系统 417
如下具体实施例将结合上述附图进一步说明本发明。
具体实施例
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
下面结合附图和具体的实施方式对本发明作进一步说明。
请参阅图1,本发明目标追踪方法的第一较佳实施方式可包括如下步骤:
步骤S100,将低分辨率图像重建为高分辨率的目标图像。
可以理解地,可通过摄像装置对一定范围内的场景进行摄像,以获取对应该场景的图像或视频等影像信息,其中视频可包括若干帧的图像。在对目标(如动物、人或其他类型的物体)进行追踪时,被追踪的目标可能由于与摄像装置之间存在一定距离,或被追踪的目标可能会随着时间的变化而进行移动,进而可能导致被追踪的目标与摄像装置之间的距离亦发生变化,如此,使得摄像装置获取到的图像中的目标的分辨率较低。因而,可对低分辨率图像的进行重建操作,以生成具有高分辨率的目标图像,其中所述目标图像可包含被追踪的目标。本实施方式中,重建后的所述目标图像的分辨率(具有高分辨率)不小于重建前的图像(具有低分辨率)。
请一并参阅图2,所述步骤S100还可包括如下步骤:
步骤S200,对低分辨率图像进行插值操作,以得到插值低分辨率图像。可以理解地,可通过双三次插值的方法在图像中“插值”(Interpolating)或增加“像素”(Pixel)数量/密度。利用插值技术增加图形数据,以能够增大打印面积以及 (或者)分辨率。在其他实施方式中,亦可利用其他可以增加图像分辨率的方法。
步骤S202,将插值低分辨率图像输入至卷积神经网络,以对低分辨率图像进行卷积操作,并输出卷积图像。本实施方式中,所述卷积神经网络可包括多层卷积神经网络,如包括第一层卷积神经网络、第二层卷积神经网络及第三层卷积神经网络。所述卷积神经网络可通过梯度下降法和反向传导等算法不断优化网络模型。
步骤S204,根据插值低分辨率图像及卷积图像生成所述目标图像。
较佳地,可通过图像合成操作合成所述目标图像。较佳地,对所述插值低分辨率图像与所述卷积图像进行预处理,所述预处理包括但不限于对图像进行缩放、旋转、平移、减均值等操作。
请一并参阅图5,其为不同插值方法对目标原图进行插值操作后所对应的峰值信噪比。可以理解地,当通过双三次插值方法对目标原图进行插值操作时所对应的峰值信噪比为29.22,而本发明的重建方法所对应的峰值信噪比为30.28,显然,本发明的重建方法相对于双三次插值方法而言的效果更好。
步骤S102,根据所述目标图像训练出物体表面模型。
请一并参阅图7,可以理解地,可对所述目标图像进行特征提取,以得到对应第一帧的目标框。本实施方式中,对于灰度图像,可提取方向梯度直方图(HOG) 及局部变换直方图特征;对于彩色图像,则可提取方向梯度直方图(HOG)及颜色特征。方向梯度直方图(Histogram of Oriented Gradient,HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。局部变换直方图是用来解决HOG特征对于强光照变化过于敏感的问题,通过在6×6的区域内提取8位的亮度通道的局部直方图并经过排序变换(rank transform)得到局部变换直方图。颜色特征是用来弥补HOG特征提取过程中丢失的颜色信息。
所述目标框可表示为M×N维的矩阵x。另外,设定一个M×N维的二维高斯分布作为标签y。所述物体表面模型表示为M×N维的矩阵w。根据相关滤波的理论有公式:
其中,分别为x,y,w经过傅立叶变换在频域的值,的共轭对称,⊙表示点乘,λ表示正则项,用于控制过拟合。
步骤S104,根据训练得到的物体表面模型获取当前帧(或搜索区域内)目标可能的位置。
可以理解地,当对第t帧图像进行目标追踪时,可根据所述物体表面模型来获取所述第t帧图像中目标的可能位置。
假设当前的目标搜索窗为z,根据搜索窗及物体表面模型经傅立叶变换在频域的值计算响应图在频域的值
其中,为z经过傅立叶变换在频域的值。对做傅立叶逆变换,得到响应图f(z),进而可根据响应图得到目标可能的位置。
步骤S106,确定当前帧的目标的位置。
本实施方式中,通过目标搜索窗在所述第t帧图像进行搜索时可能存在多个响应图,如此,可通过比较多个响应图对应的响应值来获取目标位于当前帧的位置。较佳地,可获取多个响应值的最大值所对应的位置,并将具有最大值的响应图的位置作为所述目标在当前帧的位置。
请一并参阅图7,以OTB100数据集为基础,抽取出其中低分辨率的视频作为我们的数据集L380。低分辨率视频的标准是:50%的帧内的目标为低分辨率目标,低分辨率目标的标准是目标框包含像素数低于380。
在L380上与ECO,ECO-HC,HCF,CFNET,SRDCF,fDSST,KCF等 7个算法相比,其结果如87所示,本发明的方法比现在的方法在准确率和成功率上都有提升。
本发明提出了通过将低分辨率的图像块生成为高分辨率的图像块,有利于减少传统判别类追踪器在低分辨率场景下缺少信息判别的问题,本发明在 OTB100的数据集基础上提出了一个低分辨率数据集,并在该数据集上进行试验。实验结果表明,本发明实现低分辨率目标追踪技术提升了传统判别累追踪器的性能。
请一并参阅图4,本发明目标追踪方法的第二较佳实施方式包括:
步骤S300,将低分辨率图像重建为高分辨率的目标图像。
本实施方式中步骤S300与第一较佳实施方式中步骤S100一致,具体请参阅第一较佳实施方式中步骤S100的相关描述,在此不进行赘述。
步骤S302,根据所述目标图像训练出物体表面模型。
本实施方式中步骤S302与第一较佳实施方式中步骤S102一致,具体请参阅第一较佳实施方式中步骤S102的相关描述,在此不进行赘述。
步骤S304,根据训练得到的物体表面模型获取当前搜索区域内目标可能的位置。
本实施方式中步骤S304与第一较佳实施方式中步骤S104一致,具体请参阅第一较佳实施方式中步骤S104的相关描述,在此不进行赘述。
步骤S306,确定当前帧的目标的位置。
本实施方式中步骤S306与第一较佳实施方式中步骤S106一致,具体请参阅第一较佳实施方式中步骤S106的相关描述,在此不进行赘述。
步骤S308,更新所述物体表面模型。
可以理解地,可根据当前帧目标的位置得到新目标框x1,再根据公式得到新的物体表面模型
之后,根据公式更新所述物体表面模型,以得到新的物体表面模型w′:
w′=(1-α)w+αw1
其中,α是学习率,w1经过傅立叶逆变换在频域的值。
之后,可根据新的物体表面模型w′继续预测下一帧目标的位置。
本实施例提供的所述目标追踪方法,除具有第一较佳实施方式的技术效果外,还可根据确定的当前帧的目标的位置来更新物体表面模型,进而有利于提高目标追踪的确定度。
请参阅图6,本发明目标追踪系统417应用于电子设备40的较佳实施方式的方框图。所述电子设备40连接于摄像装置419,用于通过所述摄像装置419 获取一定范围内的图像。可以理解地,所述电子设备40可包括计算处理装置417,如手机、平板电脑、计算机等具有数据处理功能的电子设备。
所述电子设备40是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路 (ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field- Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备40可以是,但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、智能式穿戴式设备等。
所述电子设备40所处的网络包括,但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等,如所述电子设备40可网络接口409接入互联网、广域网、城域网、局域网、虚拟专用网络。
所述存储器405可以是不同类型存储设备或计算机可读存储介质,用于存储各类数据。例如,可以是电子设备40的内存,还可以是可外接于该电子设备 40的存储卡,如闪存、SM卡(Smart Media Card,智能媒体卡)、SD卡(Secure Digital Card,安全数字卡)等。存储器405用于存储各类数据,例如,所述电子设备40中安装的包括信息处理的应用(Applications)、应用上述信息处理方法而设置、获取的数据等信息。
所述处理器401用于执行所述计算处理方法以及所述电子设备40内安装的各类软件,例如操作系统、信息处理软件等。所述处理器401包含但不限于处理器(CentralProcessing Unit,CPU)、微控制单元(Micro Controller Unit,MCU)等用于解释计算机指令以及处理计算机软件中的数据的装置,可以包括一个或者多个微处理器、数字处理器。所述显示屏403可以是触摸屏等其他用于显示画面的设备。
所述电子设备40包括的计算处理装置417可以包括一个或多个的模块,所述一个或多个模块可以被存储在电子设备40的存储器405中并可以被配置成由一个或多个处理器(本实施例为一个处理器401)执行,以完成本发明。例如,参阅图4所示,所述计算处理装置417包括存储器405、输入输出接口407、显示屏403及通过总线411与所述存储器405、输入输出接口407与显示屏403进行数据交换的处理器401。其中,所述输入输出接口407可连接于鼠标及/或键盘(图未示)。本发明所称的模块是完成一特定功能的程序段,比程序更适合于描述软件在处理器中的执行过程。
本实施例中,所述显示屏403可为具有触摸功能的显示屏,进而为用户的操作提供便利。所述存储器405可存储有若干程序代码,以被所述处理器401执行,进而实现所述目标追踪系统417的功能。
本实施方式中,所述目标追踪系统417可包括高分辨率重建单元、目标追踪单元及更新单元(图未示)。
所述高分辨率重建单元可对低分辨率图像进行插值操作,以得到插值低分辨率图像。可以理解地,可通过双三次插值的方法在图像中“插值”(Interpolating) 或增加“像素”(Pixel)数量/密度。利用插值技术增加图形数据,以能够增大打印面积以及(或者)分辨率。在其他实施方式中,亦可利用其他可以增加图像分辨率的方法。
所述高分辨率重建单元还可将插值低分辨率图像输入至卷积神经网络,以对低分辨率图像进行卷积操作,并输出卷积图像。本实施方式中,所述卷积神经网络可包括多层卷积神经网络,如包括第一层卷积神经网络、第二层卷积神经网络及第三层卷积神经网络。所述卷积神经网络可通过梯度下降法和反向传导等算法不断优化网络模型。
所述高分辨率重建单元还根据插值低分辨率图像及卷积图像生成所述目标图像。
所述目标追踪单元可对所述目标图像进行特征提取,以得到对应第一帧的目标框。本实施方式中,对于灰度图像,可提取方向梯度直方图(HOG)及局部变换直方图特征;对于彩色图像,则可提取方向梯度直方图(HOG)及颜色特征。方向梯度直方图(Histogram ofOriented Gradient,HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。局部变换直方图是用来解决HOG特征对于强光照变化过于敏感的问题,通过在6×6的区域内提取8位的亮度通道的局部直方图并经过排序变换(rank transform)得到局部变换直方图。颜色特征是用来弥补 HOG特征提取过程中丢失的颜色信息。
所述目标框可表示为M×N维的矩阵x。另外,设定一个M×N维的二维高斯分布作为标签y。所述物体表面模型表示为M×N维的矩阵w。根据相关滤波的理论有公式:
其中,分别为x,y,w经过傅立叶变换在频域的值,均共轭对称,⊙表示点乘,λ表示正则项,用于控制过拟合。
所述目标追踪单元可根据训练得到的物体表面模型获取当前搜索区域内目标可能的位置。
可以理解地,当对第t帧图像进行目标追踪时,可根据所述物体表面模型来获取所述第t帧图像中目标的可能位置。
假设当前的目标搜索窗为z,可计算响应图在频域的值
其中,为z经过傅立叶变换在频域的值。对做傅立叶逆变换,得到响应图f(z),进而可根据响应图得到目标可能的位置。
所述目标追踪单元可确定当前帧的目标的位置。
本实施方式中,所述目标追踪单元可通过目标搜索窗在所述第t帧图像进行搜索时可能存在多个响应图,如此,可通过比较多个响应图对应的响应值来获取目标位于当前帧的位置。较佳地,可获取多个响应值的最大值所对应的位置,并将具有最大值的响应图的位置作为所述目标在当前帧的位置。
所述更新单元可根据当前帧目标的位置得到新目标框x1,再根据公式得到新的物体表面模型
之后,根据公式更新所述物体表面模型,以得到新的物体表面模型w′:
w′=(1-α)w+αw1
其中,α是学习率,w1经过傅立叶逆变换在频域的值。
之后,可根据新的物体表面模型w′继续预测下一帧目标的位置。
上述目标追踪系统通过将低分辨率的图像块生成为高分辨率的图像,有利于减少传统判别类追踪器在低分辨率场景下缺少信息判别的问题,还可根确定的当前帧的目标的位置来更新物体表面模型,进而有利于提高目标追踪的确定度。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (10)

1.一种目标追踪方法,其特征在于,所述目标追踪方法包括:
将低分辨率图像重建为高分辨率的目标图像;
根据所述目标图像训练出物体表面模型;
根据训练得到的物体表面模型获取当前帧内目标的可能的位置;
确定当前帧的目标的位置。
2.如权利要求1所述的目标追踪方法,其特征在于,所述将低分辨率图像重建为高分辨率的目标图像包括:
对低分辨率图像进行插值操作,以得到插值低分辨率图像;
将插值低分辨率图像输入至卷积神经网络,以对低分辨率图像进行卷积操作,并输出卷积图像;
根据插值低分辨率图像及卷积图像生成所述目标图像。
3.如权利要求2所述的目标追踪方法,其特征在于,所述对低分辨率图像进行插值操作包括:
对低分辨率图像进行双三次插值操作。
4.如权利要求1所述的追踪方法,其特征在于,所述根据所述目标图像训练出物体表面模型包括:
对所述目标图像进行特征提取,以得到对应第一帧的目标框;
根据公式计算物体表面模型的矩阵w,其中所述公式为:
其中,x为所述目标框的M×N维的矩阵,y为M×N维的二维高斯分布所对应标签,分别为x,y,w经过傅立叶变换在频域的值,的共轭对称,⊙表示点乘,λ表示正则项,用于控制过拟合。
5.如权利要求4所述的目标追踪方法,其特征在于,所述根据训练得到的物体表面模型获取当前帧内目标的可能的位置包括:
根据搜索窗及物体表面模型经傅立叶变换在频域的值计算响应图在频域的值其中:
其中,为z经过傅立叶变换在频域的值。对做傅立叶逆变换,得到响应图f(z)。
6.如权利要求5所述的目标追踪方法,其特征在于,所述确定当前帧的目标的位置包括:
获取响应图对应的响应值;
将具有最大值的响应图的位置作为所述目标在当前帧的位置。
7.如权利要求6项所述的目标追踪方法,其特征在于,所述目标追踪方法还包括:
更新所述物体表面模型。
8.如权利要求7所述的目标追踪方法,其特征在于,所述更新所述物体表面模型包括:
根据当前帧目标的位置得到新目标框x1
再根据公式得到新的物体表面模型
根据公式更新所述物体表面模型,以得到新的物体表面模型w′:
w′=(1-α)w+αw1
其中,α是学习率,w1经过傅立叶逆变换在频域的值。
9.一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理执行时实现如权利要求1-8中任一项所述的目标追踪方法的步骤。
10.一种电子设备,包括存储器及处理器,所述存储器存储若干被所述处理器执行的程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-8中任一项所述的目标追踪方法的步骤。
CN201810632595.0A 2018-06-19 2018-06-19 目标追踪方法、系统、可读存储介质及电子设备 Pending CN108960084A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810632595.0A CN108960084A (zh) 2018-06-19 2018-06-19 目标追踪方法、系统、可读存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810632595.0A CN108960084A (zh) 2018-06-19 2018-06-19 目标追踪方法、系统、可读存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN108960084A true CN108960084A (zh) 2018-12-07

Family

ID=64491178

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810632595.0A Pending CN108960084A (zh) 2018-06-19 2018-06-19 目标追踪方法、系统、可读存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN108960084A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110033478A (zh) * 2019-04-12 2019-07-19 北京影谱科技股份有限公司 基于深度对抗训练的视觉目标跟踪方法和装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120330162A1 (en) * 2011-06-27 2012-12-27 Massachusetts Institute Of Technology Modulated aperture imaging for automatic moving target detection
CN103747189A (zh) * 2013-11-27 2014-04-23 杨新锋 一种数字图像处理方法
CN105976318A (zh) * 2016-04-28 2016-09-28 北京工业大学 一种图像超分辨率重建方法
CN106204447A (zh) * 2016-06-30 2016-12-07 北京大学 基于总变差分和卷积神经网络的超分辨率重建方法
CN106296723A (zh) * 2015-05-28 2017-01-04 展讯通信(天津)有限公司 目标位置追踪方法及装置
CN106651917A (zh) * 2016-12-30 2017-05-10 天津大学 基于神经网络的图像目标跟踪算法
CN107871124A (zh) * 2017-11-15 2018-04-03 陕西师范大学 一种基于深度神经网络的遥感图像目标检测方法
CN108010031A (zh) * 2017-12-15 2018-05-08 厦门美图之家科技有限公司 一种人像分割方法及移动终端
CN108121945A (zh) * 2017-11-14 2018-06-05 深圳市深网视界科技有限公司 一种多目标检测跟踪方法、电子设备及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120330162A1 (en) * 2011-06-27 2012-12-27 Massachusetts Institute Of Technology Modulated aperture imaging for automatic moving target detection
CN103747189A (zh) * 2013-11-27 2014-04-23 杨新锋 一种数字图像处理方法
CN106296723A (zh) * 2015-05-28 2017-01-04 展讯通信(天津)有限公司 目标位置追踪方法及装置
CN105976318A (zh) * 2016-04-28 2016-09-28 北京工业大学 一种图像超分辨率重建方法
CN106204447A (zh) * 2016-06-30 2016-12-07 北京大学 基于总变差分和卷积神经网络的超分辨率重建方法
CN106651917A (zh) * 2016-12-30 2017-05-10 天津大学 基于神经网络的图像目标跟踪算法
CN108121945A (zh) * 2017-11-14 2018-06-05 深圳市深网视界科技有限公司 一种多目标检测跟踪方法、电子设备及存储介质
CN107871124A (zh) * 2017-11-15 2018-04-03 陕西师范大学 一种基于深度神经网络的遥感图像目标检测方法
CN108010031A (zh) * 2017-12-15 2018-05-08 厦门美图之家科技有限公司 一种人像分割方法及移动终端

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MA, JUN YONG ET AL: "Detection and Tracking of Vehicle Target Based on Super-Resolution Reconstruction and Variable Template Matching", 《APPLIED MECHANICS AND MATERIALS》 *
刘海仓: "基于稀疏表示的图像超分辨率与目标跟踪方法研究", 《中国博士学位论文全文数据库 信息科技辑》 *
曹东等: "基于机器学习的目标跟踪算法研究综述", 《计算机科学》 *
袁春等: "基于多视图几何的摄像机自定标与运动目标提取", 《第21届全国多媒体技术》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110033478A (zh) * 2019-04-12 2019-07-19 北京影谱科技股份有限公司 基于深度对抗训练的视觉目标跟踪方法和装置

Similar Documents

Publication Publication Date Title
CN109558832B (zh) 一种人体姿态检测方法、装置、设备及存储介质
CN112597941B (zh) 一种人脸识别方法、装置及电子设备
CN108229303A (zh) 检测识别和检测识别网络的训练方法及装置、设备、介质
CN110322495A (zh) 一种基于弱监督深度学习的场景文本分割方法
CN111291809B (zh) 一种处理装置、方法及存储介质
Shen et al. Defect detection of printed circuit board based on lightweight deep convolution network
CN108459785A (zh) 一种视频多尺度可视化方法与交互方法
CN111428664B (zh) 一种基于深度学习技术的计算机视觉的实时多人姿态估计方法
Geng et al. Combining CNN and MRF for road detection
CN112418216A (zh) 一种复杂自然场景图像中的文字检测方法
CN110232318A (zh) 穴位识别方法、装置、电子设备及存储介质
CN110796018A (zh) 一种基于深度图像和彩色图像的手部运动识别方法
Zhang et al. An improved YOLOv3 model based on skipping connections and spatial pyramid pooling
CN111709941B (zh) 一种面向病理图像的轻量级自动化深度学习系统及方法
Fan Research and realization of video target detection system based on deep learning
CN111291713B (zh) 一种基于骨架的手势识别方法及系统
Fu et al. Maritime ship targets recognition with deep learning
CN115935238A (zh) 基于轻量级卷积网络的手势识别分类方法及装置
CN115223239A (zh) 一种手势识别方法、系统、计算机设备以及可读存储介质
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
US20230072445A1 (en) Self-supervised video representation learning by exploring spatiotemporal continuity
CN113554653A (zh) 基于互信息校准点云数据长尾分布的语义分割方法
CN108960084A (zh) 目标追踪方法、系统、可读存储介质及电子设备
CN111753736A (zh) 基于分组卷积的人体姿态识别方法、装置、设备和介质
CN111104911A (zh) 一种基于大数据训练的行人重识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20181207

RJ01 Rejection of invention patent application after publication