CN106709936A - 一种基于卷积神经网络的单目标跟踪方法 - Google Patents
一种基于卷积神经网络的单目标跟踪方法 Download PDFInfo
- Publication number
- CN106709936A CN106709936A CN201611149818.5A CN201611149818A CN106709936A CN 106709936 A CN106709936 A CN 106709936A CN 201611149818 A CN201611149818 A CN 201611149818A CN 106709936 A CN106709936 A CN 106709936A
- Authority
- CN
- China
- Prior art keywords
- network
- tracking
- training
- target
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明公开了一种基于卷积神经网络的单目标跟踪方法。该方法首先利用训练数据在线下预训练一个六层的卷积神经网络分类模型。在跟踪测试时,首先利用视频第一帧给出的Ground‑truth信息,提取一些样本数据,微调网络模型的参数,使得网络模型能够更好的适应当前跟踪的视频序列。同时针对当前跟踪的目标训练一个Bounding Box回归模型用于对跟踪结果的优化。然后对于正确的跟踪结果,利用Bounding Box回归模型对跟踪结果进行优化,得到目标对象更加精确的位置。所以在跟踪的同时,适时、适当的对网络模型参数进行更新,使得模型更好的适应当前跟踪的视频序列。本发明对网络结构中的pooling层进行了改进,同时添加了检测模块,使得跟踪器的性能更加的鲁棒,提高了跟踪的精度。
Description
技术领域
本发明涉及深度学习、目标跟踪、目标检测、图像预处理、特征表达等技术,属于计算机视觉跟踪技术领域。
背景技术
视觉跟踪任务是计算机视觉领域中一个非常基础且重要的问题,受到越来越多的科研工作者的关注。视觉跟踪任务的要求是对于给定的一段视频片段,给出要跟踪对象在视频第一帧中的位置坐标,然后要求在随后的视频序列中能够自动的识别出要跟踪的目标对象,并将其在视频中的位置标出(用一个框框住目标)。由于要跟踪的目标对象的外观受到运动突变、形变、遮挡、光照变化等因素带来的影响,使得视觉跟踪任务依然是一个很具有挑战性的问题。之前的一些方法大多是利用手工提取的特征来描述目标对象,这在一定程度上解决了一些视觉跟踪的问题。但是由于这些手工特征是针对特定的问题而设计的,不能够很好的提取到目标对象的高层的语义信息,导致了它的泛化性能很差,而这往往会导致跟踪效果不理想甚至跟踪失败。因此,亟需一种高效的、泛化性能好的跟踪器来解决这些问题。
随着近年来机器学习、深度学习技术的不断发展,深度学习技术应用到越来越多的计算机视觉任务中。其中卷积神经网络(Convolution Neural Network,CNN)应用的最为广泛,CNN广泛应用在图像分类、图像识别、图像分割和目标检测等计算机视觉领域,取得了不错的效果。CNN所表现出来的出色的性能归功于它对视觉任务数据的强大的表达和描述能力。CNN的分层结构,使得它能够从原始的数据中学习到目标的不同层次的特征表达,靠近底层提取到的是目标的一些结构化的信息,而高层提取到的是目标的一些语义信息。这些经过CNN提取到的特征相对于之前人们手工设计的特征具有更好的鲁棒性,使得在处理计算机视觉任务上表现出较好的性能。
传统的目标跟踪算法是基于产生式和判别式的方式。产生式的方式利用一个生成模型来描述目标的外观,然后搜索候选区域中和当前目标最相似的目标。判别式的方法是建立一个区分目标和背景的模型,它的目的是将目标从背景中有效的区分开来。而在这两种方法中通常使用的特征都是一些手工提取的特征,这些低层的手工特征往往对于光照变化、遮挡、形变等动态情景是十分的不鲁棒的。
发明内容
对于单目标跟踪来说,首先要知道跟踪的目标对象是什么,有哪些特点,然后在随后的视频中找到与之对应的目标对象。早期的基于手工特征的判别式模型只能够提取到目标对象的一些浅层的特征,并不能够很好的描述目标对象的本质。而卷积神经网络通过一个分层的结构,可以学习到目标对象不同层次的特征表达。底层能够学习到目标对象的一些结构特征,而高层则可以学习到目标对象的一些语义信息,而这些信息能够很好的描述目标对象。本发明的目的在于利用CNN强大的特征提取能力,提取到更加鲁棒的特征,使得能够更好的描述要跟踪的目标对象,然后使用一个判别式的模型,从视频序列中把要跟踪的目标找出来并标记目标的坐标位置,从而提高模型对于动态情景的鲁棒性。
本发明采用的技术方案为一种基于卷积神经网络的单目标跟踪方法。构建并训练网络模型;微调网络模型;提取候选区域块并计算跟踪结果;后处理优化跟踪结果;更新网络模型。
根据上述主要思路,本方法的具体实施包括以下几个步骤:
(一)构建并训练网络模型;
步骤一:准备训练数据集,本方法中使用的数据集包括Object TrackingBenchmark(OTB)数据集和Visual Object Tracking(VOT)数据集;
步骤二:准备预训练好的卷积神经网络模型,构建卷积神经网络模型并利用预训练的模型参数来初始化新构建的卷积神经网络的模型的初始参数;
步骤三:训练网络模型。网络模型参数初始化完毕之后,利用训练数据集训练整个网络模型,直到网络收敛;
(二)微调网络模型并训练Bounding Box回归模型;
步骤四:跟踪测试时,首先根据视频第一帧图像中的ground-truth提取正、负样本,将正、负样本输入网络中,微调网络模型参数,使其适应当前跟踪的视频序列;
步骤五:利用提取到的正样本的卷积层特征训练一个针对当前目标的BoundingBox回归模型,该Bounding Box回归模型用于对跟踪结果的精确化处理;
(三)提取候选区域块并计算跟踪结果;
步骤六:根据前一帧目标所处位置的坐标信息,以其坐标位置为中心,根据高斯分布模型在其周围提取适量的目标对象候选块;
步骤七:将提取到的目标对象候选块依次输入网络模型中,分别计算每一个候选块的得分,选取得分高于预先设定阈值的候选块作为最终的跟踪结果,即当前目标所在的位置;
(四)后处理优化跟踪结果;
步骤八:利用步骤五中训练好的Bounding Box回归模型对跟踪结果进行回归操作,得到目标更加精确的位置;
步骤九:根据当前跟踪的结果,根据高斯分布模型收集一定数量的正、负样本数据,收集到的正、负样本数据用来更新网络模型;
(五)更新网络模型;
步骤十:利用收集到的正、负样本数据适时、适当地更新网络模型参数,使其能够持久的保持良好的跟踪性能。
与现有技术相比,本发明具有如下优点:
本发明方法应用CNN来提取目标对象的特征,使得能够更好的表达目标,提高了目标表述的鲁棒性。在网络结构上,因为pooling操作的使用,会使物体丢失一些结构上的信息,本发明将原有的pooling层的大小变得更小(kernel size 2x2),这样能够提高目标定位的精度。同时,本发明在跟踪框架的基础上添加了一个用于检测目标的模块,在跟踪失败的时候,利用该模块在当前帧上对目标进行重检测,提高了跟踪器对于遮挡等动态情景的鲁棒性,从而提高了跟踪的准确率。
附图说明
图1是本发明所涉及的方法的整体流程示意图;
图2是训练阶段的流程图
图3是测试阶段的流程图
图4是网络模型的整体框架图
具体实施方式
下面结合具体实施方式对本发明做进一步的说明。
(一)构建并训练网络模型
本方法是预先利用标注的数据集在线下预训练一个网络模型,该网络模型的作用是将每一个输入网络的候选区域进行特征提取、匹配,计算出每一个候选区域的得分,从而判别出输入的候选区域哪些是目标对象、哪些不是目标对象。然后在实际跟踪测试的时候,首先利用当前跟踪的视频信息在线微调网络,使其达到能够很好的适应跟踪当前目标的效果。
步骤一,首先准备线下预训练网络模型时要使用的数据集,本方法的测试数据集是OTB50数据集,训练数据集是VOT数据集。OTB是一个标准的跟踪基准数据集,它包含50个全部标注的视频序列,视频的长度在几百帧到上千帧之间,这些视频拍摄于不同的场景,内容相差较大。VOT数据集是一个视觉挑战赛使用的数据集,一共包含58个和OTB50中不同的视频序列。这些视频序列有光照变化、遮挡、形变、分辨率、运动模糊、快速移动、背景干扰等不同干扰因素。
步骤二,准备好训练数据集之后,需要构建网络模型。本方法使用的网络模型结构如图2所示,它是一个含有三个卷积层和三个全连接层的卷积神经网络,卷积神经网络各层的参数设置如表1中所示。首先利用在ImageNet分类数据集上预训练好的网络模型参数对新构建的网络模型进行参数初始化,这样做节省网络训练的时间,从而达到快速收敛的效果。
表1
步骤三,初始化网络模型参数后,利用标注好的VOT数据集对网络进行训练。在每一帧中收集50个正样本数据和200个负样本数据,这些样本数据的提取规则是,当提取的块跟Ground-truth的重合率大于0.7的时候,认为是正样本数据,当提取的块跟Ground-truth的重合率小于0.5的时候,认为是负样本数据。
此训练过程是一个分领域的分步训练,将每一段视频序列看作是一个独立的领域,用其单独训练一个分类器,之后对于每一段输入的训练视频,首先重新初始化倒数第二层和最后一层的网络连接参数,即重新初始化一个分类节点,然后训练这个对应的分类器,使其能够正确的区分当前视频序列中的目标和背景。当输入的图片中是目标对象时,网络的输出为1,当输入的图片为背景时,网络的输出为0。所有视频序列一次训练完成算作是一个大的迭代完成。然后重复迭代训练,直到网络收敛,本发明的实验中迭代训练100次后网络收敛。
训练完成后,将网络最后一层的所有分领域的分类节点去掉,并重新初始化一个新的二分类节点,同时重新初始化其与前一层的连接参数,保存好训练的网络模型。
(二)微调网络模型并训练Bounding Box回归模型
步骤四,测试时,首先加载训练好的模型,然后根据要跟踪的视频第一帧中给出的目标对象的Ground-truth的位置坐标,利用一个高斯分布模型以该位置坐标为中心,在其周围提取一些正、负训练样本数据集。微调网络时,在第一帧图像上分别收集500个正样本和5000个负样本进行微调网络操作,这些样本的提取规则是,当提取的块跟Ground-truth的重合率大于0.7的时候,则认为是正样本数据,当提取的块跟Ground-truth的重合率小于0.3的时候,则认为是负样本。
测试阶段微调网络参数时,将这些训练样本数据集依次输入网络中,固定网络模型的卷积层参数不动,只对网络的后面三个全连接层的参数进行微调训练。这个微调训练的目的是使该网络模型能够更好的适应当前跟踪的视频序列,即能够很好的区分当前视频序列中的目标和背景。同时在网络的最后接一个检测模块,在跟踪出现错误或者目标跟踪丢失的时候,利用该检测模块对当前帧进行目标重检测,重新检测到目标,然后对目标位置进行重新初始化,进而进行准确、长时间的跟踪。这个检测模块是基于RPN网络模型在当前帧上提取候选块,然后将这些候选块重新输入网络模型进行特征提取、匹配,判别出属于目标对象的候选块,然后使用这个检测到的目标候选块重新初始化目标的位置,将这个目标的位置当做下一帧提取候选块的中心位置,进行候选块的提取。
步骤五,网络微调训练完毕后,再利用高斯分布模型在Ground-truth的目标周围采取一些正样本,本方法中使用1000个训练样本,然后将这些正样本依次输入网络,提取这些正样本的最后一个卷积层的特征,利用这些卷积层的特征训练一个Bounding Box回归模型。对一帧视频跟踪完成后,利用预训练的Bounding Box回归模型对跟踪的结果进行更加精细的调优,使跟踪框能够更加紧致的框住目标对象,从而使跟踪结果更加精确。
(三)提取候选区域块并计算跟踪结果
步骤六,根据前一帧跟踪的结果,以前一帧视频的跟踪结果的坐标位置为中心,利用高斯分布模型进行候选块采样,提取一定数量的目标候选块。本方法中对于每一帧提取256个候选块。由于视频相邻帧中的目标对象的位置变化相对来说很小,所以,该采样的结果基本能够涵盖目标对象的可能出现的位置,即采样的候选块中包含下一帧目标出现的位置。
步骤七,将上述采样得到的目标候选块依次输入网络中,计算得到每一个候选块对应的输出得分,然后将这些候选块的得分按照降序的顺序排列,选取得分最高的目标候选块,并将该目标候选块的得分和预先设置的阈值进行比较,如果该得分大于预先设置的阈值0.5,则认为目标跟踪正确,将对应的目标候选块的位置坐标保存在跟踪结果中;否则,则认为目标跟踪失败,此时利用检测模块对该帧图像进行目标重检测,利用RPN网络模型在整个图像范围内生成目标候选块,将提取的目标候选块依次输入原网络模型中进行得分计算,并进行得分比较,从而得到跟踪的结果。
(四)后处理跟踪结果
步骤八,对于步骤七中得到的跟踪结果,对于能够正确跟踪的结果,利用步骤五中预训练的Bounding Box回归模型对其进行回归操作,使得目标对象候选块的框能够更加紧致的框住目标对象,从而使得跟踪的结果能够更加精确的趋近于Ground-truth,达到精确定位跟踪目标的目的。当跟踪的结果不正确时,即跟踪结果的得分小于阈值,则不再使用Bounding Box回归模型对跟踪结果进行回归操作。
步骤九,确定成功的跟踪结果之后,然后以该目标的位置坐标为中心,利用高斯分布模型在其周围提取一定数量的正样本和一定数量的负样本,本方法中第一帧收集的样本数量分别为正样本500个,负样本5000个。其余帧中收集的样本数量分别为正样本50个,负样本200个。并将它们分别加入正、负样本训练集中,该数据集用于对网络模型的更新训练。
(五)更新网络模型
步骤十,更新模型分为两种更新的方式,一种是定期更新模式,一种是随时更新模式。定期更新模式是设定一个规定的时间间隔(例如每间隔10帧),利用收集到的正、负样本数据微调网络模型,微调网络时只更新网络结构的后面三个全连接层的权值参数,卷积层的权值参数固定不动。在本发明中,定期更新的时间间隔是10帧,即每个十帧更新一次网络参数,用到的数据集为距离当前时刻100帧以内所收集的样本数据。
随时更新模式是当跟踪器跟踪目标失败的时候,就立即利用训练数据集更新网络模型,更新的方式也是只更新网络结构的后面三个全连接层的权值参数,卷积层的权值参数固定不变。通过网络模型的更新操作,使其能够更好的适应当前跟踪的视频序列的变化,从而达到更加鲁棒的跟踪效果。在本方法中,随时更新用到的数据集为距离当前时刻20帧以内所收集的样本数据。
Claims (2)
1.一种基于卷积神经网络的单目标跟踪方法,其特征在于:本方法的具体实施包括以下几个步骤:
(一)构建并训练网络模型;
步骤一:准备训练数据集,本方法中使用的数据集包括Object Tracking Benchmark即OTB数据集和Visual Object Tracking即VOT数据集;
步骤二:准备预训练好的卷积神经网络模型,构建卷积神经网络模型并利用预训练的模型参数来初始化新构建的卷积神经网络的模型的初始参数;
步骤三:训练网络模型;网络模型参数初始化完毕之后,利用训练数据集训练整个网络模型,直到网络收敛;
(二)微调网络模型并训练Bounding Box回归模型;
步骤四:跟踪测试时,首先根据视频第一帧图像中的ground-truth提取正、负样本,将正、负样本输入网络中,微调网络模型参数,使其适应当前跟踪的视频序列;
步骤五:利用提取到的正样本的卷积层特征训练一个针对当前目标的Bounding Box回归模型,该Bounding Box回归模型用于对跟踪结果的精确化处理;
(三)提取候选区域块并计算跟踪结果;
步骤六:根据前一帧目标所处位置的坐标信息,以其坐标位置为中心,根据高斯分布模型在其周围提取适量的目标对象候选块;
步骤七:将提取到的目标对象候选块依次输入网络模型中,分别计算每一个候选块的得分,选取得分高于预先设定阈值的候选块作为最终的跟踪结果,即当前目标所在的位置;
(四)后处理优化跟踪结果;
步骤八:利用步骤五中训练好的Bounding Box回归模型对跟踪结果进行回归操作,得到目标更加精确的位置;
步骤九:根据当前跟踪的结果,根据高斯分布模型收集一定数量的正、负样本数据,收集到的正、负样本数据用来更新网络模型;
(五)更新网络模型;
步骤十:利用收集到的正、负样本数据适时、适当地更新网络模型参数,使其能够持久的保持良好的跟踪性能。
2.根据权利要求1所述的一种基于卷积神经网络的单目标跟踪方法,其特征在于:
(一)构建并训练网络模型
本方法是预先利用标注的数据集在线下预训练一个网络模型,该网络模型的作用是将每一个输入网络的候选区域进行特征提取、匹配,计算出每一个候选区域的得分,从而判别出输入的候选区域哪些是目标对象、哪些不是目标对象;然后在实际跟踪测试的时候,首先利用当前跟踪的视频信息在线微调网络,使其达到能够很好的适应跟踪当前目标的效果;
步骤一,首先准备线下预训练网络模型时要使用的数据集,本方法的测试数据集是OTB50数据集,训练数据集是VOT数据集;OTB是一个标准的跟踪基准数据集,它包含50个全部标注的视频序列,视频的长度在几百帧到上千帧之间,这些视频拍摄于不同的场景,内容相差较大;VOT数据集是一个视觉挑战赛使用的数据集,一共包含58个和OTB50中不同的视频序列;这些视频序列有光照变化、遮挡、形变、分辨率、运动模糊、快速移动、背景干扰等不同干扰因素;
步骤二,准备好训练数据集之后,需要构建网络模型;使用的网络模型结构是一个含有三个卷积层和三个全连接层的卷积神经网络,卷积神经网络各层的参数设置如表1中所示;首先利用在ImageNet分类数据集上预训练好的网络模型参数对新构建的网络模型进行参数初始化,这样做节省网络训练的时间,从而达到快速收敛的效果;
表1
步骤三,初始化网络模型参数后,利用标注好的VOT数据集对网络进行训练;在每一帧中收集50个正样本数据和200个负样本数据,这些样本数据的提取规则是,当提取的块跟Ground-truth的重合率大于0.7的时候,认为是正样本数据,当提取的块跟Ground-truth的重合率小于0.5的时候,认为是负样本数据;
此训练过程是一个分领域的分步训练,将每一段视频序列看作是一个独立的领域,用其单独训练一个分类器,之后对于每一段输入的训练视频,首先重新初始化倒数第二层和最后一层的网络连接参数,即重新初始化一个分类节点,然后训练这个对应的分类器,使其能够正确的区分当前视频序列中的目标和背景;当输入的图片中是目标对象时,网络的输出为1,当输入的图片为背景时,网络的输出为0;所有视频序列一次训练完成算作是一个大的迭代完成;然后重复迭代训练,直到网络收敛,实验中迭代训练100次后网络收敛;
训练完成后,将网络最后一层的所有分领域的分类节点去掉,并重新初始化一个新的二分类节点,同时重新初始化其与前一层的连接参数,保存好训练的网络模型;
(二)微调网络模型并训练Bounding Box回归模型
步骤四,测试时,首先加载训练好的模型,然后根据要跟踪的视频第一帧中给出的目标对象的Ground-truth的位置坐标,利用一个高斯分布模型以该位置坐标为中心,在其周围提取一些正、负训练样本数据集;微调网络时,在第一帧图像上分别收集500个正样本和5000个负样本进行微调网络操作,这些样本的提取规则是,当提取的块跟Ground-truth的重合率大于0.7的时候,则认为是正样本数据,当提取的块跟Ground-truth的重合率小于0.3的时候,则认为是负样本;
测试阶段微调网络参数时,将这些训练样本数据集依次输入网络中,固定网络模型的卷积层参数不动,只对网络的后面三个全连接层的参数进行微调训练;这个微调训练的目的是使该网络模型能够更好的适应当前跟踪的视频序列,即能够很好的区分当前视频序列中的目标和背景;同时在网络的最后接一个检测模块,在跟踪出现错误或者目标跟踪丢失的时候,利用该检测模块对当前帧进行目标重检测,重新检测到目标,然后对目标位置进行重新初始化,进而进行准确、长时间的跟踪;这个检测模块是基于RPN网络模型在当前帧上提取候选块,然后将这些候选块重新输入网络模型进行特征提取、匹配,判别出属于目标对象的候选块,然后使用这个检测到的目标候选块重新初始化目标的位置,将这个目标的位置当做下一帧提取候选块的中心位置,进行候选块的提取;
步骤五,网络微调训练完毕后,再利用高斯分布模型在Ground-truth的目标周围采取一些正样本,本方法中使用1000个训练样本,然后将这些正样本依次输入网络,提取这些正样本的最后一个卷积层的特征,利用这些卷积层的特征训练一个Bounding Box回归模型;对一帧视频跟踪完成后,利用预训练的Bounding Box回归模型对跟踪的结果进行更加精细的调优,使跟踪框能够更加紧致的框住目标对象,从而使跟踪结果更加精确;
(三)提取候选区域块并计算跟踪结果
步骤六,根据前一帧跟踪的结果,以前一帧视频的跟踪结果的坐标位置为中心,利用高斯分布模型进行候选块采样,提取一定数量的目标候选块;本方法中对于每一帧提取256个候选块;由于视频相邻帧中的目标对象的位置变化相对来说很小,所以,该采样的结果基本能够涵盖目标对象的可能出现的位置,即采样的候选块中包含下一帧目标出现的位置;
步骤七,将上述采样得到的目标候选块依次输入网络中,计算得到每一个候选块对应的输出得分,然后将这些候选块的得分按照降序的顺序排列,选取得分最高的目标候选块,并将该目标候选块的得分和预先设置的阈值进行比较,如果该得分大于预先设置的阈值0.5,则认为目标跟踪正确,将对应的目标候选块的位置坐标保存在跟踪结果中;否则,则认为目标跟踪失败,此时利用检测模块对该帧图像进行目标重检测,利用RPN网络模型在整个图像范围内生成目标候选块,将提取的目标候选块依次输入原网络模型中进行得分计算,并进行得分比较,从而得到跟踪的结果;
(四)后处理跟踪结果
步骤八,对于步骤七中得到的跟踪结果,对于能够正确跟踪的结果,利用步骤五中预训练的Bounding Box回归模型对其进行回归操作,使得目标对象候选块的框能够更加紧致的框住目标对象,从而使得跟踪的结果能够更加精确的趋近于Ground-truth,达到精确定位跟踪目标的目的;当跟踪的结果不正确时,即跟踪结果的得分小于阈值,则不再使用Bounding Box回归模型对跟踪结果进行回归操作;
步骤九,确定成功的跟踪结果之后,然后以该目标的位置坐标为中心,利用高斯分布模型在其周围提取一定数量的正样本和一定数量的负样本,本方法中第一帧收集的样本数量分别为正样本500个,负样本5000个;其余帧中收集的样本数量分别为正样本50个,负样本200个;并将它们分别加入正、负样本训练集中,该数据集用于对网络模型的更新训练;
(五)更新网络模型
步骤十,更新模型分为两种更新的方式,一种是定期更新模式,一种是随时更新模式;定期更新模式是设定一个规定的时间间隔(例如每间隔10帧),利用收集到的正、负样本数据微调网络模型,微调网络时只更新网络结构的后面三个全连接层的权值参数,卷积层的权值参数固定不动;在本发明中,定期更新的时间间隔是10帧,即每个十帧更新一次网络参数,用到的数据集为距离当前时刻100帧以内所收集的样本数据;
随时更新模式是当跟踪器跟踪目标失败的时候,就立即利用训练数据集更新网络模型,更新的方式也是只更新网络结构的后面三个全连接层的权值参数,卷积层的权值参数固定不变;通过网络模型的更新操作,使其能够更好的适应当前跟踪的视频序列的变化,从而达到更加鲁棒的跟踪效果;在本方法中,随时更新用到的数据集为距离当前时刻20帧以内所收集的样本数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611149818.5A CN106709936A (zh) | 2016-12-14 | 2016-12-14 | 一种基于卷积神经网络的单目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611149818.5A CN106709936A (zh) | 2016-12-14 | 2016-12-14 | 一种基于卷积神经网络的单目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106709936A true CN106709936A (zh) | 2017-05-24 |
Family
ID=58937543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611149818.5A Pending CN106709936A (zh) | 2016-12-14 | 2016-12-14 | 一种基于卷积神经网络的单目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106709936A (zh) |
Cited By (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292915A (zh) * | 2017-06-15 | 2017-10-24 | 国家新闻出版广电总局广播科学研究院 | 基于卷积神经网络的目标跟踪方法 |
CN107292914A (zh) * | 2017-06-15 | 2017-10-24 | 国家新闻出版广电总局广播科学研究院 | 基于小型单支卷积神经网络的视觉目标跟踪方法 |
CN107452025A (zh) * | 2017-08-18 | 2017-12-08 | 成都通甲优博科技有限责任公司 | 目标跟踪方法、装置及电子设备 |
CN107452023A (zh) * | 2017-07-21 | 2017-12-08 | 上海交通大学 | 一种基于卷积神经网络在线学习的单目标跟踪方法和系统 |
CN107481263A (zh) * | 2017-08-10 | 2017-12-15 | 上海体育学院 | 乒乓球目标跟踪方法、装置、存储介质和计算机设备 |
CN107527355A (zh) * | 2017-07-20 | 2017-12-29 | 中国科学院自动化研究所 | 基于卷积神经网络回归模型的视觉跟踪方法、装置 |
CN107609513A (zh) * | 2017-09-12 | 2018-01-19 | 北京小米移动软件有限公司 | 视频类型确定方法及装置 |
CN107622507A (zh) * | 2017-08-09 | 2018-01-23 | 中北大学 | 一种基于深度学习的空中目标跟踪方法 |
CN107633529A (zh) * | 2017-09-11 | 2018-01-26 | 中国地质大学(武汉) | 一种深度卷积神经网单目标跟踪方法、设备及存储设备 |
CN107784279A (zh) * | 2017-10-18 | 2018-03-09 | 北京小米移动软件有限公司 | 目标跟踪方法及装置 |
CN107945210A (zh) * | 2017-11-30 | 2018-04-20 | 天津大学 | 基于深度学习和环境自适应的目标跟踪算法 |
CN108038870A (zh) * | 2017-11-29 | 2018-05-15 | 北京小米移动软件有限公司 | 物体跟踪的方法、装置及可读存储介质 |
CN108038435A (zh) * | 2017-12-04 | 2018-05-15 | 中山大学 | 一种基于卷积神经网络的特征提取与目标跟踪方法 |
CN108230359A (zh) * | 2017-11-12 | 2018-06-29 | 北京市商汤科技开发有限公司 | 目标检测方法和装置、训练方法、电子设备、程序和介质 |
CN108320297A (zh) * | 2018-03-09 | 2018-07-24 | 湖北工业大学 | 一种视频目标实时跟踪方法及系统 |
CN108460790A (zh) * | 2018-03-29 | 2018-08-28 | 西南科技大学 | 一种基于一致性预测器模型的视觉跟踪方法 |
CN108491816A (zh) * | 2018-03-30 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 在视频中进行目标跟踪的方法和装置 |
CN108682022A (zh) * | 2018-04-25 | 2018-10-19 | 清华大学 | 基于对抗迁移网络的视觉跟踪方法及系统 |
CN108921879A (zh) * | 2018-05-16 | 2018-11-30 | 中国地质大学(武汉) | 基于区域选择的CNN和Kalman滤波的运动目标跟踪方法及系统 |
CN108960086A (zh) * | 2018-06-20 | 2018-12-07 | 电子科技大学 | 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法 |
CN109064493A (zh) * | 2018-08-01 | 2018-12-21 | 北京飞搜科技有限公司 | 一种基于元学习的目标跟踪方法及装置 |
CN109360227A (zh) * | 2018-10-25 | 2019-02-19 | 武汉拓睿传奇科技有限公司 | 一种基于深度学习的人工智能目标跟踪方法 |
WO2019037498A1 (zh) * | 2017-08-25 | 2019-02-28 | 腾讯科技(深圳)有限公司 | 主动跟踪方法、装置及系统 |
WO2019041519A1 (zh) * | 2017-08-29 | 2019-03-07 | 平安科技(深圳)有限公司 | 目标跟踪装置、方法及计算机可读存储介质 |
CN109558902A (zh) * | 2018-11-20 | 2019-04-02 | 成都通甲优博科技有限责任公司 | 一种快速目标检测方法 |
CN109614990A (zh) * | 2018-11-20 | 2019-04-12 | 成都通甲优博科技有限责任公司 | 一种目标检测装置 |
CN109711332A (zh) * | 2018-12-26 | 2019-05-03 | 浙江捷尚视觉科技股份有限公司 | 一种基于回归算法的人脸跟踪方法及应用 |
CN109740585A (zh) * | 2018-03-28 | 2019-05-10 | 北京字节跳动网络技术有限公司 | 一种文本定位方法及装置 |
CN109740665A (zh) * | 2018-12-29 | 2019-05-10 | 珠海大横琴科技发展有限公司 | 基于专家知识约束的遮挡图像船只目标检测方法及系统 |
CN109903312A (zh) * | 2019-01-25 | 2019-06-18 | 北京工业大学 | 一种基于视频多目标跟踪的足球球员跑动距离统计方法 |
CN110084777A (zh) * | 2018-11-05 | 2019-08-02 | 哈尔滨理工大学 | 一种基于深度学习的微小零件定位跟踪方法 |
CN110349179A (zh) * | 2019-07-12 | 2019-10-18 | 安徽大学 | 一种基于多适配器的可见光红外视觉跟踪方法及装置 |
CN110458864A (zh) * | 2019-07-02 | 2019-11-15 | 南京邮电大学 | 基于整合语义知识和实例特征的目标跟踪方法与目标跟踪器 |
CN110634151A (zh) * | 2019-08-01 | 2019-12-31 | 西安电子科技大学 | 一种单目标跟踪方法 |
CN110633626A (zh) * | 2019-07-31 | 2019-12-31 | 浙江大学 | 一种针对雨天图片的卷积神经网络降雨强度在线量化方法 |
CN110728694A (zh) * | 2019-10-10 | 2020-01-24 | 北京工业大学 | 一种基于持续学习的长时视觉目标跟踪方法 |
CN110955259A (zh) * | 2019-11-28 | 2020-04-03 | 上海歌尔泰克机器人有限公司 | 无人机及其跟踪方法和计算机可读存储介质 |
WO2020082382A1 (en) * | 2018-10-26 | 2020-04-30 | Intel Corporation | Method and system of neural network object recognition for image processing |
CN111192288A (zh) * | 2018-11-14 | 2020-05-22 | 天津大学青岛海洋技术研究院 | 基于形变样本生成网络的目标跟踪算法 |
CN111192294A (zh) * | 2019-12-30 | 2020-05-22 | 华中科技大学 | 一种基于目标检测的目标跟踪方法及系统 |
CN111274917A (zh) * | 2020-01-17 | 2020-06-12 | 江南大学 | 一种基于深度检测的长时目标跟踪方法 |
CN111354019A (zh) * | 2020-03-31 | 2020-06-30 | 中国人民解放军军事科学院军事医学研究院 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
WO2020134557A1 (zh) * | 2018-12-29 | 2020-07-02 | 北京市商汤科技开发有限公司 | 目标对象检测方法和装置、电子设备和存储介质 |
CN111539989A (zh) * | 2020-04-20 | 2020-08-14 | 北京交通大学 | 基于优化方差下降的计算机视觉单目标跟踪方法 |
CN111696136A (zh) * | 2020-06-09 | 2020-09-22 | 电子科技大学 | 一种基于编解码结构的目标跟踪方法 |
CN111815681A (zh) * | 2020-09-04 | 2020-10-23 | 中国科学院自动化研究所 | 基于深度学习和判别式模型训练的目标跟踪方法及存储器 |
CN111932583A (zh) * | 2020-06-05 | 2020-11-13 | 西安羚控电子科技有限公司 | 一种基于复杂背景下的时空信息一体化智能跟踪方法 |
CN112651998A (zh) * | 2021-01-18 | 2021-04-13 | 沈阳航空航天大学 | 基于注意力机制和双流多域卷积神经网络的人体跟踪算法 |
CN115953430A (zh) * | 2022-12-21 | 2023-04-11 | 贵州财经大学 | 基于改进的批量样本损失函数的视频单目标跟踪方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090296985A1 (en) * | 2007-11-29 | 2009-12-03 | Nec Laboratories America, Inc. | Efficient Multi-Hypothesis Multi-Human 3D Tracking in Crowded Scenes |
CN105868691A (zh) * | 2016-03-08 | 2016-08-17 | 中国石油大学(华东) | 基于快速区域卷积神经网络的城市车辆追踪方法 |
CN106127815A (zh) * | 2016-07-21 | 2016-11-16 | 广东工业大学 | 一种融合卷积神经网络的跟踪方法及系统 |
-
2016
- 2016-12-14 CN CN201611149818.5A patent/CN106709936A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090296985A1 (en) * | 2007-11-29 | 2009-12-03 | Nec Laboratories America, Inc. | Efficient Multi-Hypothesis Multi-Human 3D Tracking in Crowded Scenes |
CN105868691A (zh) * | 2016-03-08 | 2016-08-17 | 中国石油大学(华东) | 基于快速区域卷积神经网络的城市车辆追踪方法 |
CN106127815A (zh) * | 2016-07-21 | 2016-11-16 | 广东工业大学 | 一种融合卷积神经网络的跟踪方法及系统 |
Non-Patent Citations (3)
Title |
---|
HYEONSEOB NAM ET AL.: "Learning Multi-Domain Convolutional Neural Networks for Visual Tracking", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
SHAOQING REN ET AL.: "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", 《ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS》 * |
雷帮军 等: "《视频目标跟踪系统分步详解》", 31 December 2015 * |
Cited By (72)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292914A (zh) * | 2017-06-15 | 2017-10-24 | 国家新闻出版广电总局广播科学研究院 | 基于小型单支卷积神经网络的视觉目标跟踪方法 |
CN107292915A (zh) * | 2017-06-15 | 2017-10-24 | 国家新闻出版广电总局广播科学研究院 | 基于卷积神经网络的目标跟踪方法 |
CN107527355B (zh) * | 2017-07-20 | 2020-08-11 | 中国科学院自动化研究所 | 基于卷积神经网络回归模型的视觉跟踪方法、装置 |
CN107527355A (zh) * | 2017-07-20 | 2017-12-29 | 中国科学院自动化研究所 | 基于卷积神经网络回归模型的视觉跟踪方法、装置 |
CN107452023A (zh) * | 2017-07-21 | 2017-12-08 | 上海交通大学 | 一种基于卷积神经网络在线学习的单目标跟踪方法和系统 |
CN107622507A (zh) * | 2017-08-09 | 2018-01-23 | 中北大学 | 一种基于深度学习的空中目标跟踪方法 |
CN107622507B (zh) * | 2017-08-09 | 2020-04-07 | 中北大学 | 一种基于深度学习的空中目标跟踪方法 |
CN107481263B (zh) * | 2017-08-10 | 2020-05-19 | 上海体育学院 | 乒乓球目标跟踪方法、装置、存储介质和计算机设备 |
CN107481263A (zh) * | 2017-08-10 | 2017-12-15 | 上海体育学院 | 乒乓球目标跟踪方法、装置、存储介质和计算机设备 |
CN107452025A (zh) * | 2017-08-18 | 2017-12-08 | 成都通甲优博科技有限责任公司 | 目标跟踪方法、装置及电子设备 |
WO2019037498A1 (zh) * | 2017-08-25 | 2019-02-28 | 腾讯科技(深圳)有限公司 | 主动跟踪方法、装置及系统 |
WO2019041519A1 (zh) * | 2017-08-29 | 2019-03-07 | 平安科技(深圳)有限公司 | 目标跟踪装置、方法及计算机可读存储介质 |
CN107633529A (zh) * | 2017-09-11 | 2018-01-26 | 中国地质大学(武汉) | 一种深度卷积神经网单目标跟踪方法、设备及存储设备 |
CN107609513A (zh) * | 2017-09-12 | 2018-01-19 | 北京小米移动软件有限公司 | 视频类型确定方法及装置 |
CN107784279B (zh) * | 2017-10-18 | 2020-09-01 | 北京小米移动软件有限公司 | 目标跟踪方法及装置 |
CN107784279A (zh) * | 2017-10-18 | 2018-03-09 | 北京小米移动软件有限公司 | 目标跟踪方法及装置 |
CN108230359A (zh) * | 2017-11-12 | 2018-06-29 | 北京市商汤科技开发有限公司 | 目标检测方法和装置、训练方法、电子设备、程序和介质 |
CN108230359B (zh) * | 2017-11-12 | 2021-01-26 | 北京市商汤科技开发有限公司 | 目标检测方法和装置、训练方法、电子设备、程序和介质 |
CN108038870A (zh) * | 2017-11-29 | 2018-05-15 | 北京小米移动软件有限公司 | 物体跟踪的方法、装置及可读存储介质 |
CN107945210A (zh) * | 2017-11-30 | 2018-04-20 | 天津大学 | 基于深度学习和环境自适应的目标跟踪算法 |
CN107945210B (zh) * | 2017-11-30 | 2021-01-05 | 天津大学 | 基于深度学习和环境自适应的目标跟踪方法 |
CN108038435A (zh) * | 2017-12-04 | 2018-05-15 | 中山大学 | 一种基于卷积神经网络的特征提取与目标跟踪方法 |
CN108320297A (zh) * | 2018-03-09 | 2018-07-24 | 湖北工业大学 | 一种视频目标实时跟踪方法及系统 |
CN108320297B (zh) * | 2018-03-09 | 2020-06-19 | 湖北工业大学 | 一种视频目标实时跟踪方法及系统 |
CN109740585A (zh) * | 2018-03-28 | 2019-05-10 | 北京字节跳动网络技术有限公司 | 一种文本定位方法及装置 |
CN108460790A (zh) * | 2018-03-29 | 2018-08-28 | 西南科技大学 | 一种基于一致性预测器模型的视觉跟踪方法 |
CN108491816A (zh) * | 2018-03-30 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 在视频中进行目标跟踪的方法和装置 |
CN108682022B (zh) * | 2018-04-25 | 2020-11-24 | 清华大学 | 基于对抗迁移网络的视觉跟踪方法及系统 |
CN108682022A (zh) * | 2018-04-25 | 2018-10-19 | 清华大学 | 基于对抗迁移网络的视觉跟踪方法及系统 |
CN108921879A (zh) * | 2018-05-16 | 2018-11-30 | 中国地质大学(武汉) | 基于区域选择的CNN和Kalman滤波的运动目标跟踪方法及系统 |
CN108960086A (zh) * | 2018-06-20 | 2018-12-07 | 电子科技大学 | 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法 |
CN108960086B (zh) * | 2018-06-20 | 2021-06-04 | 电子科技大学 | 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法 |
CN109064493A (zh) * | 2018-08-01 | 2018-12-21 | 北京飞搜科技有限公司 | 一种基于元学习的目标跟踪方法及装置 |
CN109360227A (zh) * | 2018-10-25 | 2019-02-19 | 武汉拓睿传奇科技有限公司 | 一种基于深度学习的人工智能目标跟踪方法 |
WO2020082382A1 (en) * | 2018-10-26 | 2020-04-30 | Intel Corporation | Method and system of neural network object recognition for image processing |
US11526704B2 (en) | 2018-10-26 | 2022-12-13 | Intel Corporation | Method and system of neural network object recognition for image processing |
CN110084777A (zh) * | 2018-11-05 | 2019-08-02 | 哈尔滨理工大学 | 一种基于深度学习的微小零件定位跟踪方法 |
CN111192288A (zh) * | 2018-11-14 | 2020-05-22 | 天津大学青岛海洋技术研究院 | 基于形变样本生成网络的目标跟踪算法 |
CN111192288B (zh) * | 2018-11-14 | 2023-08-04 | 天津大学青岛海洋技术研究院 | 基于形变样本生成网络的目标跟踪算法 |
CN109614990A (zh) * | 2018-11-20 | 2019-04-12 | 成都通甲优博科技有限责任公司 | 一种目标检测装置 |
CN109558902A (zh) * | 2018-11-20 | 2019-04-02 | 成都通甲优博科技有限责任公司 | 一种快速目标检测方法 |
CN109711332A (zh) * | 2018-12-26 | 2019-05-03 | 浙江捷尚视觉科技股份有限公司 | 一种基于回归算法的人脸跟踪方法及应用 |
CN109711332B (zh) * | 2018-12-26 | 2021-03-26 | 浙江捷尚视觉科技股份有限公司 | 一种基于回归算法的人脸跟踪方法及应用 |
CN109740665A (zh) * | 2018-12-29 | 2019-05-10 | 珠海大横琴科技发展有限公司 | 基于专家知识约束的遮挡图像船只目标检测方法及系统 |
WO2020134557A1 (zh) * | 2018-12-29 | 2020-07-02 | 北京市商汤科技开发有限公司 | 目标对象检测方法和装置、电子设备和存储介质 |
CN109740665B (zh) * | 2018-12-29 | 2020-07-17 | 珠海大横琴科技发展有限公司 | 基于专家知识约束的遮挡图像船只目标检测方法及系统 |
US11423666B2 (en) | 2018-12-29 | 2022-08-23 | Beijing Sensetime Technology Development Co., Ltd. | Method of detecting target object detection method and device for detecting target object, electronic apparatus and storage medium |
CN109903312A (zh) * | 2019-01-25 | 2019-06-18 | 北京工业大学 | 一种基于视频多目标跟踪的足球球员跑动距离统计方法 |
CN109903312B (zh) * | 2019-01-25 | 2021-04-30 | 北京工业大学 | 一种基于视频多目标跟踪的足球球员跑动距离统计方法 |
CN110458864A (zh) * | 2019-07-02 | 2019-11-15 | 南京邮电大学 | 基于整合语义知识和实例特征的目标跟踪方法与目标跟踪器 |
CN110349179B (zh) * | 2019-07-12 | 2022-10-14 | 安徽大学 | 一种基于多适配器的可见光红外视觉跟踪方法及装置 |
CN110349179A (zh) * | 2019-07-12 | 2019-10-18 | 安徽大学 | 一种基于多适配器的可见光红外视觉跟踪方法及装置 |
CN110633626A (zh) * | 2019-07-31 | 2019-12-31 | 浙江大学 | 一种针对雨天图片的卷积神经网络降雨强度在线量化方法 |
CN110634151B (zh) * | 2019-08-01 | 2022-03-15 | 西安电子科技大学 | 一种单目标跟踪方法 |
CN110634151A (zh) * | 2019-08-01 | 2019-12-31 | 西安电子科技大学 | 一种单目标跟踪方法 |
CN110728694B (zh) * | 2019-10-10 | 2023-11-24 | 北京工业大学 | 一种基于持续学习的长时视觉目标跟踪方法 |
CN110728694A (zh) * | 2019-10-10 | 2020-01-24 | 北京工业大学 | 一种基于持续学习的长时视觉目标跟踪方法 |
CN110955259A (zh) * | 2019-11-28 | 2020-04-03 | 上海歌尔泰克机器人有限公司 | 无人机及其跟踪方法和计算机可读存储介质 |
CN110955259B (zh) * | 2019-11-28 | 2023-08-29 | 上海歌尔泰克机器人有限公司 | 无人机及其跟踪方法和计算机可读存储介质 |
CN111192294A (zh) * | 2019-12-30 | 2020-05-22 | 华中科技大学 | 一种基于目标检测的目标跟踪方法及系统 |
CN111192294B (zh) * | 2019-12-30 | 2022-04-22 | 华中科技大学 | 一种基于目标检测的目标跟踪方法及系统 |
CN111274917A (zh) * | 2020-01-17 | 2020-06-12 | 江南大学 | 一种基于深度检测的长时目标跟踪方法 |
CN111354019A (zh) * | 2020-03-31 | 2020-06-30 | 中国人民解放军军事科学院军事医学研究院 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
CN111354019B (zh) * | 2020-03-31 | 2024-01-26 | 中国人民解放军军事科学院军事医学研究院 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
CN111539989A (zh) * | 2020-04-20 | 2020-08-14 | 北京交通大学 | 基于优化方差下降的计算机视觉单目标跟踪方法 |
CN111539989B (zh) * | 2020-04-20 | 2023-09-22 | 北京交通大学 | 基于优化方差下降的计算机视觉单目标跟踪方法 |
CN111932583A (zh) * | 2020-06-05 | 2020-11-13 | 西安羚控电子科技有限公司 | 一种基于复杂背景下的时空信息一体化智能跟踪方法 |
CN111696136A (zh) * | 2020-06-09 | 2020-09-22 | 电子科技大学 | 一种基于编解码结构的目标跟踪方法 |
CN111815681A (zh) * | 2020-09-04 | 2020-10-23 | 中国科学院自动化研究所 | 基于深度学习和判别式模型训练的目标跟踪方法及存储器 |
CN112651998A (zh) * | 2021-01-18 | 2021-04-13 | 沈阳航空航天大学 | 基于注意力机制和双流多域卷积神经网络的人体跟踪算法 |
CN112651998B (zh) * | 2021-01-18 | 2023-10-31 | 沈阳航空航天大学 | 基于注意力机制和双流多域卷积神经网络的人体跟踪算法 |
CN115953430A (zh) * | 2022-12-21 | 2023-04-11 | 贵州财经大学 | 基于改进的批量样本损失函数的视频单目标跟踪方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106709936A (zh) | 一种基于卷积神经网络的单目标跟踪方法 | |
Yang et al. | Real-time face detection based on YOLO | |
CN107871124B (zh) | 一种基于深度神经网络的遥感图像目标检测方法 | |
CN107609525B (zh) | 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法 | |
CN110674785A (zh) | 一种基于人体关键点跟踪的多人姿态分析方法 | |
CN109117876A (zh) | 一种稠密小目标检测模型构建方法、模型及检测方法 | |
CN109697469A (zh) | 一种基于一致性约束的自学习小样本遥感图像分类方法 | |
CN108009509A (zh) | 车辆目标检测方法 | |
CN110033473A (zh) | 基于模板匹配和深度分类网络的运动目标跟踪方法 | |
CN109800689A (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
CN106875373A (zh) | 基于卷积神经网络剪枝算法的手机屏幕mura缺陷检测方法 | |
CN107895160A (zh) | 人脸检测与识别装置及方法 | |
CN106529499A (zh) | 基于傅里叶描述子和步态能量图融合特征的步态识别方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN108520530A (zh) | 基于长短时记忆网络的目标跟踪方法 | |
CN107507170A (zh) | 一种基于多尺度图像信息融合的机场跑道裂缝检测方法 | |
CN108304820A (zh) | 一种人脸检测方法、装置及终端设备 | |
CN110472594A (zh) | 目标跟踪方法、信息插入方法及设备 | |
CN109598684A (zh) | 结合孪生网络的相关滤波跟踪方法 | |
CN112949408B (zh) | 一种过鱼通道目标鱼类实时识别方法和系统 | |
CN107609575A (zh) | 书法评价方法、书法评价装置和电子设备 | |
CN103440510A (zh) | 一种面部图像中特征点的定位方法 | |
CN109886356A (zh) | 一种基于三分支神经网络的目标追踪方法 | |
CN108460790A (zh) | 一种基于一致性预测器模型的视觉跟踪方法 | |
CN109741268A (zh) | 一种针对壁画的破损图像补全方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170524 |
|
RJ01 | Rejection of invention patent application after publication |