CN108846358B - 一种基于孪生网络进行特征融合的目标跟踪方法 - Google Patents
一种基于孪生网络进行特征融合的目标跟踪方法 Download PDFInfo
- Publication number
- CN108846358B CN108846358B CN201810606690.3A CN201810606690A CN108846358B CN 108846358 B CN108846358 B CN 108846358B CN 201810606690 A CN201810606690 A CN 201810606690A CN 108846358 B CN108846358 B CN 108846358B
- Authority
- CN
- China
- Prior art keywords
- model
- target
- cnn
- hog
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
Abstract
一种基于孪生网络进行特征融合的目标跟踪方法,包括孪生网络模型的训练过程和模型在目标跟踪场景中的应用;孪生网络模型的训练过程如下:步骤1.1:模型训练数据集的选取;步骤1.2:训练数据集的预处理;步骤1.3:模型的训练:输入步骤1.2预处理的训练集进行训练;步骤1.4:模型获取;模型在目标跟踪场景中的应用过程如下:步骤2.1:数据输入;步骤2.2:模板更新;步骤2.3:目标位置评估;步骤2.4:利用算法得到的评估位置,提取后续的图像对,将提取到的图像对作为模型的输入,输入到模型中,重复上述的步骤2.1‑2.4的过程,直到图像序列中所有图像都处理完为止。本发明提升鲁棒性,提升跟踪效果。
Description
技术领域
本专利涉及机器学习、图像处理领域,更具体的说,涉及目标跟踪、卷积神经网络、特征融合领域。
背景技术
复杂背景下的目标跟踪技术是计算机视觉领域的核心研究课题之一,其涉及特征提取、目标识别、机器学习等多方面技术。先验知识不足是目标跟踪技术面临的最大挑战。在进行目标跟踪任务时,仅提供目标在视频第一帧中的位置信息,同时在目标跟踪过程中,会遇到目标被遮挡、光照变化、目标形变、旋转、运动模糊等一系列问题,这都极大增加了目标跟踪的难度。
从1955年目标跟踪概念被提出至今,目标跟踪方法层出不穷,但是很多方法在复杂背景下的目标跟踪效果仍然不够理想。传统方法一般是利用手工设计的特征进行目标建模从而完成目标跟踪的任务,不同特征从不同角度对目标进行描述,同时不同特征又各有其优缺点,例如颜色特征对目标形变具有较高的鲁棒性,而对颜色、光照变化较为敏感;Hog特征对颜色、光照变化不敏感,却对目标形变较为敏感。近年来,随着硬件计算性能的提升,深度学习方法得到广泛应用,一些研究者开始尝试结合深度神经网络设计目标跟踪算法,如 Bertinetto等人基于全卷积网络提出的端到端的方法SiameseFC以及Held等人基于深度回归网络提出的GOTURN跟踪器等。这些方法利用CNN特征对目标进行建模,但该特征受训练样本约束较大,若训练样本不够充分,将会影响对目标的建模效果,最终导致跟踪过程中目标丢失。
为了将目标跟踪应用于复杂场景中,我们需要设计出一种鲁棒性更好准确率更高的目标跟踪方法。
发明内容
为了提升目标跟踪方法的鲁棒性,本发明提供一种基于孪生网络进行特征融合的目标跟踪方法,基于深度学习的特征融合策略,该方法通过对训练样本进行特征提取,并训练相关权重系数将不同的特征建模得到的表观模型进行融合,使得多个特征结合更为紧密,最终达到提升跟踪效果的目的。
本发明解决其技术问题所采用的技术方案是:
一种基于孪生网络进行特征融合的目标跟踪方法,包括孪生网络模型的训练过程和模型在目标跟踪场景中的应用;
所述孪生网络模型的训练过程如下:
步骤1.1:模型训练数据集的选取:根据目标跟踪的应用需求,我们选取包含目标的完整视频序列作为训练集;
步骤1.2:训练数据集的预处理:因为在目标跟踪过程中,输入模型的是一张只包含目标的图像块和一张包含目标以及目标周围背景的图像块,所以在模型训练前,需要对训练集进行预处理,生成符合网络输入要求的训练集;
步骤1.3:模型的训练:输入步骤1.2预处理的训练集进行训练,步骤如下:,
步骤1.3.1:为了提升训练模型的鲁棒性,采用随机读取的方式,每次读取多对图像块输入网络进行训练;
步骤1.3.2:利用孪生网络结构对一组图像块(x′,z′)分别提取CNN和HOG 特征,将这些特征记为x′HOG,x′CNN,z′HOG,z′CNN;
步骤1.3.3:利用步骤1.3.2所提取到的特征x'HOG和x′CNN,生成两个用于匹配的特征模板,分别记为TempCNN和TempHOG,利用公式(1)求解模板,
F(T)=‖Tx-y‖2+λ‖T‖2 (1)
式中T表示模板Temp,y表示期望响应,表示相关滤波操作,为了防止过拟合,在式中加入了正则项λ‖T‖2。
步骤1.3.4:根据TempCNN和TempHOG以及z′HOG和z′CNN,分别生成两个特征响应图,记为RespCNN和RespHOG,利用如下公式求得特征响应图,
RespCNN=TempCNNz′CNN (2)
RespHOG=TempHOGz′HOG (3)
步骤1.3.5:利用网络训练的相关权重融合响应图,将融合后的响应图记为Respmerge,融合操作用式(4)表示,
Respmerge=M(RespCNN,RespHOG) (4)
式中M为融合函数,其中的融合权重均由网络训练得到;
步骤1.3.6:在网络的最后设置逻辑斯谛回归层,优化最终的训练结果,根据坐标点的数据是否位于ground truth区域设置空间上的标签,1表示位于区域内, -1表示不在区域内;
训练模型使得损失函数取得最小值,记损失函数为l,
argmin∑il(M(RespCNN,RespHOG),Li) (6)
步骤1.4:模型获取:设置迭代次数,在模型迭代结束之后,取出最终迭代生成的模型作为目标跟踪时使用的跟踪模型;
模型在目标跟踪场景中的应用过程如下:
步骤2.1:数据输入:在目标跟踪过程中,模型的使用采用的是前向反馈的模式;跟踪开始,需要指定第一帧中跟踪目标的位置信息,在后续跟踪过程中,则以上一帧中通过算法评估出的目标区域为中心,取4倍的大小作为当前帧的目标搜索区域,进行跟踪;
步骤2.2:模板更新:每输入一组图像对进行跟踪,都会生成新的模板,采取将历史模板和新模板结合的方法,模板融合的方法如公式(7)和(8)所示,
TempCNN,new=(1-ηc)TempCNN,old+ηcTempCNN,curr (7)
TempHOG,new=(1-ηh)TempHOG,old+ηhTempHoG,curr (8)
式中ηc和ηh分别表示CNN和HOG特征模板的学习率,TempCNN,old和 TempHOG,old表示旧的模板,TempCNN,curr和TempHOG,curr表示以当前帧作为输入生成的新模板,将新的模板代入式(2)和(3)中,得到式(9)和(10):
RespCNN=TempCNN,newZ′CNN (9)
RespHoG=TempHOG,newz′HOG (10)
步骤2.3:目标位置评估:根据响应图的值来确定目标的中心点的位置信息;
步骤2.4:利用算法得到的评估位置,按照第一部分中步骤2.2所述的图像对提取方法,提取后续的图像对,将提取到的图像对作为模型的输入,输入到模型中,重复上述的步骤2.1-2.4的过程,直到图像序列中所有图像都处理完为止。
本发明的技术构思为:所述的基于孪生网络进行特征融合的目标跟踪方法的意思是,利用孪生网络这一深度神经网络架构分别提取HOG和CNN特征并训练相关权重对特征进行融合,利用这一融合的结果来提升目标跟踪效果,使得跟踪方法的鲁棒性更好。因为现在很多的跟踪方法都是基于手工设计的特征实现的,忽视了深度学习这一强力的工具。深度学习可以利用大量的数据进行训练,从而得到较优的权重去描述目标,同时基于深度神经网络结构的特征融合方法通过大量数据的训练,得出的权重自适应性强,将这些权重用于特征融合,使得特征融合的结果更为优秀。本专利所提出的方法具有跟踪准确度高鲁棒性好,在GPU 模式下跟踪速度快的特点。
本发明的有益效果主要表现在:利用深度学习结构进行特征的融合,由于权重是通关大量数据学习出来的,模型的跟踪效果更佳。同时,从理论上来说,该网络架构可以进行拓展,可以融合更多的特征,使得各种特征可以更好的结合,从而构建更全面的表观模型。
附图说明
图1为本发明的网络的整体流程图。
图2为本发明的实施例的训练集样例。
图3为本发明中在遮挡,形变以及背景聚类的情况下的跟踪效果。
图4为本发明中在运动模糊,目标出平面并旋转以及部分序列离开视野的跟踪效果。
图5为本发明中在光照变化以及尺度变化的情况下的跟踪效果。
图6为本发明中在快速移动以及低分辨的情况下的跟踪效果。
图7为本发明中在目标在图像中旋转的情况下的跟踪效果。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图7,一种基于特征融合的孪生网络的目标跟踪方法,包括孪生网络模型的训练过程和模型在目标跟踪场景中的应用;
所述孪生网络模型的训练过程如下:
步骤1.1:选取训练集合,训练集必须满足以下条件:1.每帧图像必须包含跟踪目标。2.一组训练图像由具有相关性的前后两帧图像组成。我们的训练集包含了3862组图像序列。
步骤1.2:训练集图片的预处理,训练集处理包含图像分割以及标签数据的生成,具体操作如下:
步骤1.2.1:首先以前后两帧图像为一组,组成一组作为网络输入的训练图像对。假设一组图像序列有323张图片,那么这样的一组图像序列就可以生成 322组图像对。
步骤1.2.2:其次,在生成图像对之后,从图像对中提取目标所在的区域。我们将一组图像对的两帧图像记为(x,z),其中x表示前一帧图像,z表示需要进行目标搜索的图像,从x中提取目标区域,目标区域的中心点在图像中的坐标记为(xrow,xcol),目标区域的长和宽分别记为xwidth和xheight。在z中,同样以 (xrow,xcol)为中心提取长宽为两倍的区域,得到的图像对记为(x′,z′)。
步骤1.2.3:将提取到的图像对(x′,z′)归一化到255×255的大小,保存图像对用于后续的网络输入。一组图像对的组成参照图2所示。
步骤1.3:读取步骤1.2中处理好的训练数据,进行模型的训练,整个模型的结构参照图1,过程如下:
步骤1.3.1:为提升训练模型的鲁棒性,训练数据采取随机读取的方式,每次读取8对图像进行训练,从而避免一次输入数据过少导致模型陷入局部最优的情况出现。
步骤1.3.2:因为网络的输入为两帧图像,我们采用孪生网络的结构,孪生网络结构是由两个相似的并行网络组成但在特征提取层所用的参数是相同的。参照图1的结构我们对Tracking imagex′和Test imagez′进行特征提取,对于这两块图像块提取HOG和CNN特征,分别记为x′HOG,x′CNN,z′HOG,z′CNN。我们设计的网络只包含两层卷积层就可以取得不错的跟踪效果,这两层卷积层的卷积核大小分别是11×11×3×96和5×5×48×32。
步骤1.3.3:参考图1的结构,在提取特征之后,我们利用x′HOG和x′CNN,生成两个用于匹配的特征模板,记为TempCNN和TempHOG。通关相关滤波的方法获得模板,求解模板的过程相当于独立求解两个岭回归问题,需要求解的公式如式 (1):
F(T)=‖Tx-y‖2+λ‖T‖2 (1)
其中T表示模板Temp,y表示期望响应,表示相关滤波操作,为了防止过拟合,我们在式中加入了正则项λ‖T‖2。
步骤1.3.4:参照图1我们利用TempCNN和TempHOG以及z′HOG和z′CNN,分别生成两个特征响应图,记为RespCNN和RespHOG,特征响应图也可以称为分值图,这两个响应图可以根据公式(2)和(3)获得,
RespCNN=TempCNNz′CNN (2)
RespHoG=TempHOGz′HOG (3)
步骤1.3.5:参照图1所示,在获得RespCNN和RespHOG之后,我们需要将两个响应图进行融合得到更好的响应图,记为Respmerge。融合的响应图可以结合两种特征的优点,削弱两种特征的不足。融合过程如式(4)
Respmerge=M(RespCNN,RespHOG) (4)
其中M为融合函数,其中的融合权重均由网络训练得到。
步骤1.3.6:在网络的最后设置逻辑斯谛回归层,用于优化最终的网络结果,根据坐标点的数据是否位于ground truth区域设置空间上的标签,1表示位于区域内,-1表示不在区域内。
训练模型使得损失函数取得最小值,记损失函数为l,
arg min∑il(M(RespCNN,RespHOG),Li) (6)
步骤1.4:设置迭代次数,在模型迭代结束之后,取出最终迭代生成的模型作为目标跟踪时使用的跟踪模型。
模型在目标跟踪场景中的应用过程如下:
步骤2.1:在目标跟踪过程中,模型的使用采用的是前向反馈的模式。跟踪开始,需要指定第一帧中跟踪目标的位置信息,在后续跟踪过程中,则以上一帧中通过算法评估出的目标区域为中心,取4倍的大小作为当前帧的目标搜索区域,进行跟踪。
步骤2.2:每输入一组图像对进行跟踪,都会生成新的模板,仅使用新模板用于跟踪得到的结果不佳,往往会出现模型漂移的问题。为了解决上述问题,可以采取将历史模板和新模板结合的方法,模板融合的方法如公式(7)和(8)所示,
TempCNN,new=(1-ηc)TempcNN,old+ηcTempCNN,curr (7)
TempHOG,new=(1-ηh)TempHoG,old+ηhTempHOG,curr (8)
式中ηc和ηh分别表示CNN和HOG特征模板的学习率,我们将两个学习率ηc和ηh的值均设置为0.005,TempCNN,old和TempHOG,old表示旧的模板, TempCNN,curr和TempHOG,curr表示以当前帧作为输入生成的模板,将新的模板代入式(2)和(3)中,得到式(9)和(10):
RespCNN=TempCNN,newz′CNN (9)
RespHOG=TempHOG,newz′HOG (10)
步骤2.3:目标中心点的位置与响应图的幅值有关,根据响应图的最大值的位置可以确定目标中心点在搜索区域中的位置。响应图的最大值位置的坐标信息就是目标的偏移距离。
步骤2.4:利用算法得到的评估位置,按照第一部分中步骤2所述的图像对提取方法,提取后续的图像对,将提取到的图像对作为模型的输入,输入到模型中,重复上述的步骤2.1-2.4的过程,直到图像序列中所有图像都处理完为止。
我们方法的结果参照图3到图7,图中绿色框表示目标所在的真实区域,红色框表示的是利用我们的方法评估出的目标区域。图3所包含的情形是光照变化、遮挡、形变、在图像区域外旋转、背景聚类,图4包含的情形是光照变化、尺度变化、遮挡、运动模糊、快速运动、在图像区域外旋转、目标离开视野、背景聚类,图5包含的情形是光照变化、尺度变化、在图像区域内旋转、在图像区域外旋转、背景聚类,图6包含的情形尺度变化、遮挡、运动模糊、快速运动、在图像区域外旋转、目标离开视野、低分辨率,图7包含的情形是尺度变化、遮挡、形变、在图像区域内旋转、在图像区域外旋转、目标离开视野、低分辨率。在这些情形下,我们的方法依然取得了较好的效果,充分的说明了我们的方法有不错的鲁棒性。
图2所提到的训练样本是处理ImageNet所获得的,ImageNet参照文献1: Deng J,Dong W,Socher R,et al.ImageNet:A large-scale hierarchical image database[C]//Computer Vision and Pattern Recognition,2009.CVPR 2009.IEEE Conferenceon.IEEE,2009:248-255.即Deng等人于2009年发表在CVPR上的论文《ImageNet:一个大规模的分层图像数据库》,图3~图7是利用OTB50的数据集测试本专利所提出方法的性能,OTB50参照文献2:Wu Y,Lim J,Yang M H.Online Object Tracking:A Benchmark[C]//ComputerVisionand Pattern Recognition.IEEE, 2013:2411-2418.即Wu等人于2013年发表在CVPR上的论文《一个应用于在目标跟踪方法的评判标准》。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围的不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (1)
1.一种基于孪生网络进行特征融合的目标跟踪方法,其特征在于,所述方法包括孪生网络模型的训练过程和模型在目标跟踪场景中的应用;
所述孪生网络模型的训练过程如下:
步骤1.1:模型训练数据集的选取:根据目标跟踪的应用需求,我们选取包含目标的完整视频序列作为训练集;
步骤1.2:训练数据集的预处理:因为在目标跟踪过程中,输入模型的是一张只包含目标的图像块和一张包含目标以及目标周围背景的图像块,所以在模型训练前,需要对训练集进行预处理,生成符合网络输入要求的训练集;图像对提取方法的操作如下:
步骤1.2.1:首先以前后两帧图像为一组,组成一组作为网络输入的训练图像对;
步骤1.2.2:其次,在生成图像对之后,从图像对中提取目标所在的区域,将一组图像对的两帧图像记为(x,z),其中x表示前一帧图像,z表示需要进行目标搜索的图像,从x中提取目标区域,目标区域的中心点在图像中的坐标记为(xrow,xcol),目标区域的长和宽分别记为xwidth和xheight,在z中,同样以(xrow,xcol)为中心提取长宽为两倍的区域,得到的图像对记为(x′,z′);
步骤1.2.3:将提取到的图像对(x′,z′)归一化到255×255的大小,保存图像对用于后续的网络输入;
步骤1.3:模型的训练:输入步骤1.2预处理的训练集进行训练,步骤如下:
步骤1.3.1:为了提升训练模型的鲁棒性,采用随机读取的方式,每次读取多对图像块输入网络进行训练;
步骤1.3.2:利用孪生网络结构对一组图像块(x′,z′)分别提取CNN和HOG特征,将这些特征记为x′HOG,x′CNN,z′HOG,z′CNN;
步骤1.3.3:利用步骤1.3.2所提取到的特征x′HOG和x′CNN,生成两个用于匹配的特征模板,分别记为TempCNN和TempHOG,利用公式(1)求解模板,
步骤1.3.4:根据TempCNN和TempHOG以及z′HOG和z′CNN,分别生成两个特征响应图,记为RespCNN和RespHOG,利用如下公式求得特征响应图,
步骤1.3.5:利用网络训练的相关权重融合响应图,将融合后的响应图记为Respmerge,融合操作用式(4)表示,
Respmerge=M(RespCNN,RespHOG) (4)
式中M为融合函数,其中的融合权重均由网络训练得到;
步骤1.3.6:在网络的最后设置逻辑斯谛回归层,优化最终的训练结果,根据坐标点的数据是否位于ground truth区域设置空间上的标签,1表示位于区域内,-1表示不在区域内;
训练模型使得损失函数取得最小值,记损失函数为l,
argmin∑il(M(RespCNN,RespHOG),Li)(6)
步骤1.4:模型获取:设置迭代次数,在模型迭代结束之后,取出最终迭代生成的模型作为目标跟踪时使用的跟踪模型;
模型在目标跟踪场景中的应用过程如下:
步骤2.1:数据输入:在目标跟踪过程中,模型的使用采用的是前向反馈的模式;跟踪开始,需要指定第一帧中跟踪目标的位置信息,在后续跟踪过程中,则以上一帧中通过算法评估出的目标区域为中心,取4倍的大小作为当前帧的目标搜索区域,进行跟踪;
步骤2.2:模板更新:每输入一组图像对进行跟踪,都会生成新的模板,采取将历史模板和新模板结合的方法,模板融合的方法如公式(7)和(8)所示,
TempCNN,new=(1-ηc)TempCNN,old+ηcTempCNN,curr (7)
TempHOG,new=(1-ηh)TempHOG,old+ηhTempHOG,curr (8)
式中ηc和ηh分别表示CNN和HOG特征模板的学习率,TempCNN,old和TempHOG,old表示旧的模板,TempCNN,curr和TempHOG,curr表示以当前帧作为输入生成的新模板,将新的模板代入式(2)和(3)中,得到式(9)和(10):
步骤2.3:目标位置评估:根据响应图的值来确定目标的中心点的位置信息;
步骤2.4:利用算法得到的评估位置,按照步骤1.2所述的图像对提取方法,提取后续的图像对,将提取到的图像对作为模型的输入,输入到模型中,重复上述的步骤2.1-2.4的过程,直到图像序列中所有图像都处理完为止。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810606690.3A CN108846358B (zh) | 2018-06-13 | 2018-06-13 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810606690.3A CN108846358B (zh) | 2018-06-13 | 2018-06-13 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108846358A CN108846358A (zh) | 2018-11-20 |
CN108846358B true CN108846358B (zh) | 2021-10-26 |
Family
ID=64210946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810606690.3A Active CN108846358B (zh) | 2018-06-13 | 2018-06-13 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108846358B (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109685826A (zh) * | 2018-11-27 | 2019-04-26 | 哈尔滨工业大学(深圳) | 自适应特征选择的目标追踪方法、系统及存储介质 |
CN109872342A (zh) * | 2019-02-01 | 2019-06-11 | 北京清帆科技有限公司 | 一种特定场景下的目标跟踪方法 |
CN110349176B (zh) * | 2019-06-28 | 2021-04-06 | 华中科技大学 | 基于三重卷积网络和感知干扰学习的目标跟踪方法和系统 |
CN110428447B (zh) * | 2019-07-15 | 2022-04-08 | 杭州电子科技大学 | 一种基于策略梯度的目标跟踪方法与系统 |
CN110610230A (zh) * | 2019-07-31 | 2019-12-24 | 国家计算机网络与信息安全管理中心 | 一种台标检测方法、装置及可读存储介质 |
CN110480128A (zh) * | 2019-08-28 | 2019-11-22 | 华南理工大学 | 一种六自由度焊接机器人线激光实时焊缝跟踪方法 |
CN110675423A (zh) * | 2019-08-29 | 2020-01-10 | 电子科技大学 | 一种基于孪生神经网络和注意力模型的无人机跟踪方法 |
CN110570490B (zh) * | 2019-09-06 | 2021-07-30 | 北京航空航天大学 | 显著性图像生成方法及设备 |
CN110675429A (zh) * | 2019-09-24 | 2020-01-10 | 湖南人文科技学院 | 基于孪生网络和相关滤波器的长短程互补型目标跟踪方法 |
CN110781778B (zh) * | 2019-10-11 | 2021-04-20 | 珠海格力电器股份有限公司 | 一种门禁控制方法、装置、存储介质及家居系统 |
CN111275736A (zh) * | 2020-01-07 | 2020-06-12 | 中国科学院大学 | 一种基于目标场景一致性的无人机视频多目标跟踪方法 |
CN111523463B (zh) * | 2020-04-22 | 2023-05-23 | 南京工程学院 | 基于匹配-回归网络的目标跟踪方法及训练方法 |
CN111640138B (zh) * | 2020-05-28 | 2023-10-27 | 济南博观智能科技有限公司 | 一种目标跟踪方法、装置、设备及存储介质 |
CN111797716B (zh) * | 2020-06-16 | 2022-05-03 | 电子科技大学 | 一种基于Siamese网络的单目标跟踪方法 |
CN111754546A (zh) * | 2020-06-18 | 2020-10-09 | 重庆邮电大学 | 一种基于多特征图融合的目标跟踪方法、系统及存储介质 |
CN111862160B (zh) * | 2020-07-23 | 2023-10-13 | 中国兵器装备集团自动化研究所有限公司 | 一种基于arm平台的目标跟踪方法、介质和系统 |
CN112069896B (zh) * | 2020-08-04 | 2022-12-02 | 河南科技大学 | 一种基于孪生网络融合多模板特征的视频目标跟踪方法 |
CN113327271B (zh) * | 2021-05-28 | 2022-03-22 | 北京理工大学重庆创新中心 | 基于双光孪生网络决策级目标跟踪方法、系统及存储介质 |
CN113379787B (zh) * | 2021-06-11 | 2023-04-07 | 西安理工大学 | 基于3d卷积孪生神经网络和模板更新的目标跟踪方法 |
CN113808166B (zh) * | 2021-09-15 | 2023-04-18 | 西安电子科技大学 | 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法 |
CN114529583B (zh) * | 2022-02-10 | 2024-03-19 | 国网河南省电力公司电力科学研究院 | 基于残差回归网络的电力设备跟踪方法及跟踪系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105184778A (zh) * | 2015-08-25 | 2015-12-23 | 广州视源电子科技股份有限公司 | 一种检测方法及装置 |
CN106875425A (zh) * | 2017-01-22 | 2017-06-20 | 北京飞搜科技有限公司 | 一种基于深度学习的多目标追踪系统及实现方法 |
CN107220277A (zh) * | 2017-04-14 | 2017-09-29 | 西北大学 | 基于手绘草图的图像检索算法 |
CN107452025A (zh) * | 2017-08-18 | 2017-12-08 | 成都通甲优博科技有限责任公司 | 目标跟踪方法、装置及电子设备 |
CN107562805A (zh) * | 2017-08-08 | 2018-01-09 | 浙江大华技术股份有限公司 | 一种以图搜图的方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160350336A1 (en) * | 2015-05-31 | 2016-12-01 | Allyke, Inc. | Automated image searching, exploration and discovery |
US20180129934A1 (en) * | 2016-11-07 | 2018-05-10 | Qualcomm Incorporated | Enhanced siamese trackers |
-
2018
- 2018-06-13 CN CN201810606690.3A patent/CN108846358B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105184778A (zh) * | 2015-08-25 | 2015-12-23 | 广州视源电子科技股份有限公司 | 一种检测方法及装置 |
CN106875425A (zh) * | 2017-01-22 | 2017-06-20 | 北京飞搜科技有限公司 | 一种基于深度学习的多目标追踪系统及实现方法 |
CN107220277A (zh) * | 2017-04-14 | 2017-09-29 | 西北大学 | 基于手绘草图的图像检索算法 |
CN107562805A (zh) * | 2017-08-08 | 2018-01-09 | 浙江大华技术股份有限公司 | 一种以图搜图的方法及装置 |
CN107452025A (zh) * | 2017-08-18 | 2017-12-08 | 成都通甲优博科技有限责任公司 | 目标跟踪方法、装置及电子设备 |
Non-Patent Citations (2)
Title |
---|
Learning to Assign Orientations to Feature Points;Kwang Moo Yi等;《2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;IEEE;20161212;全文 * |
基于深度学习的手写英文单词检索算法研究及其在历史文本上的应用;潘炜深;《中国优秀硕士学位论文全文数据库信息科技辑》;20170215;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108846358A (zh) | 2018-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108846358B (zh) | 一种基于孪生网络进行特征融合的目标跟踪方法 | |
Tu et al. | Edge-guided non-local fully convolutional network for salient object detection | |
Melekhov et al. | Dgc-net: Dense geometric correspondence network | |
Tran et al. | Regressing robust and discriminative 3d morphable models with a very deep neural network | |
Tuan Tran et al. | Regressing robust and discriminative 3D morphable models with a very deep neural network | |
CN110298404B (zh) | 一种基于三重孪生哈希网络学习的目标跟踪方法 | |
CN108416266B (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
Li et al. | Robust visual tracking based on convolutional features with illumination and occlusion handing | |
CN111311647B (zh) | 一种基于全局-局部及卡尔曼滤波的目标跟踪方法及装置 | |
CN109902565B (zh) | 多特征融合的人体行为识别方法 | |
CN108520530A (zh) | 基于长短时记忆网络的目标跟踪方法 | |
CN111625667A (zh) | 一种基于复杂背景图像的三维模型跨域检索方法及系统 | |
CN111027372A (zh) | 一种基于单目视觉与深度学习的行人目标检测识别方法 | |
CN110909741A (zh) | 一种基于背景分割的车辆再识别方法 | |
Barman et al. | Shape: A novel graph theoretic algorithm for making consensus-based decisions in person re-identification systems | |
CN113269682B (zh) | 一种结合帧间信息的非均匀运动模糊视频复原方法 | |
Chen et al. | Silhouette-based object phenotype recognition using 3D shape priors | |
CN111009005A (zh) | 几何信息与光度信息相结合的场景分类点云粗配准方法 | |
CN112364881B (zh) | 一种进阶采样一致性图像匹配方法 | |
CN115205903A (zh) | 一种基于身份迁移生成对抗网络的行人重识别方法 | |
CN108280845B (zh) | 一种针对复杂背景的尺度自适应目标跟踪方法 | |
CN111242003B (zh) | 一种基于多尺度受约束自注意机制的视频显著性物体检测的方法 | |
CN116580121B (zh) | 一种基于深度学习的单张绘画生成2d模型的方法及系统 | |
Mallis et al. | From keypoints to object landmarks via self-training correspondence: A novel approach to unsupervised landmark discovery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230719 Address after: No. 998, Wenyi West Road, Yuhang District, Hangzhou City, Zhejiang Province Patentee after: HANGZHOU HUICUI INTELLIGENT TECHNOLOGY CO.,LTD. Address before: 310014 science and technology office, Zhejiang University of Technology, No. 18 Chao Wang Road, Xiacheng District, Hangzhou, Zhejiang Patentee before: JIANG University OF TECHNOLOGY |
|
TR01 | Transfer of patent right |