CN107292915A - 基于卷积神经网络的目标跟踪方法 - Google Patents
基于卷积神经网络的目标跟踪方法 Download PDFInfo
- Publication number
- CN107292915A CN107292915A CN201710450320.0A CN201710450320A CN107292915A CN 107292915 A CN107292915 A CN 107292915A CN 201710450320 A CN201710450320 A CN 201710450320A CN 107292915 A CN107292915 A CN 107292915A
- Authority
- CN
- China
- Prior art keywords
- sample
- msub
- neural networks
- convolutional neural
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于卷积神经网络的目标跟踪方法,其主要技术特点是:搭建适用于跟踪任务的卷积神经网络框架;在中心对比损失函数约束下对搭建好的卷积神经网络进行参数训练;将训练好的模型结构进行微调,进行在线跟踪。本发明设计合理,以卷积神经网络为结构基础,重点关注不同物体间的类内差异,能够较好地应对背景混杂以及相似目标干扰的情况,具有良好的鲁棒性和较高的精确度。
Description
技术领域
本发明属于目标跟踪技术领域,尤其是一种基于卷积神经网络的目标跟踪方法。
背景技术
视觉目标跟踪技术被广泛应用于计算机视觉中的多种重要任务中,如视频监控、视觉导航以及增强现实等。近几十年来,许多优秀的跟踪算法被提出,目标跟踪领域也有了相当大的进步,但由于干扰因素甚多,如目标姿态变化、目标被遮挡,目标移动速度太快、背景过于复杂以及相似目标的出现等,很少有跟踪算法可以处理所有的问题,目标跟踪方法仍有待进一步发展。
一个完整的目标跟踪系统可以分为五部分:运动模型、特征提取器、观察模型、模型更新器和综合后处理器等。其中,特征提取器将原始图像数据转换为另外一种表达以期获得更多的信息表示,实践表明合适的特征可以显著提高跟踪性能,因此,寻找一种更加有效的特征表示依然是众多学者研究的课题。
近年来,卷积神经网络在诸如图像分类,目标检测以及人脸识别等许多计算机视觉任务中取得了巨大的成功。与传统手工设计的特征表示不同,卷积神经网络从大量标注的图片数据中进行学习,学习到的特征具有丰富的高级语义信息,在区分物体类别上具有杰出的表现。然而,受限于目标跟踪的特殊性(跟踪时只能获取关于目标第一帧图片的标注信息),卷积神经网络的强大功能受到了极大的限制。但是由于卷积神经网络提取的特征在数据集上具有很好的泛化能力,因此一个有效的解决方案是迁移学习大规模图像分类数据集(如ImageNet)预训练好的卷积神经网络模型。然而图像分类和目标跟踪之间存在差距,迁移后的卷积神经网络仍有待进一步训练完善。
对于卷积神经网络来说,层数越多,语义表达能力越强,对于图片的分类效果也就越好,但是迁移学习到目标跟踪任务当中以后,相似物体出现时,准确率就会降低。
发明内容
本发明的目地在于克服现有技术的不足,提出一种基于卷积神经网络的目标跟踪方法,解决迁移学习后相似物体干扰目标的问题。
本发明解决其技术问题是采取以下技术方案实现的:
一种基于卷积神经网络的目标跟踪方法,包括以下步骤:
步骤1、搭建适用于跟踪任务的卷积神经网络框架;
步骤2、在中心对比损失函数约束下对搭建好的卷积神经网络进行参数训练;
步骤3、将训练好的模型结构进行微调,进行在线跟踪。
所述步骤1的具体实现方法包括以下步骤:
⑴对数据集ImageNet上训练好的卷积神经网络进行迁移学习,搭建五层神经网络,其中,第1-3层为卷积层,权重参数用CNN-M迁移初始化,第4-5层为全连接层,权重参数随机初始化;
⑵采用中心对比损失函数作为目标函数来对网络参数进行优化。
所述五层神经网络结构为:
第一层为Conv1层,该层参数为:滤波器为7*7*96,步长为2;
第二层为Conv2层,该层参数为:滤波器为5*5*256,步长为2;
第三层为Conv2层,该层参数为:滤波器为3*3*512,步长为1;
第四层为Full4层,该层参数为:512,随机失活;
第五层为Full5层,该层参数为:512,随机失活;
每一层的激活函数均采用Rectified Linear Unit函数。
所述中心对比损失函数为:
其中,f代表样本经过五层卷积神经网络后映射得到的特征向量描述子,下标a代表对应样本为锚点样本,p-代表对应样本为正样本,n代表对应样本为负样本,∈代表负样本应锚点样本之间应当保持的最小距离。
所述步骤2的实现方法包括以下步骤:
⑴采集正样本和负样本:根据训练集图片以及目标在图片中的位置和大小,以目标位置和大小为中心进行高斯采样,选择IOU大于正样本重叠率阈值的图片区域作为正样本;然后在整个图片上均匀采样,选择IOU小于负样本重叠率阈值的图片区域作为负样本;
⑵对于每f帧,选择一定数量的正样本和负样本组成样本包,将实际目标位置所在样本设置为锚点,并以此为中心,与每一个样本建立连接,与正样本组成正样本对,与负样本组成负样本对;
⑶前向计算网络的损失函数值,反向计算梯度,采用小批量随机梯度下降法不断迭代优化,直到达到最大迭代次数。
所述步骤3的实现方法包括以下步骤:
⑴对训练好的网络增加第六层作为二分类器,并采用softmax作为损失函数层,之后随机初始化第六层,作为初始的正得分和负得分;
⑵用待跟踪序列的当前帧进行网络参数的再训练,再训练时,以微调为主,达到迭代次数上限以后,固定网络参数不动,从下一帧图片开始持续处理接下来的图片,选择正得分最高的m个样本取平均值作为预测目标进行输出;
⑶每持续处理t帧图片以后,再次对网络参数进行再训练微调,然后重复步骤⑵,直至序列结束。
本发明的优点和积极效果是:
1、本发明利用卷积神经网络对图像信息的强大表示能力,将卷积神经网络作为特征提取器,为目标跟踪提供有力的特征,同时,为了突出物体间的类内差异,借鉴了广泛应用于人脸识别任务中的对比损失函数,并通过巧妙的设计将对比损失函数应用到单支网络中;充分考虑到目标的多种变化形态,跟踪过程中定期进行模型的重训练,达到校正目标模型的作用,可有效解决目标背景混杂或者被相似物体干扰导致不能准确跟踪的问题。
2、本发明设计合理,以卷积神经网络为结构基础,重点关注不同物体间的类内差异,能够较好地应对背景混杂以及相似目标干扰的情况,具有良好的鲁棒性和较高的精确度。
附图说明
图1是在训练过程中正负样本距离的变化;
图2a是采用不同算法在测试序列上的定量比较结果图(精确率曲线);
图2b是采用不同算法在测试序列上的定量比较结果图(成功率曲线)。
具体实施方式
以下结合附图对本发明实施例做进一步详述。
一种基于卷积神经网络的目标跟踪方法,包括以下步骤:
步骤1、搭建适用于跟踪任务的卷积神经网络框架。
本发明不同于图像分类,目标跟踪跟踪的是某一特定目标,为保持对同类物体差异的敏感性,本发明采用层数较少的卷积神经网络,以期提取更多低层判别式信息。具体方法如下:
(1)卷积神经网络在不同数据集之间具有良好的泛化能力,因此可以直接对数据集ImageNet上训练好的卷积神经网络进行迁移学习,本发明选择CNN-M进行低层特征的迁移学习,搭建五层的神经网络,网络结构如下表所示:
其中1-3层为卷积层,权重参数用CNN-M迁移初始化,4-5层为全连接层,权重参数随机初始化。激活函数均采用RELU(REctification Linear Unit)。
(2)考虑复杂背景以及相似目标干扰的场景,为凸显不同物体的差异性,拟采用对比损失函数作为目标函数来对网络参数进行优化。应用对比损失函数的典型网络结构为双胞胎(Siamese)网络,为了将双支网络变为流线型单支网络,本发明引入锚点样本,与普通样本组成样本对,完成了对比损失函数的单支网络实现,所设计损失函数如下:
其中f代表样本经过五层卷积神经网络后映射得到的特征向量描述子,下标a代表相应样本为锚点样本,p-代表相应样本为正样本,n代表相应样本为负样本,∈代表负样本与锚点样本之间应当保持的最小距离。
步骤2、搭建好网络结构以后,在设计的中心对比损失函数约束下对搭建好的卷积神经网络进行参数训练。
如图1所示,训练过程中,正样本间距离会缩近,负样本与正样本间间距会扩大,正负样本由混杂在一起逐渐变得开朗起来。用T-SNE技术对样本的特征描述子进行可视化。其中‘0’代表负样本,‘1’代表正样本,图中左侧是迭代前的状态,图中右侧是100次迭代后的状态,从图中可以看出:经过数次迭代以后,正负样本由混杂在一起变得明朗可分。
本步骤的具体实现方法为:
(1)采集正样本和负样本。根据训练集图片以及目标在图片中的位置和大小,以目标位置和大小为中心进行高斯采样,选择IOU(intersection over union overlap)大于正样本重叠率阈值的图片区域作为正样本;接着在整个图片上均匀采样,选择IOU小于负样本重叠率阈值的图片区域作为负样本。所有图片样本大小统一缩放为M*N:
(2)对于每f帧,选择一定数量的正样本和负样本组成样本包(minibatch),将实际目标位置所在样本设置为锚点,并以此为中心,与每一个样本建立连接,与正样本组成正样本对,与负样本组成负样本对。
(3)前向计算网络的损失函数值,反向计算梯度,采用小批量随机梯度下降法不断迭代优化,直到达到最大迭代次数。
步骤3、跟踪时多采用判别式模型,将训练好的模型进行微调,增加softmax层进行在线跟踪。本步骤的具体实现方法为:
(1)对训练好的网络增加第六层作为二分类器,并采用softmax作为损失函数层,之后随机初始化第六层,作为初始的正得分和负得分。
(2)用待跟踪序列的当前帧进行网络参数的再训练,再训练时,微调为主,达到迭代次数上限以后,固定网络参数不动,从下一帧图片开始持续处理接下来的图片,选择正得分最高的m个样本取平均值作为预测目标进行输出。
(3)每持续处理t帧图片以后,再次对网络参数进行再训练微调,然后重复步骤(2),直至序列结束。
下面按照本发明的方法进行实验,说明本发明的效果。
测试环境:CUDA7.5,MATLAB R2015b。
序列:一共包含80个训练序列,20个测试序列,测试序列分别为basketball,blurCar,bolt,bolt2,carDark,couple,girl2,human3,human5,human6,matrix,motorRolling,shaking,singer,singer2,skating2-1,skating2-2,soccer,tiger1,tiger2。
测试指标:实验使用了两种评价指标,分别为CLE和VOR,其中CLE是中心位置误差,表示跟踪到的目标和真实目标的中心位置的像素距离。由于CLE忽略了目标大小的影响,作为补充,考虑VOR准则,VOR定义为跟踪的目标区域与真实目标区域的交集与并集的比值。
测试结果如表1、图2a、图2b所示:
表1、10个跟踪算法在20个序列上的实验结果,CLE<20,VOR>0.5
算法 | CLE | VOR | 算法 | CLE | VOR |
本发明 | 0.8547 | 0.7554 | SRDCF-decon | 0.7097 | 0.6612 |
MDNet-vot | 0.8145 | 0.7645 | SRDCF | 0.6193 | 0.5661 |
C-COT | 0.7994 | 0.7207 | KCF | 0.4438 | 0.37 |
CNN-SVM | 0.6937 | 0.5988 | Struck | 0.3617 | 0.2976 |
HDT | 0.7205 | 0.5532 | TLD | 0.3274 | 0.2947 |
表中的数字代表跟踪成功的视频帧的比例,通过上表及图2a、图2b可以看出,采用本发明进行目标跟踪相对于其他方法具有很强的竞争力。表中进行对比的算法都是在跟踪领域中取得优异成果或者具有一定代表性的算法。而本发明算法无论是在CLE标准还是VOR标准下,都取得了较佳的性能,平均跟踪成功的帧数达到了85.47%(CLE<20)和75.54%(VOR>0.5)。图2a、图2b给出了遍历CLE和VOR时跟踪结果的定量比较,比较结果显示本发明提出的算法在精确率曲线和成功率曲线上性能俱佳。且测试序列中涵盖各种类型的干扰因素,如遮挡、形变、背景混杂、快速移动等,说明本发明能够应对各种环境变化的情况,具有良好的鲁棒性和较强的可扩展性。
需要强调的是,本发明所述的实施例是说明性的,而不是限定性的,因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。
Claims (6)
1.一种基于卷积神经网络的目标跟踪方法,其特征在于包括以下步骤:
步骤1、搭建适用于跟踪任务的卷积神经网络框架;
步骤2、在中心对比损失函数约束下对搭建好的卷积神经网络进行参数训练;
步骤3、将训练好的模型结构进行微调,进行在线跟踪。
2.根据权利要求1所述的基于卷积神经网络的目标跟踪方法,其特征在于:所述步骤1的具体实现方法包括以下步骤:
⑴对数据集ImageNet上训练好的卷积神经网络进行迁移学习,搭建五层神经网络,其中,第1-3层为卷积层,权重参数用CNN-M迁移初始化,第4-5层为全连接层,权重参数随机初始化;
⑵采用中心对比损失函数作为目标函数来对网络参数进行优化。
3.根据权利要求3所述的基于卷积神经网络的目标跟踪方法,其特征在于:所述五层神经网络结构为:
第一层为Conv1层,该层参数为:滤波器为7*7*96,步长为2;
第二层为Conv2层,该层参数为:滤波器为5*5*256,步长为2;
第三层为Conv2层,该层参数为:滤波器为3*3*512,步长为1;
第四层为Full4层,该层参数为:512,随机失活;
第五层为Full5层,该层参数为:512,随机失活;
每一层的激活函数均采用Rectified Linear Unit函数。
4.根据权利要求2所述的基于卷积神经网络的目标跟踪方法,其特征在于:所述中心对比损失函数为:
<mrow>
<mi>L</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>a</mi>
</msub>
<mo>,</mo>
<msub>
<mi>x</mi>
<mi>p</mi>
</msub>
<mo>,</mo>
<msub>
<mi>x</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>f</mi>
<mi>p</mi>
</msub>
<mo>-</mo>
<msub>
<mi>f</mi>
<mi>a</mi>
</msub>
<mo>|</mo>
<msup>
<msub>
<mo>|</mo>
<mn>2</mn>
</msub>
<mn>2</mn>
</msup>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mn>0</mn>
<mo>,</mo>
<msup>
<mo>&Element;</mo>
<mn>2</mn>
</msup>
<mo>-</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>f</mi>
<mi>n</mi>
</msub>
<mo>-</mo>
<msub>
<mi>f</mi>
<mi>a</mi>
</msub>
<mo>|</mo>
<msup>
<msub>
<mo>|</mo>
<mn>2</mn>
</msub>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
其中,f代表样本经过五层卷积神经网络后映射得到的特征向量描述子,下标a代表对应样本为锚点样本,p-代表对应样本为正样本,n代表对应样本为负样本,∈代表负样本应锚点样本之间应当保持的最小距离。
5.根据权利要求1所述的基于卷积神经网络的目标跟踪方法,其特征在于:所述步骤2的实现方法包括以下步骤:
⑴采集正样本和负样本:根据训练集图片以及目标在图片中的位置和大小,以目标位置和大小为中心进行高斯采样,选择IOU大于正样本重叠率阈值的图片区域作为正样本;然后在整个图片上均匀采样,选择IOU小于负样本重叠率阈值的图片区域作为负样本;
⑵对于每f帧,选择一定数量的正样本和负样本组成样本包,将实际目标位置所在样本设置为锚点,并以此为中心,与每一个样本建立连接,与正样本组成正样本对,与负样本组成负样本对;
⑶前向计算网络的损失函数值,反向计算梯度,采用小批量随机梯度下降法不断迭代优化,直到达到最大迭代次数。
6.根据权利要求1所述的基于卷积神经网络的目标跟踪方法,其特征在于:所述步骤3的实现方法包括以下步骤:
⑴对训练好的网络增加第六层作为二分类器,并采用softmax作为损失函数层,之后随机初始化第六层,作为初始的正得分和负得分;
⑵用待跟踪序列的当前帧进行网络参数的再训练,再训练时,以微调为主,达到迭代次数上限以后,固定网络参数不动,从下一帧图片开始持续处理接下来的图片,选择正得分最高的m个样本取平均值作为预测目标进行输出;
⑶每持续处理t帧图片以后,再次对网络参数进行再训练微调,然后重复步骤⑵,直至序列结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710450320.0A CN107292915A (zh) | 2017-06-15 | 2017-06-15 | 基于卷积神经网络的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710450320.0A CN107292915A (zh) | 2017-06-15 | 2017-06-15 | 基于卷积神经网络的目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107292915A true CN107292915A (zh) | 2017-10-24 |
Family
ID=60097569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710450320.0A Pending CN107292915A (zh) | 2017-06-15 | 2017-06-15 | 基于卷积神经网络的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107292915A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108182695A (zh) * | 2017-12-29 | 2018-06-19 | 纳恩博(北京)科技有限公司 | 目标跟踪模型训练方法及装置、电子设备和存储介质 |
CN108417217A (zh) * | 2018-01-11 | 2018-08-17 | 苏州思必驰信息科技有限公司 | 说话人识别网络模型训练方法、说话人识别方法及系统 |
CN108416780A (zh) * | 2018-03-27 | 2018-08-17 | 福州大学 | 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 |
CN108537264A (zh) * | 2018-03-30 | 2018-09-14 | 西安电子科技大学 | 基于深度学习的异源图像匹配方法 |
CN108764313A (zh) * | 2018-05-17 | 2018-11-06 | 西安电子科技大学 | 基于深度学习的超市商品识别方法 |
CN108921879A (zh) * | 2018-05-16 | 2018-11-30 | 中国地质大学(武汉) | 基于区域选择的CNN和Kalman滤波的运动目标跟踪方法及系统 |
CN109522844A (zh) * | 2018-11-19 | 2019-03-26 | 燕山大学 | 一种社交亲密度确定方法及系统 |
CN109754412A (zh) * | 2017-11-07 | 2019-05-14 | 北京京东尚科信息技术有限公司 | 目标跟踪方法、目标跟踪装置及计算机可读存储介质 |
CN109840518A (zh) * | 2018-09-07 | 2019-06-04 | 电子科技大学 | 一种结合分类与域适应的视觉追踪方法 |
CN109949336A (zh) * | 2019-02-26 | 2019-06-28 | 中科创达软件股份有限公司 | 一种连续视频帧中目标快速跟踪方法及装置 |
WO2019127924A1 (zh) * | 2017-12-29 | 2019-07-04 | 深圳云天励飞技术有限公司 | 样本权重分配方法、模型训练方法、电子设备及存储介质 |
CN110827292A (zh) * | 2019-10-23 | 2020-02-21 | 中科智云科技有限公司 | 一种基于卷积神经网络的视频实例分割方法及设备 |
CN111354019A (zh) * | 2020-03-31 | 2020-06-30 | 中国人民解放军军事科学院军事医学研究院 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
CN111709448A (zh) * | 2020-05-20 | 2020-09-25 | 西安交通大学 | 一种基于迁移关系网络的机械故障诊断方法 |
WO2021012752A1 (zh) * | 2019-07-23 | 2021-01-28 | 中建三局智能技术有限公司 | 一种基于脉冲神经网络的短程跟踪方法及系统 |
CN113673692A (zh) * | 2020-04-30 | 2021-11-19 | 北京世纪好未来教育科技有限公司 | 神经网络的训练方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140327750A1 (en) * | 2013-05-01 | 2014-11-06 | Nvidia Corporation | System, method, and computer program product for displaying a scene as a light field |
CN106022220A (zh) * | 2016-05-09 | 2016-10-12 | 西安北升信息科技有限公司 | 一种体育视频中对参赛运动员进行多人脸跟踪的方法 |
CN106709936A (zh) * | 2016-12-14 | 2017-05-24 | 北京工业大学 | 一种基于卷积神经网络的单目标跟踪方法 |
CN106780906A (zh) * | 2016-12-28 | 2017-05-31 | 北京品恩科技股份有限公司 | 一种基于深度卷积神经网络的人证合一识别方法及系统 |
-
2017
- 2017-06-15 CN CN201710450320.0A patent/CN107292915A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140327750A1 (en) * | 2013-05-01 | 2014-11-06 | Nvidia Corporation | System, method, and computer program product for displaying a scene as a light field |
CN106022220A (zh) * | 2016-05-09 | 2016-10-12 | 西安北升信息科技有限公司 | 一种体育视频中对参赛运动员进行多人脸跟踪的方法 |
CN106709936A (zh) * | 2016-12-14 | 2017-05-24 | 北京工业大学 | 一种基于卷积神经网络的单目标跟踪方法 |
CN106780906A (zh) * | 2016-12-28 | 2017-05-31 | 北京品恩科技股份有限公司 | 一种基于深度卷积神经网络的人证合一识别方法及系统 |
Non-Patent Citations (4)
Title |
---|
FLORIAN SCHROFF等: "FaceNet: A unified embedding for face recognition and clustering", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
IAROSLAV MELEKHOV等: "Siamese network features for image matching", 《2016 23RD INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION (ICPR)》 * |
RAN TAO等: "Siamese Instance Search for Tracking", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
万士宁: "基于卷积神经网络的人脸识别研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑(月刊)》 * |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109754412A (zh) * | 2017-11-07 | 2019-05-14 | 北京京东尚科信息技术有限公司 | 目标跟踪方法、目标跟踪装置及计算机可读存储介质 |
CN109754412B (zh) * | 2017-11-07 | 2021-10-01 | 北京京东乾石科技有限公司 | 目标跟踪方法、目标跟踪装置及计算机可读存储介质 |
WO2019127924A1 (zh) * | 2017-12-29 | 2019-07-04 | 深圳云天励飞技术有限公司 | 样本权重分配方法、模型训练方法、电子设备及存储介质 |
CN108182695A (zh) * | 2017-12-29 | 2018-06-19 | 纳恩博(北京)科技有限公司 | 目标跟踪模型训练方法及装置、电子设备和存储介质 |
CN108417217A (zh) * | 2018-01-11 | 2018-08-17 | 苏州思必驰信息科技有限公司 | 说话人识别网络模型训练方法、说话人识别方法及系统 |
CN108416780A (zh) * | 2018-03-27 | 2018-08-17 | 福州大学 | 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 |
CN108416780B (zh) * | 2018-03-27 | 2021-08-31 | 福州大学 | 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 |
CN108537264A (zh) * | 2018-03-30 | 2018-09-14 | 西安电子科技大学 | 基于深度学习的异源图像匹配方法 |
CN108921879A (zh) * | 2018-05-16 | 2018-11-30 | 中国地质大学(武汉) | 基于区域选择的CNN和Kalman滤波的运动目标跟踪方法及系统 |
CN108764313B (zh) * | 2018-05-17 | 2022-03-04 | 西安电子科技大学 | 基于深度学习的超市商品识别方法 |
CN108764313A (zh) * | 2018-05-17 | 2018-11-06 | 西安电子科技大学 | 基于深度学习的超市商品识别方法 |
CN109840518A (zh) * | 2018-09-07 | 2019-06-04 | 电子科技大学 | 一种结合分类与域适应的视觉追踪方法 |
CN109840518B (zh) * | 2018-09-07 | 2022-03-25 | 电子科技大学 | 一种结合分类与域适应的视觉追踪方法 |
CN109522844A (zh) * | 2018-11-19 | 2019-03-26 | 燕山大学 | 一种社交亲密度确定方法及系统 |
CN109522844B (zh) * | 2018-11-19 | 2020-07-24 | 燕山大学 | 一种社交亲密度确定方法及系统 |
CN109949336A (zh) * | 2019-02-26 | 2019-06-28 | 中科创达软件股份有限公司 | 一种连续视频帧中目标快速跟踪方法及装置 |
WO2021012752A1 (zh) * | 2019-07-23 | 2021-01-28 | 中建三局智能技术有限公司 | 一种基于脉冲神经网络的短程跟踪方法及系统 |
CN110827292B (zh) * | 2019-10-23 | 2021-08-10 | 中科智云科技有限公司 | 一种基于卷积神经网络的视频实例分割方法及设备 |
CN110827292A (zh) * | 2019-10-23 | 2020-02-21 | 中科智云科技有限公司 | 一种基于卷积神经网络的视频实例分割方法及设备 |
CN111354019A (zh) * | 2020-03-31 | 2020-06-30 | 中国人民解放军军事科学院军事医学研究院 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
CN111354019B (zh) * | 2020-03-31 | 2024-01-26 | 中国人民解放军军事科学院军事医学研究院 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
CN113673692A (zh) * | 2020-04-30 | 2021-11-19 | 北京世纪好未来教育科技有限公司 | 神经网络的训练方法、装置、电子设备及存储介质 |
CN111709448A (zh) * | 2020-05-20 | 2020-09-25 | 西安交通大学 | 一种基于迁移关系网络的机械故障诊断方法 |
CN111709448B (zh) * | 2020-05-20 | 2023-05-12 | 西安交通大学 | 一种基于迁移关系网络的机械故障诊断方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107292915A (zh) | 基于卷积神经网络的目标跟踪方法 | |
CN104834922B (zh) | 基于混合神经网络的手势识别方法 | |
CN109034210A (zh) | 基于超特征融合与多尺度金字塔网络的目标检测方法 | |
CN107945153A (zh) | 一种基于深度学习的路面裂缝检测方法 | |
CN107316058A (zh) | 通过提高目标分类和定位准确度改善目标检测性能的方法 | |
Liu et al. | Recognition methods for coal and coal gangue based on deep learning | |
CN108229338A (zh) | 一种基于深度卷积特征的视频行为识别方法 | |
CN108898620A (zh) | 基于多重孪生神经网络与区域神经网络的目标跟踪方法 | |
CN107506722A (zh) | 一种基于深度稀疏卷积神经网络人脸情感识别方法 | |
Wang et al. | D $^{2} $ C-Net: A Dual-Branch, Dual-Guidance and Cross-Refine Network for Camouflaged Object Detection | |
CN107481264A (zh) | 一种自适应尺度的视频目标跟踪方法 | |
CN107766842A (zh) | 一种手势识别方法及其应用 | |
CN107844795A (zh) | 基于主成分分析的卷积神经网络特征提取方法 | |
CN107679462A (zh) | 一种基于小波的深度多特征融合分类方法 | |
CN108038420A (zh) | 一种基于深度视频的人体行为识别方法 | |
CN107808376A (zh) | 一种基于深度学习的举手检测方法 | |
CN107516316A (zh) | 一种在fcn中引入聚焦机制对静态人体图像进行分割的方法 | |
CN101615245A (zh) | 基于avr和增强lbp的表情识别方法 | |
CN106611420A (zh) | 基于反卷积网络和素描图方向约束的sar图像分割方法 | |
CN105096311A (zh) | 基于gpu的深度图修复和虚实场景结合技术 | |
CN108614999A (zh) | 基于深度学习的眼睛睁闭状态检测方法 | |
CN107305691A (zh) | 基于图像匹配的前景分割方法及装置 | |
Mo et al. | Background noise filtering and distribution dividing for crowd counting | |
CN106897982B (zh) | 基于图像无标记识别的现实增强方法 | |
CN105956570A (zh) | 基于唇部特征和深度学习的笑脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171024 |