CN110335290A - 基于注意力机制的孪生候选区域生成网络目标跟踪方法 - Google Patents
基于注意力机制的孪生候选区域生成网络目标跟踪方法 Download PDFInfo
- Publication number
- CN110335290A CN110335290A CN201910480847.7A CN201910480847A CN110335290A CN 110335290 A CN110335290 A CN 110335290A CN 201910480847 A CN201910480847 A CN 201910480847A CN 110335290 A CN110335290 A CN 110335290A
- Authority
- CN
- China
- Prior art keywords
- target
- network
- bounding box
- feature
- target template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000007246 mechanism Effects 0.000 title claims abstract description 19
- 230000004913 activation Effects 0.000 claims abstract description 7
- 230000002708 enhancing effect Effects 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims abstract description 5
- 239000000284 extract Substances 0.000 claims abstract description 4
- 230000008569 process Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000005764 inhibitory process Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000013178 mathematical model Methods 0.000 claims description 2
- 230000017105 transposition Effects 0.000 claims description 2
- 235000013399 edible fruits Nutrition 0.000 claims 1
- 230000008901 benefit Effects 0.000 abstract description 2
- 230000003044 adaptive effect Effects 0.000 abstract 1
- 238000010276 construction Methods 0.000 abstract 1
- 238000007430 reference method Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000004069 differentiation Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及基于注意力机制的孪生候选区域生成网络目标跟踪方法,属于图像处理技术领域。具体步骤如下:第一步利用孪生网络提取初始目标模板特征和目标搜索区域特征;第二步构建空间注意力网络增强目标模板前景以及抑制语义背景;第三步构建通道注意力网络激活目标模板强相关性特征,剔除冗余;第四步构建候选区域生成网络实现多尺度目标跟踪。本发明的效果和益处是利用注意力机制构建适应性目标外观特征模型,旨在增强目标前景和抑制语义背景,突出目标前景与干扰背景的差异特征,剔除冗余信息,从而获取高效外观特征表达能力,有效缓解目标漂移问题。
Description
技术领域
本发明涉及基于注意力机制的孪生候选区域生成网络目标跟踪方法,属于图像处理技术领域。
背景技术
随着计算机硬件能力的提高以及人工智能时代的到来,深度神经网络由于其高效的数据计算能力和特征提取能力被广泛应用在目标跟踪领域。基于卷积神经网络的跟踪方法能够显著提高跟踪结果的精确率和成功率,展现了目标跟踪方法的良好性能。然而,卷积神经网络的在线更新过程以及候选样本生成过程耗费大量时间,极大地限制跟踪方法运行速度。为使跟踪速度能够达到实时,孪生网络摒弃在线更新过程,利用大量图像数据预训练网络模型获得显著特征表达能力,避免在线跟踪过程的时耗问题。但孪生网络跟踪方法具有只能预测目标位置,却无法获取尺度信息的固有缺陷。对此,孪生候选区域生成网络将区域建议网络与孪生网络相结合,利用锚点结构生成多尺度候选样本边界框,有效解决目标多尺度表达问题。然而,基于孪生候选区域生成网络的跟踪方法对目标前景和语义干扰背景的判别能力较弱,易导致跟踪结果迅速偏离真实目标,从而造成目标漂移问题。
发明内容
本发明旨在克服现有技术存在的不足,针对孪生候选区域生成网络的目标前景与语义干扰背景间判别能力较弱的问题,提出了一种基于注意力机制的孪生候选区域生成网络目标跟踪方法。
本发明所采用的技术方案是:
在孪生候选区域生成网络的基础上引入软注意力机制来构建适应性外观特征模型。一方面,构建沙漏型残差网络关注卷积特征图的空间特征,即学习平面特征权值。空间注意力网络的主要思想是增强目标前景和抑制语义背景,分配目标前景和背景图像内容不同的重要性权值。另一方面,构建通道注意力网络优化维度特征,关注不同卷积核对应的特征类型,学习通道特征权值。通道注意力网络的主要思想是利用多种卷积核提取的外观特征存在冗余,采用通道特征选择策略剔除冗余来精简特征表达,同时激活与目标相关性高的通道特征来构建显著外观特征模型。此外,根据空间注意力网络和通道注意力网络的结构差异,分别对不同网络层次特征进行注意力选择,即针对低层特征进行空间注意力选择,关注目标外观相似性结构特征;针对高层特征进行通道注意力选择,重点关注有助于分类任务的目标语义特征。
基于注意力机制的孪生候选区域生成网络目标跟踪方法,包括以下步骤:
第一步,利用孪生网络提取初始目标模板特征和目标搜索区域特征;
第二步,构建空间注意力网络增强目标模板前景以及抑制语义背景;
第三步,构建通道注意力网络激活目标模板强相关性特征,剔除冗余;
第四步,构建候选区域生成网络实现多尺度目标跟踪。
本发明的效果和益处:为解决孪生候选区域生成网络对目标前景和语义背景判别能力较弱的问题,本发明提出了基于注意力机制的孪生候选区域生成网络目标跟踪方法。该方法利用空间注意力机制和通道注意力机制相结合的方式对目标外观特征进行视觉注意力选择,旨在增强目标前景和抑制语义背景,突出目标前景与干扰背景的差异特征,剔除冗余信息,从而获取高效外观特征表达能力。与现有的目标跟踪方法和孪生候选区域生成网络基准方法相比,该方法具有较高的准确性和鲁棒性,能够显著提高目标前景与语义背景间的判别能力,从而有效缓解目标漂移问题。
附图说明
图1是基于注意力机制的孪生候选区域生成网络结构示意图;
图2是描述中心位置误差的精确率曲线对比图。
图3是描述边界框重叠率的成功率曲线对比图。
具体实施方式
以下结合技术方案和附图,进一步说明本发明的具体实施方式。
基于注意力机制的孪生候选区域生成网络目标跟踪方法,包括以下步骤:
第一步,利用孪生网络提取初始目标模板特征和目标搜索区域特征。
采用孪生神经网络(孪生网络)提取初始目标模板卷积特征和目标搜索区域卷积特征。孪生网络主要包含两个结构相同的分支,即两个分支是相同的卷积神经网络模型,具有权值共享的特性。将初始目标模板和目标搜索区域同时送入孪生网络可获取对应卷积特征表达。
第二步,构建空间注意力网络增强目标模板前景以及抑制语义背景。
采用类残差网络结构中的空间注意力网络,突出目标模板前景以及抑制语义背景;空间注意力网络采用沙漏型网络结构,通过卷积和下采样等操作缩小特征图尺寸,凸显全局感受野对应的高层目标语义特征;然后通过去卷积和上采样等操作扩大特征图尺寸,放大高层特征中激活的前景显著区域,从而突出目标模板前景与语义背景的差异性特征,得到空间注意力特征图,具体过程如下:
输入的目标模板特征图经过空间注意力网络获得权值图,权值图上的像素值代表初始目标模板特征图相应权值;利用Sigmoid激活函数将权值图元素限制在0至1之间,使加权处理后得到的目标模板特征图不发生显著变化,而且能够在一定程度上抑制背景信息。为避免多次加权处理破坏训练网络的数据特性,将加权处理后的目标模板特征图与初始目标模板特征图进行叠加获得最终的空间注意力特征图,处理过程表示为:
Fs(x)=Fo(x)+Fo(x)*Fw(x) (1)
其中,Fo(x)表示原始特征图,Fw(x)表示权值图,Fs(x)表示最终空间注意力特征图,符号*代表元素级乘法,符号+代表元素级加法。当极端情况Fw(x)=0时,空间注意力特征图即为初始目标模板特征图,体现了残差网络的恒等映射思想。采用空间注意力机制能够增强目标前景特征,抑制嘈杂语义背景,从而有效提高对目标前景和语义背景的判别能力。
第三步,构建通道注意力网络激活目标模板强相关性特征,剔除冗余。
通过构建通道注意力网络学习特征通道权值,激活与目标模板外观表达相关性高的特征类型,抑制并剔除冗余特征信息。通道注意力网络对输入的空间注意力特征图进行池化和全连接等操作获得通道权值,利用Sigmoid函数将学习得到的特征通道权值限制在0至1之间,然后对输入的空间注意力特征图进行加权处理实现通道特征选择,即将各个特征通道的元素值与对应权值进行元素级乘法,赋予各特征类型不同权值来实现通道特征选择。
通道注意力网络的设计原理在于利用深度网络获取的特征图各通道对目标特征表达的贡献程度存在差异,不同目标激活不同特征通道。通道注意力网络的作用是提高目标相关程度高的通道权值,抑制相关程度低或者冗余的通道权值。本发明中依据目标初始状态得到的通道权值在跟踪过程中保持不变,从而降低计算量,减少时耗。
第四步,构建候选区域生成网络实现多尺度目标跟踪。
构建由分类模块和回归模块组成的候选区域生成网络,将经过空间注意力网络和通道注意力网络优化后的目标模板特征和目标搜索区域特征进行互相关卷积计算,分别获得前/背景分类概率估计和边界框位置回归估计;
候选区域生成网络预设尺度生成的锚点边界框Canc表示为:
其中,I、J和P是相应索引集合,i、j和p代表各个索引值,分别代表各锚点边界框的中心坐标和宽高尺度,表示边界框的宽,表示边界框的高。
回归模块计算得到的边界框位置回归值Creg表示为:
其中,分别代表各边界框中心坐标和宽高尺度的变化量。
利用锚点边界框Canc和回归模块的边界框位置回归值Creg计算得到候选边界框,计算过程表示为:
其中,分别代表候选边界框的中心坐标和宽高尺度,e是自然对数的底数。
为进一步提高边界框预测的准确性,采用边界框回归策略调整候选边界框得到最终跟踪结果。边界框回归策略的目的是学习得到候选边界框与真实边界框的映射关系,对候选边界框进行参数变换以此减小预测误差。边界框回归策略的数学模型Lbb表示为:
其中,w*代表模型参数,代表模型参数转置,代表第i个候选边界框参数,代表第i个真实边界框参数,*代表位置坐标和尺度信息(x,y,w,h),N代表边界框样本数目,i代表样本索引,μ代表超参数。由公式(8)定义的正则化目标损失函数可知,边界框回归模型经过多次迭代训练能够逐渐最小化目标损失函数,最终获得最优损失函数对应的模型参数
边界框回归模型得到的参数实质是边界框映射关系,即则边界框回归模型调整选边界框得到最终跟踪结果的过程表示为:
其中,e是自然对数的底数,分别代表候选边界框的中心坐标和宽高尺度,[x,y,w,h]代表最终跟踪边界框的中心坐标和宽高尺度参数。
根据当前跟踪结果的边界框信息重新确定目标搜索区域,目标模板特征图保持不变,重复第一步~第四步的过程直到测试视频序列结束,实现连续多尺度目标跟踪。
基于注意力机制的孪生候选区域生成网络结构如图1所示。
本发明利用目标跟踪标准数据集OTB的部分测试序列,将基于注意力机制的孪生候选区域生成网络目标跟踪方法与经典跟踪方法以及孪生候选区域生成网络基准方法进行实验对比,通过绘制精确率和成功率对比曲线验证其准确性和鲁棒性。
精确率本质描述的是中心位置误差低于预设阈值时的帧数占总帧数的百分比,中心位置误差具体是指预测目标中心位置与人工标注目标中心位置之间的欧式距离,可表示为:
||Ep-Eg||e≤Tp (13)
其中,Ep代表预测目标中心位置,Eg代表人工标注目标中心位置,Tp代表预设阈值,||·||e代表计算欧式距离。通常情况下,设定阈值为20时的帧数百分比作为最终精确率。两种跟踪方法的精确率对比曲线如图2所示。由图可知,基于注意力机制的孪生候选区域生成网络目标跟踪方法相较其他经典跟踪方法和孪生候选区域生成网络基准方法有着更高的精确率,展现本发明方法的准确性。
成功率本质描述的是预测目标边界框与人工标注目标边界框的重叠率超过预设阈值时的帧数占总帧数的百分比,重叠率具体是指预测目标边界框和人工标注目标边界框的交集面积与并集面积的比率,可表示为:
其中,Sp代表预测目标边界框,Sg代表人工标注目标边界框,Ts代表预设阈值,符号∩代表交集,符号∪代表并集。通常情况下,会选择成功率曲线图AUC(Area Under Curve)面积作为最终成功率。两种跟踪方法的成功率对比曲线如图3所示。由图可知,基于注意力机制的孪生候选区域生成网络目标跟踪方法较其他经典跟踪方法和孪生候选区域生成网络基准方法有着更高的成功率,展现本发明方法的鲁棒性。
Claims (1)
1.基于注意力机制的孪生候选区域生成网络目标跟踪方法,其特征在于,步骤如下:
第一步,利用孪生网络提取初始目标模板特征和目标搜索区域特征
采用孪生神经网络提取初始目标模板卷积特征和目标搜索区域卷积特征;孪生网络包含两个结构相同的分支,即两个分支是相同的卷积神经网络模型,具有权值共享的特性;将初始目标模板和目标搜索区域同时送入孪生网络获取对应卷积特征表达;
第二步,构建空间注意力网络增强目标模板前景以及抑制语义背景
空间注意力网络采用沙漏型网络结构,通过卷积和下采样操作缩小特征图尺寸,凸显全局感受野对应的高层目标语义特征;然后通过去卷积和上采样操作扩大特征图尺寸,放大高层特征中激活的前景显著区域,从而突出目标模板前景与语义背景的差异性特征,得到空间注意力特征图,具体过程如下:
输入的目标模板特征图经过空间注意力网络获得权值图,权值图上的像素值代表初始目标模板特征图相应权值;利用Sigmoid激活函数将权值图元素限制在0至1之间;将加权处理后的目标模板特征图与初始目标模板特征图进行叠加获得最终的空间注意力特征图,处理过程表示为:
Fs(x)=Fo(x)+Fo(x)*Fw(x) (1)
其中,Fo(x)表示原始特征图,Fw(x)表示权值图,Fs(x)表示最终空间注意力特征图,符号*代表元素级乘法,符号+代表元素级加法;当极端情况Fw(x)=0时,空间注意力特征图即为初始目标模板特征图;
第三步,构建通道注意力网络激活目标模板强相关性特征,剔除冗余
通过构建通道注意力网络学习特征通道权值,激活与目标模板外观表达相关性高的特征类型,抑制并剔除冗余特征信息;通道注意力网络对输入的空间注意力特征图进行池化和全连接操作获得通道权值,利用Sigmoid函数将学习得到的特征通道权值限制在0至1之间,然后对输入的空间注意力特征图进行加权处理实现通道特征选择,即将各个特征通道的元素值与对应权值进行元素级乘法,赋予各特征类型不同权值来实现通道特征选择;
第四步,构建候选区域生成网络实现多尺度目标跟踪
构建由分类模块和回归模块组成的候选区域生成网络,将经过空间注意力网络和通道注意力网络优化后的目标模板特征和目标搜索区域特征进行互相关卷积计算,分别获得前/背景分类概率估计和边界框位置回归估计;
候选区域生成网络预设尺度生成的锚点边界框Canc表示为:
其中,I、J和P是相应索引集合,i、j和p代表各个索引值,分别代表各锚点边界框的中心坐标和宽高尺度,表示边界框的宽,表示边界框的高;
回归模块计算得到的边界框位置回归值Creg表示为:
其中,分别代表各边界框中心坐标和宽高尺度的变化量;
利用锚点边界框Canc和回归模块的边界框位置回归值Creg计算得到候选边界框,计算过程表示为:
其中,分别代表候选边界框的中心坐标和宽高尺度,e是自然对数的底数;
为提高边界框预测的准确性,采用边界框回归策略调整候选边界框得到最终跟踪结果;边界框回归策略的数学模型Lbb表示为:
其中,w*代表模型参数,代表模型参数转置,代表第i个候选边界框参数,代表第i个真实边界框参数,*代表位置坐标和尺度信息(x,y,w,h),N代表边界框样本数目,i代表样本索引,μ代表超参数;
边界框回归模型得到的参数是边界框映射关系,即则边界框回归模型调整选边界框得到最终跟踪结果的过程表示为:
其中,e是自然对数的底数,分别代表候选边界框的中心坐标和宽高尺度,[x,y,w,h]代表最终跟踪边界框的中心坐标和宽高尺度参数;
根据当前跟踪结果的边界框信息重新确定目标搜索区域,目标模板特征图保持不变,重复第一步~第四步的过程直到测试视频序列结束,实现连续多尺度目标跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910480847.7A CN110335290B (zh) | 2019-06-04 | 2019-06-04 | 基于注意力机制的孪生候选区域生成网络目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910480847.7A CN110335290B (zh) | 2019-06-04 | 2019-06-04 | 基于注意力机制的孪生候选区域生成网络目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110335290A true CN110335290A (zh) | 2019-10-15 |
CN110335290B CN110335290B (zh) | 2021-02-26 |
Family
ID=68141194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910480847.7A Active CN110335290B (zh) | 2019-06-04 | 2019-06-04 | 基于注意力机制的孪生候选区域生成网络目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110335290B (zh) |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796679A (zh) * | 2019-10-30 | 2020-02-14 | 电子科技大学 | 一种面向航拍影像的目标跟踪方法 |
CN111079767A (zh) * | 2019-12-22 | 2020-04-28 | 浪潮电子信息产业股份有限公司 | 一种用于分割图像的神经网络模型及其图像分割方法 |
CN111144364A (zh) * | 2019-12-31 | 2020-05-12 | 北京理工大学重庆创新中心 | 一种基于通道注意更新机制的孪生网络目标跟踪方法 |
CN111161311A (zh) * | 2019-12-09 | 2020-05-15 | 中车工业研究院有限公司 | 一种基于深度学习的视觉多目标跟踪方法及装置 |
CN111192292A (zh) * | 2019-12-27 | 2020-05-22 | 深圳大学 | 基于注意力机制与孪生网络的目标跟踪方法及相关设备 |
CN111291679A (zh) * | 2020-02-06 | 2020-06-16 | 厦门大学 | 一种基于孪生网络的目标特定响应注意力目标跟踪方法 |
CN111368634A (zh) * | 2020-02-05 | 2020-07-03 | 中国人民解放军国防科技大学 | 基于神经网络的人头检测方法、系统及存储介质 |
CN111523463A (zh) * | 2020-04-22 | 2020-08-11 | 南京工程学院 | 基于匹配-回归网络的目标跟踪方法及训练方法 |
CN111598928A (zh) * | 2020-05-22 | 2020-08-28 | 郑州轻工业大学 | 一种基于具有语义评估和区域建议的突变运动目标跟踪方法 |
CN111627038A (zh) * | 2020-05-27 | 2020-09-04 | 杭州王道控股有限公司 | 一种背景去除方法、装置、设备及可读存储介质 |
CN111640136A (zh) * | 2020-05-23 | 2020-09-08 | 西北工业大学 | 一种复杂环境中的深度目标跟踪方法 |
CN111639654A (zh) * | 2020-05-12 | 2020-09-08 | 博泰车联网(南京)有限公司 | 一种图像处理方法、装置及计算机存储介质 |
CN111797716A (zh) * | 2020-06-16 | 2020-10-20 | 电子科技大学 | 一种基于Siamese网络的单目标跟踪方法 |
CN111832620A (zh) * | 2020-06-11 | 2020-10-27 | 桂林电子科技大学 | 一种基于双注意力多层特征融合的图片情感分类方法 |
CN112085718A (zh) * | 2020-09-04 | 2020-12-15 | 厦门大学 | 一种基于孪生注意力网络的nafld超声视频诊断系统 |
CN112132216A (zh) * | 2020-09-22 | 2020-12-25 | 平安国际智慧城市科技股份有限公司 | 车型识别方法、装置、电子设备及存储介质 |
CN112132790A (zh) * | 2020-09-02 | 2020-12-25 | 西安国际医学中心有限公司 | Dac-gan模型构建方法及在乳腺mr图像中的应用 |
CN112258554A (zh) * | 2020-10-07 | 2021-01-22 | 大连理工大学 | 基于注意力机制的双流层次孪生网络目标跟踪方法 |
CN112258557A (zh) * | 2020-10-23 | 2021-01-22 | 福州大学 | 一种基于空间注意力特征聚合的视觉跟踪方法 |
CN112488061A (zh) * | 2020-12-18 | 2021-03-12 | 电子科技大学 | 一种联合ads-b信息的多航空器检测与跟踪方法 |
CN112560695A (zh) * | 2020-12-17 | 2021-03-26 | 中国海洋大学 | 水下目标跟踪方法、系统、存储介质、设备、终端及应用 |
CN112712546A (zh) * | 2020-12-21 | 2021-04-27 | 吉林大学 | 一种基于孪生神经网络的目标跟踪方法 |
CN112816474A (zh) * | 2021-01-07 | 2021-05-18 | 武汉大学 | 一种基于目标感知的深度孪生网络高光谱视频目标跟踪方法 |
CN113095409A (zh) * | 2021-04-13 | 2021-07-09 | 西安电子科技大学 | 基于注意力机制和权值共享的高光谱图像分类方法 |
CN113283407A (zh) * | 2021-07-22 | 2021-08-20 | 南昌工程学院 | 一种基于通道与空间注意力机制的孪生网络目标跟踪方法 |
CN113297961A (zh) * | 2021-05-24 | 2021-08-24 | 南京邮电大学 | 一种基于边界特征融合孪生循环神经网络的目标跟踪方法 |
CN113298850A (zh) * | 2021-06-11 | 2021-08-24 | 安徽大学 | 一种基于注意力机制与特征融合的目标跟踪方法及系统 |
CN113297959A (zh) * | 2021-05-24 | 2021-08-24 | 南京邮电大学 | 一种基于角点注意力孪生网络的目标跟踪方法及系统 |
CN113344971A (zh) * | 2021-05-21 | 2021-09-03 | 河南科技大学 | 一种融合卡尔曼滤波的孪生红外目标跟踪方法 |
CN113420648A (zh) * | 2021-06-22 | 2021-09-21 | 深圳市华汉伟业科技有限公司 | 一种具有旋转适应性的目标检测方法及系统 |
CN113506317A (zh) * | 2021-06-07 | 2021-10-15 | 北京百卓网络技术有限公司 | 一种基于Mask R-CNN和表观特征融合的多目标跟踪方法 |
CN113643329A (zh) * | 2021-09-01 | 2021-11-12 | 北京航空航天大学 | 一种基于孪生注意力网络的在线更新目标跟踪方法和系统 |
CN113658218A (zh) * | 2021-07-19 | 2021-11-16 | 南京邮电大学 | 一种双模板密集孪生网络跟踪方法、装置及存储介质 |
CN113947618A (zh) * | 2021-10-20 | 2022-01-18 | 哈尔滨工业大学 | 基于调制器的自适应回归跟踪方法 |
CN114596432A (zh) * | 2022-03-10 | 2022-06-07 | 山东大学 | 基于前景区域对应模板特征的视觉跟踪方法及系统 |
CN115100235A (zh) * | 2022-08-18 | 2022-09-23 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种目标跟踪方法、系统及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106815859A (zh) * | 2017-01-13 | 2017-06-09 | 大连理工大学 | 基于尺度自适应相关滤波和特征点匹配的目标跟踪算法 |
WO2017155661A1 (en) * | 2016-03-11 | 2017-09-14 | Qualcomm Incorporated | Video analysis with convolutional attention recurrent neural networks |
CN109035297A (zh) * | 2018-07-19 | 2018-12-18 | 深圳市唯特视科技有限公司 | 一种基于双重暹罗网络的实时追踪方法 |
CN109102521A (zh) * | 2018-06-22 | 2018-12-28 | 南京信息工程大学 | 一种基于并行注意力相关滤波的视频目标跟踪方法 |
CN109685831A (zh) * | 2018-12-20 | 2019-04-26 | 山东大学 | 基于残差分层注意力和相关性滤波器的目标跟踪方法及系统 |
-
2019
- 2019-06-04 CN CN201910480847.7A patent/CN110335290B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017155661A1 (en) * | 2016-03-11 | 2017-09-14 | Qualcomm Incorporated | Video analysis with convolutional attention recurrent neural networks |
CN106815859A (zh) * | 2017-01-13 | 2017-06-09 | 大连理工大学 | 基于尺度自适应相关滤波和特征点匹配的目标跟踪算法 |
CN109102521A (zh) * | 2018-06-22 | 2018-12-28 | 南京信息工程大学 | 一种基于并行注意力相关滤波的视频目标跟踪方法 |
CN109035297A (zh) * | 2018-07-19 | 2018-12-18 | 深圳市唯特视科技有限公司 | 一种基于双重暹罗网络的实时追踪方法 |
CN109685831A (zh) * | 2018-12-20 | 2019-04-26 | 山东大学 | 基于残差分层注意力和相关性滤波器的目标跟踪方法及系统 |
Non-Patent Citations (3)
Title |
---|
BO L.等: "High Performance Visual Tracking with Siamese Region Proposal Network", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
QING G.等: "Learning Dynamic Siamese Network for Visual Object Tracking", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
黎万义 等: "引入视觉注意机制的目标跟踪方法综述", 《自动化学报》 * |
Cited By (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796679A (zh) * | 2019-10-30 | 2020-02-14 | 电子科技大学 | 一种面向航拍影像的目标跟踪方法 |
CN110796679B (zh) * | 2019-10-30 | 2023-04-07 | 电子科技大学 | 一种面向航拍影像的目标跟踪方法 |
CN111161311A (zh) * | 2019-12-09 | 2020-05-15 | 中车工业研究院有限公司 | 一种基于深度学习的视觉多目标跟踪方法及装置 |
CN111079767A (zh) * | 2019-12-22 | 2020-04-28 | 浪潮电子信息产业股份有限公司 | 一种用于分割图像的神经网络模型及其图像分割方法 |
CN111079767B (zh) * | 2019-12-22 | 2022-03-22 | 浪潮电子信息产业股份有限公司 | 一种用于分割图像的神经网络模型及其图像分割方法 |
CN111192292B (zh) * | 2019-12-27 | 2023-04-28 | 深圳大学 | 基于注意力机制与孪生网络的目标跟踪方法及相关设备 |
CN111192292A (zh) * | 2019-12-27 | 2020-05-22 | 深圳大学 | 基于注意力机制与孪生网络的目标跟踪方法及相关设备 |
CN111144364A (zh) * | 2019-12-31 | 2020-05-12 | 北京理工大学重庆创新中心 | 一种基于通道注意更新机制的孪生网络目标跟踪方法 |
CN111144364B (zh) * | 2019-12-31 | 2022-07-26 | 北京理工大学重庆创新中心 | 一种基于通道注意更新机制的孪生网络目标跟踪方法 |
CN111368634A (zh) * | 2020-02-05 | 2020-07-03 | 中国人民解放军国防科技大学 | 基于神经网络的人头检测方法、系统及存储介质 |
CN111291679A (zh) * | 2020-02-06 | 2020-06-16 | 厦门大学 | 一种基于孪生网络的目标特定响应注意力目标跟踪方法 |
CN111291679B (zh) * | 2020-02-06 | 2022-05-27 | 厦门大学 | 一种基于孪生网络的目标特定响应注意力目标跟踪方法 |
CN111523463A (zh) * | 2020-04-22 | 2020-08-11 | 南京工程学院 | 基于匹配-回归网络的目标跟踪方法及训练方法 |
CN111639654A (zh) * | 2020-05-12 | 2020-09-08 | 博泰车联网(南京)有限公司 | 一种图像处理方法、装置及计算机存储介质 |
CN111639654B (zh) * | 2020-05-12 | 2023-12-26 | 博泰车联网(南京)有限公司 | 一种图像处理方法、装置及计算机存储介质 |
CN111598928B (zh) * | 2020-05-22 | 2023-03-10 | 郑州轻工业大学 | 一种基于具有语义评估和区域建议的突变运动目标跟踪方法 |
CN111598928A (zh) * | 2020-05-22 | 2020-08-28 | 郑州轻工业大学 | 一种基于具有语义评估和区域建议的突变运动目标跟踪方法 |
CN111640136A (zh) * | 2020-05-23 | 2020-09-08 | 西北工业大学 | 一种复杂环境中的深度目标跟踪方法 |
CN111640136B (zh) * | 2020-05-23 | 2022-02-25 | 西北工业大学 | 一种复杂环境中的深度目标跟踪方法 |
CN111627038A (zh) * | 2020-05-27 | 2020-09-04 | 杭州王道控股有限公司 | 一种背景去除方法、装置、设备及可读存储介质 |
CN111832620A (zh) * | 2020-06-11 | 2020-10-27 | 桂林电子科技大学 | 一种基于双注意力多层特征融合的图片情感分类方法 |
CN111797716B (zh) * | 2020-06-16 | 2022-05-03 | 电子科技大学 | 一种基于Siamese网络的单目标跟踪方法 |
CN111797716A (zh) * | 2020-06-16 | 2020-10-20 | 电子科技大学 | 一种基于Siamese网络的单目标跟踪方法 |
CN112132790B (zh) * | 2020-09-02 | 2024-05-14 | 西安国际医学中心有限公司 | Dac-gan模型构建方法及在乳腺mr图像中的应用 |
CN112132790A (zh) * | 2020-09-02 | 2020-12-25 | 西安国际医学中心有限公司 | Dac-gan模型构建方法及在乳腺mr图像中的应用 |
CN112085718A (zh) * | 2020-09-04 | 2020-12-15 | 厦门大学 | 一种基于孪生注意力网络的nafld超声视频诊断系统 |
CN112085718B (zh) * | 2020-09-04 | 2022-05-10 | 厦门大学 | 一种基于孪生注意力网络的nafld超声视频诊断系统 |
CN112132216B (zh) * | 2020-09-22 | 2024-04-09 | 平安国际智慧城市科技股份有限公司 | 车型识别方法、装置、电子设备及存储介质 |
CN112132216A (zh) * | 2020-09-22 | 2020-12-25 | 平安国际智慧城市科技股份有限公司 | 车型识别方法、装置、电子设备及存储介质 |
CN112258554A (zh) * | 2020-10-07 | 2021-01-22 | 大连理工大学 | 基于注意力机制的双流层次孪生网络目标跟踪方法 |
CN112258557B (zh) * | 2020-10-23 | 2022-06-10 | 福州大学 | 一种基于空间注意力特征聚合的视觉跟踪方法 |
CN112258557A (zh) * | 2020-10-23 | 2021-01-22 | 福州大学 | 一种基于空间注意力特征聚合的视觉跟踪方法 |
CN112560695A (zh) * | 2020-12-17 | 2021-03-26 | 中国海洋大学 | 水下目标跟踪方法、系统、存储介质、设备、终端及应用 |
CN112560695B (zh) * | 2020-12-17 | 2023-03-24 | 中国海洋大学 | 水下目标跟踪方法、系统、存储介质、设备、终端及应用 |
CN112488061A (zh) * | 2020-12-18 | 2021-03-12 | 电子科技大学 | 一种联合ads-b信息的多航空器检测与跟踪方法 |
CN112712546A (zh) * | 2020-12-21 | 2021-04-27 | 吉林大学 | 一种基于孪生神经网络的目标跟踪方法 |
CN112816474B (zh) * | 2021-01-07 | 2022-02-01 | 武汉大学 | 一种基于目标感知的深度孪生网络高光谱视频目标跟踪方法 |
CN112816474A (zh) * | 2021-01-07 | 2021-05-18 | 武汉大学 | 一种基于目标感知的深度孪生网络高光谱视频目标跟踪方法 |
CN113095409A (zh) * | 2021-04-13 | 2021-07-09 | 西安电子科技大学 | 基于注意力机制和权值共享的高光谱图像分类方法 |
CN113344971A (zh) * | 2021-05-21 | 2021-09-03 | 河南科技大学 | 一种融合卡尔曼滤波的孪生红外目标跟踪方法 |
CN113297961A (zh) * | 2021-05-24 | 2021-08-24 | 南京邮电大学 | 一种基于边界特征融合孪生循环神经网络的目标跟踪方法 |
CN113297961B (zh) * | 2021-05-24 | 2023-11-17 | 南京邮电大学 | 一种基于边界特征融合孪生循环神经网络的目标跟踪方法 |
CN113297959A (zh) * | 2021-05-24 | 2021-08-24 | 南京邮电大学 | 一种基于角点注意力孪生网络的目标跟踪方法及系统 |
CN113506317A (zh) * | 2021-06-07 | 2021-10-15 | 北京百卓网络技术有限公司 | 一种基于Mask R-CNN和表观特征融合的多目标跟踪方法 |
CN113298850A (zh) * | 2021-06-11 | 2021-08-24 | 安徽大学 | 一种基于注意力机制与特征融合的目标跟踪方法及系统 |
CN113420648A (zh) * | 2021-06-22 | 2021-09-21 | 深圳市华汉伟业科技有限公司 | 一种具有旋转适应性的目标检测方法及系统 |
CN113658218A (zh) * | 2021-07-19 | 2021-11-16 | 南京邮电大学 | 一种双模板密集孪生网络跟踪方法、装置及存储介质 |
CN113658218B (zh) * | 2021-07-19 | 2023-10-13 | 南京邮电大学 | 一种双模板密集孪生网络跟踪方法、装置及存储介质 |
CN113283407A (zh) * | 2021-07-22 | 2021-08-20 | 南昌工程学院 | 一种基于通道与空间注意力机制的孪生网络目标跟踪方法 |
CN113643329A (zh) * | 2021-09-01 | 2021-11-12 | 北京航空航天大学 | 一种基于孪生注意力网络的在线更新目标跟踪方法和系统 |
CN113643329B (zh) * | 2021-09-01 | 2022-04-19 | 北京航空航天大学 | 一种基于孪生注意力网络的在线更新目标跟踪方法和系统 |
CN113947618B (zh) * | 2021-10-20 | 2023-08-29 | 哈尔滨工业大学 | 基于调制器的自适应回归跟踪方法 |
CN113947618A (zh) * | 2021-10-20 | 2022-01-18 | 哈尔滨工业大学 | 基于调制器的自适应回归跟踪方法 |
CN114596432A (zh) * | 2022-03-10 | 2022-06-07 | 山东大学 | 基于前景区域对应模板特征的视觉跟踪方法及系统 |
CN115100235A (zh) * | 2022-08-18 | 2022-09-23 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种目标跟踪方法、系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110335290B (zh) | 2021-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110335290A (zh) | 基于注意力机制的孪生候选区域生成网络目标跟踪方法 | |
CN112560695B (zh) | 水下目标跟踪方法、系统、存储介质、设备、终端及应用 | |
CN106778821B (zh) | 基于slic和改进的cnn的极化sar图像分类方法 | |
CN110084234B (zh) | 一种基于实例分割的声呐图像目标识别方法 | |
CN109145979A (zh) | 敏感图像鉴定方法及终端系统 | |
CN107229904A (zh) | 一种基于深度学习的目标检测与识别方法 | |
CN110472627A (zh) | 一种端到端的sar图像识别方法、装置及存储介质 | |
CN109583425A (zh) | 一种基于深度学习的遥感图像船只集成识别方法 | |
CN108304826A (zh) | 基于卷积神经网络的人脸表情识别方法 | |
CN109766830A (zh) | 一种基于人工智能图像处理的舰船目标识别系统及方法 | |
CN112052886A (zh) | 基于卷积神经网络的人体动作姿态智能估计方法及装置 | |
CN110084734A (zh) | 一种基于物体局部生成对抗网络的大数据权属保护方法 | |
CN106845499A (zh) | 一种基于自然语言语义的图像目标检测方法 | |
CN111368769B (zh) | 基于改进锚点框生成模型的船舶多目标检测方法 | |
CN113486764B (zh) | 一种基于改进的YOLOv3的坑洼检测方法 | |
CN106991408A (zh) | 一种候选框生成网络的生成方法及人脸检测方法 | |
CN113705371B (zh) | 一种水上视觉场景分割方法及装置 | |
CN106372597B (zh) | 基于自适应上下文信息的cnn交通检测方法 | |
Shen et al. | Manhattan-distance IOU loss for fast and accurate bounding box regression and object detection | |
CN109903339A (zh) | 一种基于多维融合特征的视频群体人物定位检测方法 | |
CN109460874A (zh) | 一种基于深度学习的有义波高预测方法 | |
CN116563682A (zh) | 一种基于深度霍夫网络的注意力方案和条带卷积语义线检测的方法 | |
CN112069943A (zh) | 基于自顶向下框架的在线多人姿态估计与跟踪方法 | |
CN106952287A (zh) | 一种基于低秩稀疏表达的视频多目标分割方法 | |
CN110348355A (zh) | 基于强化学习的车型识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |