CN113297961B - 一种基于边界特征融合孪生循环神经网络的目标跟踪方法 - Google Patents
一种基于边界特征融合孪生循环神经网络的目标跟踪方法 Download PDFInfo
- Publication number
- CN113297961B CN113297961B CN202110563653.0A CN202110563653A CN113297961B CN 113297961 B CN113297961 B CN 113297961B CN 202110563653 A CN202110563653 A CN 202110563653A CN 113297961 B CN113297961 B CN 113297961B
- Authority
- CN
- China
- Prior art keywords
- feature
- module
- target
- features
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 30
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 15
- 238000000605 extraction Methods 0.000 claims abstract description 48
- 238000010586 diagram Methods 0.000 claims abstract description 12
- 238000007670 refining Methods 0.000 claims abstract description 5
- 238000011176 pooling Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 238000012549 training Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于边界特征融合孪生循环神经网络的目标跟踪方法,包括获取待跟踪目标视频;将获取的待跟踪目标视频输入预先训练好的基于孪生网络的目标跟踪模型,输出目标的预测位置;所述基于孪生网络的目标跟踪模型包括孪生网络模块、候选区域提取模块及区域细化模块;孪生网络模块用于特征提取融合,生成多尺度特征响应图;候选区域提取模块用于将多尺度特征响应图作为输入,提取多尺度特征响应图的中心区域特征和边界特征,合并中心区域特征和边界特征获得候选目标;区域细化模块用于将候选区域提取模块得到的候选目标作为输入,对候选目标进一步细化分类和回归。解决锚框重叠难以区分目标以及手工设置参数导致目标位置预测不可靠的问题。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于边界特征融合孪生循环神经网络的目标跟踪方法。
背景技术
视觉跟踪是一个开放且有吸引力的研究领域,具有广泛的类别和应用,包括自动驾驶汽车,自动驾驶机器人,监视,增强现实,无人机(UAV)跟踪,体育,外科手术,生物学,海洋探险等。在复杂的现实世界场景中,视觉跟踪仍然是一个巨大挑战,此外,速度在实际应用中也很重要。目前国内外已有的视觉跟踪模型大多针对于可见光场景,对夜间场景的研究比较少。由于夜间场景的光照条件不足,颜色信息退化严重,亮度和信噪比都相对较低,造成了图像感知质量大幅度降低,因此现有算法和技术对夜间图像的分析、理解和目标跟踪都存在很大困难,这也将夜间场景目标跟踪上升为一项具有挑战性的研究。
目标跟踪技术的发展方向主要分为两类:在线更新法和基于Siamese网络离线训练方法。近年来,Siamese tracker因其平衡的速度和准确性而备受关注,并且随着将目标检测方法引入目标跟踪中取得可喜的表现,具有代表性的称为SiamRPN,逐渐开启了目标跟踪领域的新篇章。但由于SiamRPN采用手工参数的锚框训练回归网络,因此难以细化与目标对象重叠的锚,并且由于跟踪中的误差累积,目标位置的预测可能变得不可靠。
发明内容
本发明的目的是提供一种基于边界特征融合孪生循环神经网络的目标跟踪方法,解决锚框重叠难以区分目标以及手工设置参数导致目标位置预测不可靠的问题。
本发明为实现上述发明目的采用如下技术方案:
本发明提供了一种基于边界特征融合孪生循环神经网络的目标跟踪方法,包括:
获取待跟踪目标视频;
将获取的待跟踪目标视频输入预先训练好的基于孪生网络的目标跟踪模型,输出目标的预测位置;
其中,所述基于孪生网络的目标跟踪模型包括孪生网络模块、候选区域提取模块及区域细化模块;
所述孪生网络模块用于特征提取和融合,生成多尺度特征响应图;
所述候选区域提取模块用于将多尺度特征响应图作为输入,提取多尺度特征响应图的中心区域特征和边界特征,合并中心区域特征和边界特征获得候选目标;
所述区域细化模块用于将候选区域提取模块得到的候选目标作为输入,对候选目标进一步细化分类和回归。
进一步地,所述孪生网络模块包括上支路模块、下支路模块及特征融合模块,用于特征提取和融合,生成多尺度特征响应图,包括:
上支路模块、下支路模块通过共享参数的卷积神经网络提取目标图像特征和搜索图像特征,通过提取目标图像特征和搜索图像特征中包含外观信息conv2层以及包含语义信息的conv4、conv5层来构建多尺度特征;
将生成的多尺度特征输入到特征融合模块,目标图像特征图分别沿H和W轴逆时针旋转90°获得在H轴和W轴的旋转特征张量,经过pooling以及标准卷积层和sigmoid生成对应的在H轴和W轴的注意力权值,生成的注意力权值与其对应的旋转特征张量相乘获得对应的注意力响应图,最后注意力响应图沿着H和W轴进行顺时针旋转90°获得在H轴和W轴的增强目标图像特征图;
将增强目标图像特征图以及目标图像特征图分别与搜索图像特征图进行互相关并相加获得最终的多尺度特征响应图。
进一步地,所述候选区域提取模块包括点特征提取模块和边界特征提取模块;
所述点特征提取模块用于将多尺度特征响应图作为输入,对多尺度特征响应图每个位置点对应的边界框进行回归获得候选目标的中心区域特征;
所述边界特征提取模块用于对点特征模块获得的中心区域特征提取获得候选目标的边界特征,合并点特征提取模块和边界特征特征提取模块获得候选目标。
进一步地,所述点特征提取模块包括分类分支,回归分支和中心点预测分支。
进一步地,所述边界特征提取模块用于对点特征模块获得的中心区域特征提取获得候选目标的边界特征的方法包括:
对点特征模块获得的中心区域特征提取四个边界框特征,并对四个边界框特征分别做pooling操作,采用双线性插值方法对pooling操作之后的边界框特征进行采样,获得候选区域的边界特征。
进一步地,所述区域细化模块用于将候选区域提取模块得到的候选目标作为输入,对每个候选目标进一步细化分类和回归的方法包括:
对候选目标进行特征提取生成候选proposal;
分别对目标图像特征和搜索图像特征中的conv2浅层特征和conv4,conv5深层特征串联融合;
最后,对候选proposal进行分类和回归,将串联融合的conv4,conv5特征接入判别子网络,conv2,conv4特征接入定位子网络,其中判别子网络采用两个FC层进行分类特征提取,定位子网络采用两个Conv层进行回归特征提取,选取响应最大的候选proposal的作为目标的预测位置。
本发明的有益效果如下:
本发明的目标跟踪方法,将边界特征检测、特征融合与孪生网络相结合,形成一种多阶段的基于边界特征融合循环神经网络的目标跟踪模型。通过提取不同尺度和不同维度的特征来构建包含语义信息和空间信息的多尺度特征响应图进而来适应目标大小的变化,将获得的多尺度响应图输入到候选区域模块通过提取中心区域特征和边界特征来获得目标位置的分类和回归信息,并且该模型通过多阶段的细化完善初始结果,以获得更精确的盒子预测,提升目标跟踪的准确性和鲁棒性。
附图说明
图1为根据本发明实施例提供的一种基于边界特征融合孪生循环神经网络的目标跟踪方法的流程框图;
图2为根据本发明实施例提供的一种基于边界特征融合孪生循环神经网络的目标跟踪方法中特征融合模块的流程框图;
图3为根据本发明实施例提供的一种基于边界特征融合孪生循环神经网络的目标跟踪方法中特征融合模块中attention模块的流程框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1至图3,本发明提供一种基于边界特征融合孪生循环神经网络的目标跟踪方法,所述方法包括:
步骤1,构建边界特征融合孪生循环神经网络目标跟踪模型。
目标跟踪模型主要包括孪生网络模块,候选区域提取模块,区域细化模块,所述孪生网络模块包含上、下支路模块和特征融合模块,候选区域模块包含点特征提取模块和边界特征提取模块。
步骤1-1:构建孪生网络模块,孪生网络上、下支路模块以改进的AlexNet作为基础网络提取目标图像特征和搜索图像特征。所述改进的AlexNet网络包括5个卷积层和3个最大池化层,5个卷积层卷积核的大小依次为11×11、5×5、3×3、3×3和3×3,最大池化层池化核为2×2,所述改进的AlexNet的网络采用了一种空间感知采样策略来训练模型,解决在深度网络中由于填充而破坏绝对平移不变性的问题,通过提取目标图像特征和搜索图像特征中包含外观信息conv2层以及包含语义信息的conv4、conv5层来构建多尺度特征。
步骤1-1-1:特征融合模块,将生成的多尺度特征输入到特征融合模块,第一步,目标特征图沿H轴逆时针旋转90°,这个旋转张量的形状为(W×H×C),再然后经过Z-Pool后的张量的shape为(2×H×C),其中Z-Pool是将该维度上的平均汇集特征和最大汇集特征连接起来。这使得该层能够保留实际张量的丰富表示,同时缩小其深度以使进一步的计算量更轻,然后,通过内核大小为k×k的标准卷积层,再通过批处理归一化层和sigmoid来生成在H轴的注意力权值。生成的注意力权值与其旋转张量相乘获得对应的注意力响应图,最后沿着H轴进行顺时针旋转90°获得在H轴的增强目标图像特征图。第二步,目标特征图沿W轴逆时针旋转90°,这个旋转张量表示为的形状为(H×C×W),再然后经过Z-Pool后的张量的shape为(2×C×W),然后,通过内核大小为k×k的标准卷积层,再通过批处理归一化层和sigmoid来生成在H轴的注意力权值。生成的注意力权值与其旋转张量相乘获得对应的注意力响应图,最后沿着W轴进行顺时针旋转90°获得在W轴的增强目标图像特征图。第一步和第二步得到的增强目标图像特征图与目标特征图分别与搜索特征图进行互相关并相加得到最终的多尺度特征响应图。
步骤1-2:候选区域提取模块,分为点特征提取模块和边界特征提取模块。所述点特征提取模块用于将多尺度特征响应图作为输入,对多尺度特征响应图每个位置点对应的边界框进行回归获得候选目标的中心区域特征;所述边界特征提取模块用于对点特征模块获得的中心区域特征提取获得候选目标的边界特征,合并点特征提取模块和边界特征特征提取模块获得候选目标。
步骤1-2-1:点特征提取模块采用fcos网络,fcos网络分为三个分支,分类,回归以及中心点预测。
首先确定正负样本,点特征提取模块将多尺度特征响应图作为输入,对响应图每个位置点对应的边框进行回归,即把每个位置都作为训练样本,核心思想是估计从目标对象内的每个像素到ground truth边界框的四个侧面的距离。具体地,令B=(x0,y0,x1,y1)表示目标物体的ground truth的左上角和右下角。如果像素的坐标(x,y)落入ground truth中,则将其视为回归样本。因此,训练样本的标签T*=(l*,t*,r*,b*)计算为
l*=x-x0,t*=y-y0 (1)
r*=x1-x,b*=y1-y (2)
为增加更强的约束,抑制低质量的预测边界框,加入center-ness分支,center-ness的定义如下所示:
当loss越小时,centerness就越接近1,也就是说回归框的中心越接近真实框,j将预测的center-ness乘上对应分类置信度,可以降低距离目标中心很远的边界框分数的权重。
对其进行分类和回归,其中分类分支采用交叉熵损失函数进行分类运算,即分类中前景和背景,回归分支采用Smooth-L1损失计算,进而最终获得候选目标的中心区域特征。
步骤1-2-2:边界特征提取模块,对于点特征模块得到候选目标的中心区域特征,边界特征提取模块对其特征进一步优化,获得其边界特征,而后采用此特征进一步分类和回归。
首先密集地从边界提取特征是很低效的,一般边界上的目标物体相关的点很少,大多为背景点。对于一个特征图,提取通道个数为4xC,分别对应物体4个边界框特征并对在特征图上的特征分别做pooling操作,且由于框的位置是小数,所以该操作使用双线性插值取出每个边界框上的特征。
其中Fc(i,j)是输出特征图F的第c个通道在第(i,j)上的特征值,(x0,y0,x1,y1)是点(i,j)左上角和右下角坐标,w和h是(x0,y0,x1,y1)的宽度和高度。
即如果特征点是属于第一组C的,因为它是中心点保留所有特征不变。而如果特征点是属于第二组C的,是为左边界特征,对其每个通道基于左边界的位置定位做最大池化,即对所有的左边界特征点的每一个通道做最大池化使其赋值为该边上特征最突出的点的特征。其余各边同理。通过这样的四组最大池化操作,选取了四条边界上最具代表性的特征点表征整个边界的特征,突出边界点上的特征优势。
候选区域提取模块最终将点特征模块输出和边界特征模块输出合并作为最后输出,经此模块后,即可得到同类所有对象的具体位置,即获得候选目标。
步骤1-3:区域细化模块将候选区域得到候选目标作为输入,对其进行进一步特征提取,通过多阶段模式细化结果,获得最终网络的输出预测对象。
步骤1-3-1:考虑到浅层特征包含详细的外观信息并可导致较高的定位精度,采用ROI Align方式为每个候选目标创建固定尺寸的候选proposal,并将上、下支路模块的conv2浅层特征和深层特征conv4,conv5串联融合。
因定位特征主要在边缘,而分类特征主要在中心,所以采用特征分离的方式,将分类特征和定位分支在特征融合后分为两个子网络,对分类和回归进行解耦,来提高定位精度。
步骤1-3-2:conv4,conv5特征接入判别子网络,conv2,conv4特征接入定位子网络,经过卷积适应获得分类特征和定位特征。
进一步地,为获得更好的分类效果,缓解正负样本比例严重失衡问题,采用focalloss作为分类损失函数。该损失函数降低了大量简单负样本在训练中所占权重,平衡正负样本的重要性。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (3)
1.一种基于边界特征融合孪生循环神经网络的目标跟踪方法,其特征在于,
获取待跟踪目标视频;
将获取的待跟踪目标视频输入预先训练好的基于孪生网络的目标跟踪模型,输出目标的预测位置;
其中,所述基于孪生网络的目标跟踪模型包括孪生网络模块、候选区域提取模块及区域细化模块;
所述孪生网络模块用于特征提取和融合,生成多尺度特征响应图;
所述候选区域提取模块用于将多尺度特征响应图作为输入,提取多尺度特征响应图的中心区域特征和边界特征,合并中心区域特征和边界特征获得候选目标;
所述区域细化模块用于将候选区域提取模块得到的候选目标作为输入,对候选目标进一步细化分类和回归;
所述孪生网络模块包括上支路模块、下支路模块及特征融合模块,用于特征提取和融合,生成多尺度特征响应图,包括:
上支路模块、下支路模块通过共享参数的卷积神经网络提取目标图像特征和搜索图像特征,通过提取目标图像特征和搜索图像特征中包含外观信息conv2层以及包含语义信息的conv4、conv5层来构建多尺度特征;
将生成的多尺度特征输入到特征融合模块,目标图像特征图分别沿H和W轴逆时针旋转90°获得在H轴和W轴的旋转特征张量,经过pooling以及标准卷积层和sigmoid生成对应的在H轴和W轴的注意力权值,生成的注意力权值与其对应的旋转特征张量相乘获得对应的注意力响应图,最后注意力响应图沿着H和W轴进行顺时针旋转90°获得在H轴和W轴的增强目标图像特征图;
将增强目标图像特征图以及目标图像特征图分别与搜索图像特征图进行互相关并相加获得最终的多尺度特征响应图;
所述候选区域提取模块包括点特征提取模块和边界特征提取模块;
所述点特征提取模块用于将多尺度特征响应图作为输入,对多尺度特征响应图每个位置点对应的边界框进行回归获得候选目标的中心区域特征;
所述边界特征提取模块用于对点特征模块获得的中心区域特征提取获得候选目标的边界特征,合并点特征提取模块和边界特征特征提取模块获得候选目标;
所述区域细化模块用于将候选区域提取模块得到的候选目标作为输入,对每个候选目标进一步细化分类和回归的方法包括:
对候选目标进行特征提取生成候选proposal;
分别对目标图像特征和搜索图像特征中的conv2浅层特征和conv4,conv5深层特征串联融合;
最后,对候选proposal进行分类和回归,将串联融合的conv4,conv5特征接入判别子网络,conv2,conv4特征接入定位子网络,其中判别子网络采用两个FC层进行分类特征提取,定位子网络采用两个Conv层进行回归特征提取,选取响应最大的候选proposal的作为目标的预测位置。
2.根据权利要求1所述的一种基于边界特征融合孪生循环神经网络的目标跟踪方法,其特征在于,
所述点特征提取模块包括分类分支,回归分支和中心点预测分支。
3.根据权利要求1所述的一种基于边界特征融合孪生循环神经网络的目标跟踪方法,其特征在于,所述边界特征提取模块用于对点特征模块获得的中心区域特征提取获得候选目标的边界特征的方法包括:
对点特征模块获得的中心区域特征提取四个边界框特征,并对四个边界框特征分别做pooling操作,采用双线性插值方法对pooling操作之后的边界框特征进行采样,获得候选区域的边界特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110563653.0A CN113297961B (zh) | 2021-05-24 | 2021-05-24 | 一种基于边界特征融合孪生循环神经网络的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110563653.0A CN113297961B (zh) | 2021-05-24 | 2021-05-24 | 一种基于边界特征融合孪生循环神经网络的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113297961A CN113297961A (zh) | 2021-08-24 |
CN113297961B true CN113297961B (zh) | 2023-11-17 |
Family
ID=77324122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110563653.0A Active CN113297961B (zh) | 2021-05-24 | 2021-05-24 | 一种基于边界特征融合孪生循环神经网络的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113297961B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113869165A (zh) * | 2021-09-18 | 2021-12-31 | 山东师范大学 | 一种交通场景目标检测方法及系统 |
CN114529583B (zh) * | 2022-02-10 | 2024-03-19 | 国网河南省电力公司电力科学研究院 | 基于残差回归网络的电力设备跟踪方法及跟踪系统 |
CN114897884A (zh) * | 2022-06-17 | 2022-08-12 | 福州大学 | 基于多尺度边缘特征融合的无参考屏幕内容图像质量评估方法 |
CN116664624B (zh) * | 2023-06-01 | 2023-10-27 | 中国石油大学(华东) | 基于解耦分类与回归特征的目标跟踪方法及跟踪器 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN110335290A (zh) * | 2019-06-04 | 2019-10-15 | 大连理工大学 | 基于注意力机制的孪生候选区域生成网络目标跟踪方法 |
CN110909642A (zh) * | 2019-11-13 | 2020-03-24 | 南京理工大学 | 一种基于多尺度语义特征融合的遥感图像目标检测方法 |
CN111179314A (zh) * | 2019-12-30 | 2020-05-19 | 北京工业大学 | 一种基于残差密集孪生网络的目标跟踪方法 |
CN111898504A (zh) * | 2020-07-20 | 2020-11-06 | 南京邮电大学 | 一种基于孪生循环神经网络的目标跟踪方法及系统 |
CN112258558A (zh) * | 2020-10-23 | 2021-01-22 | 复旦大学 | 基于多尺度孪生网络的目标追踪方法、电子设备及介质 |
-
2021
- 2021-05-24 CN CN202110563653.0A patent/CN113297961B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN110335290A (zh) * | 2019-06-04 | 2019-10-15 | 大连理工大学 | 基于注意力机制的孪生候选区域生成网络目标跟踪方法 |
CN110909642A (zh) * | 2019-11-13 | 2020-03-24 | 南京理工大学 | 一种基于多尺度语义特征融合的遥感图像目标检测方法 |
CN111179314A (zh) * | 2019-12-30 | 2020-05-19 | 北京工业大学 | 一种基于残差密集孪生网络的目标跟踪方法 |
CN111898504A (zh) * | 2020-07-20 | 2020-11-06 | 南京邮电大学 | 一种基于孪生循环神经网络的目标跟踪方法及系统 |
CN112258558A (zh) * | 2020-10-23 | 2021-01-22 | 复旦大学 | 基于多尺度孪生网络的目标追踪方法、电子设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113297961A (zh) | 2021-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113297961B (zh) | 一种基于边界特征融合孪生循环神经网络的目标跟踪方法 | |
CN111242138B (zh) | 一种基于多尺度特征融合的rgbd显著性检测方法 | |
Hsu et al. | Progressive domain adaptation for object detection | |
US10762608B2 (en) | Sky editing based on image composition | |
CN108229468B (zh) | 车辆外观特征识别及车辆检索方法、装置、存储介质、电子设备 | |
CN110111338B (zh) | 一种基于超像素时空显著性分割的视觉跟踪方法 | |
Geng et al. | Using deep learning in infrared images to enable human gesture recognition for autonomous vehicles | |
CN106815323B (zh) | 一种基于显著性检测的跨域视觉检索方法 | |
Li et al. | Weather GAN: Multi-domain weather translation using generative adversarial networks | |
CN106295613A (zh) | 一种无人机目标定位方法及系统 | |
CN114155371A (zh) | 基于通道注意力与金字塔卷积融合的语义分割方法 | |
CN116805360B (zh) | 一种基于双流门控渐进优化网络的显著目标检测方法 | |
CN115205672A (zh) | 一种基于多尺度区域注意力的遥感建筑物语义分割方法及系统 | |
Sun et al. | IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes | |
Hu et al. | Gabor-CNN for object detection based on small samples | |
CN110852199A (zh) | 一种基于双帧编码解码模型的前景提取方法 | |
CN116596966A (zh) | 一种基于注意力和特征融合的分割与跟踪方法 | |
Ning et al. | Point-voxel and bird-eye-view representation aggregation network for single stage 3D object detection | |
Yan et al. | Threshold-adaptive unsupervised focal loss for domain adaptation of semantic segmentation | |
CN104463962A (zh) | 基于gps信息视频的三维场景重建方法 | |
Zong et al. | A cascaded refined rgb-d salient object detection network based on the attention mechanism | |
CN108664968B (zh) | 一种基于文本选取模型的无监督文本定位方法 | |
Wu et al. | Retentive Compensation and Personality Filtering for Few-Shot Remote Sensing Object Detection | |
CN117576149A (zh) | 一种基于注意力机制的单目标跟踪方法 | |
Schulz et al. | Object-class segmentation using deep convolutional neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: No.66, xinmufan Road, Gulou District, Nanjing, Jiangsu Province, 210012 Applicant after: NANJING University OF POSTS AND TELECOMMUNICATIONS Address before: No.28, ningshuang Road, Yuhuatai District, Nanjing City, Jiangsu Province, 210012 Applicant before: NANJING University OF POSTS AND TELECOMMUNICATIONS |
|
GR01 | Patent grant | ||
GR01 | Patent grant |