CN110675423A - 一种基于孪生神经网络和注意力模型的无人机跟踪方法 - Google Patents
一种基于孪生神经网络和注意力模型的无人机跟踪方法 Download PDFInfo
- Publication number
- CN110675423A CN110675423A CN201910807794.5A CN201910807794A CN110675423A CN 110675423 A CN110675423 A CN 110675423A CN 201910807794 A CN201910807794 A CN 201910807794A CN 110675423 A CN110675423 A CN 110675423A
- Authority
- CN
- China
- Prior art keywords
- image
- unmanned aerial
- aerial vehicle
- target
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理技术领域,具体为一种基于孪生神经网络和注意力机制的无人机跟踪方法,应用于连续跟踪可视化单目标无人机。本发明使用两种注意力机制实现通道注意力和空间注意力的权重再分配,通过对孪生网络的模板分支使用注意力模型增强了模型对无人机目标外观模型的表征能力;通过多尺度缩放的方式预处理搜索图像并分别进行响应图计算,用该方式模拟无人机在画面中尺度变化的逆变换,将能够产生更大响应值的搜索因子作为无人机的尺度逆变换以纠正用来标记目标的边框大小,不改变边框的横纵比例。本发明测试得到0.513的跟踪精度(以平均重合率为量化精度标准),相较于其他前沿跟踪方法具有明显的性能提升。
Description
技术领域
本发明涉及图像处理技术领域,具体为一种基于孪生神经网络和注意力机制的无人机跟踪方法,应用于连续跟踪可视化单目标无人机。
背景技术
无人机是无人驾驶飞机的简称,是指利用无线电遥控设备操控的不载人飞机;无人机在军用领域主要用于侦察,在民用领域则广泛应用于视频拍摄、航拍测绘、灾害救险、电力巡检、农业植保等方面,但由于目前无人机产业的行业监管、政策执行等方面仍然存在问题;在民用领域,无人机的使用仍然缺乏规范,黑飞等现象背后应隐藏着巨大的安全隐患。针对于无人机的跟踪是行之有效的监测手段,能够帮助地面人员更好的掌握无人机的飞行信息并且为地面的无人机反制手段提供强有力的帮助。
目前民用领域的无人机主要为四旋翼飞行器,商用技术成熟;但针对其的跟踪问题仍然存在较大的困难:飞行姿态多变、背景多变、活动范围大、环境影响大。无人机的跟踪一方面属于目标跟踪领域的具体问题,具有目标跟踪方面上的普遍难点,另一方面,无人机的形态、飞行等方面具有其特殊性。对于同于目标的跟踪,主要有两种不同的解决方向;其一是相关滤波类的方法,其核心在于学习一个滤波器模板并将该模板与输入图像求相关性,得到的相关图描述目标响应,与目标越接近则响应越大;其二是卷积神经网络类的方法,其核心在于利用深度神经网络优秀的特征表达能力对目标的表观特征进行学习与建模,在后续图像序列中对目标进行定位并确定边框;对目标的定位方式以及边框适应的方法各式各样,包括前后景二分类、mask掩模、边框回归、块匹配等。
对于任意目标的跟踪可以理解为在后续图像中求解与目标最相似的物体并实现定位框选标记,即学习一个函数来学习比较模板图像与搜索图像的相似性,如果两幅图像描述的是同一个目标则返回高分;使用深度神经网络来模拟上述函数,而孪生结构是相似度学习的典型结构;图像经过特征提取映射至特征空间之后使用一个相似度度量函数进行运算得到相似性的得分图;但对于深度特征而言,高层语义特征对目标外观的变化具有鲁棒性,使得跟踪器判别力不强。基于此,本发明提供一种基于孪生神经网络和注意力模型的无人机跟踪方法。
发明内容
本发明的目的在于提供一种基于孪生神经网络和注意力模型的无人机跟踪方法,使用注意力模型增强深度网络对无人机目标的外观模型的表征能力;进而实现更好的跟踪效果。
为实现上述目的,本发明采用的技术方案为:
一种基于孪生神经网络与注意力模型的无人机跟踪方法,包括如下步骤:
步骤1:构建孪生神经网络结构和注意力模型;
步骤1.1:采用共享参数的孪生神经网络分别提取模板图像Z和待搜索图像X的特征空间,得到各自对应的特征空间FZ和FX:
FZ=φ(Z),FX=φ(X)
所述变换φ为全卷积网络,结构层次为:
[C(96,11,2)-B-R-M(3,2)]-[C(256,5,1)-B-R-M(3,2)]-[C(384,3,1)-B-R]-[C(384,3,1)-B-R]-[C(256,3,1)]
其中,C表示卷积层,B表示批标准化层,R表示ReLU激活层,M表示最大值池化层;
步骤:1.2:采用注意力模型对模板图像特征空间进行注意力的重新分配,得到特征空间FZa:
其中,分别表示在二维空间上对特征空间F的平均池化和最大池化,C表示卷积操作;
步骤1.3:采用特征卷积层对模板图像特征空间FZa和搜索图像特征空间FX进行卷积得到响应图;
步骤2:使用目标跟踪数据集对网络模型进行端到端训练,设置损失函数对模型进行反向传播,得到网络模型;
步骤2.1:利用不限定目标种类的图像序列数据集进行模型的训练,模板图像为图像序列中第一帧图像中的目标,且对同一序列的训练中不做改变;搜索图像在图像序列中随机选取与模板图像之间的时间间隔不超过阈值的图像;
模板图像与搜索图像根据已知的目标位置进行中心缩放,使模板图像为127×127,搜索图像为255×255;将目标置于图像中心并使用像素平均值填充空余部分,变换公式:
s(w+2p)×s(h+2p)=A,
其中,A为矩形缩放面积,s表示中心缩放,w×h为目标边框的大小,p为目标边框上下边距:p=(w+h)/4;
步骤2.2:设置损失函数为采用带逻辑值的二进制交叉熵函数,对模型进行反向传播,得到网络模型;所述逻辑值为:
其中,k为特征卷积层的步长,u为响应图中的所有位置,c为图像中心,R为预设距离阈值,||u-c||表示计算当前位置与图像中心的曼哈顿距离;
步骤3:利用步骤2中已训练模型集成为无人机跟踪器,在包含无人机的指定图像序列或视频中初始化目标之后实现对该目标的跟踪,再使用矩形边框标识无人机;
步骤3.1:以指定图像序列或视频中第1帧图像作为模板图像,后续待跟踪图像为搜索图像;设定多个尺度变化因子δ,对待跟踪图像进行中心缩放;
步骤3.2:模型输入模板图像和搜索图像,得到原始响应图;将响应图进行二次线性插值使其分辨率为255×255,并根据权重因子weight将其与余弦窗口进行加和,得到最终响应图res:
res=(1-weight)×response+weight×windows
其中,response为原始响应图,windows为汉宁窗口;
针对同一搜索图像,认定响应值最大的最终响应图对应的尺度变化因子为无人机的尺度变化,使用该因子修正框定无人机的矩形边框大小;且此最终响应图res中最大值所在位置对应于搜索图像中无人机的相对位置;
步骤3.3:依次迭代计算每张搜索图像中目标位置以及边框大小,实现无人机连续跟踪。
本发明的有益效果在于:
本发明提供的基于孪生神经网络和注意力模型的无人机跟踪方法,使用两种注意力机制实现通道注意力和空间注意力的权重再分配,通过对孪生网络的模板分支使用注意力模型增强了模型对无人机目标外观模型的表征能力。使用通用的目标跟踪数据集进行模型训练是的模型具有良好的泛化性能以及普适性,即对无人机的姿态、运动具有较好的适应性;端到端的计算方式方便了训练过程,降低了模型复杂度,以适应实时跟踪的实际场景要求。通过多尺度缩放的方式预处理搜索图像并分别进行响应图计算,用该方式模拟无人机在画面中尺度变化的逆变换,将能够产生更大响应值的搜索因子作为无人机的尺度逆变换以纠正用来标记目标的边框大小,不改变边框的横纵比例。本发明测试得到0.513的跟踪精度(以平均重合率为量化精度标准),相较于其他前沿跟踪方法具有明显的性能提升。
附图说明
图1为本发明实施例中的孪生网络模型结构示意图;
图2为本发明实施例中的通道注意力模型示意图;
图3为本发明实施例中的空间注意力模型示意图;
图4为本发明实施例中无人机跟踪算法流程示意图;
图5为本发明实施例中无人机跟踪效果的成功率曲线对比图;
图6为本发明实施例中无人机跟踪结果示意图,其中(a)~(d),(e)~(h)分别为两个无人机视频的跟踪结果。
具体实施方式
下面结合附图和实施例对本发明做进一步详细说明,该实施例仅用于解释本发明,而不能解释为对本发明的限制。
实施例
本实施例提供了一种基于孪生神经网络和注意力模型的单个无人机跟踪方法,包括如下步骤:
步骤1:构建孪生神经网络结构和模块化的注意力模型,将注意力模型用于增强孪生网络得到的特征;
使用共享参数的孪生神经网络分别提取模板图像Z和待搜索图像X的特征,孪生网络对两个输入图像进行相同的变换φ,得到各自对应的特征空间FZ和FX:
FZ=φ(Z)
FX=φ(X)
上述的变换φ为全卷积网络,结构层次为:
[C(96,11,2)-B-R-M(3,2)]-[C(256,5,1)-B-R-M(3,2)]-[C(384,3,1)-B-R]-[C(384,3,1)-B-R]-[C(256,3,1)]
其中,C表示卷积层,B表示批标准化层,R表示ReLU激活层,M表示最大值池化层,符号“-”表示顺序连接;进一步地,C(96,11,2)表示该卷积层卷积核数量为96、卷积核大小为11、卷积操作的步长为2,M(3,2)表示最大值池化层的池化核大小为3、操作步长为2,以此类推;
进一步地,将注意力模型与孪生结构的模板分支进行衔接,利用注意力模型在特征空间中增加权重分配学习分支,实现对特征平面的二维空间注意力权重分配和空间通道的一维通道注意力权重分配;
所述的经过权重分配的特征空间为Fa:
Fa=a⊙F
其中,F表示为图像经孪生神经网络提取得到的特征空间,⊙表示特征空间中元素对应相乘的运算,a表示注意力网络根据输入F计算得到的注意力掩模或者向量;利用注意力模型对模板图像特征空间进行注意力的重新分配,:
进一步地,使用两种注意力机制及其两种池化方式进行注意力权重计算;注意力模块包含顺序计算的通道注意力模型MC(F)和空间注意力模块MS(F),两者都由特征空间F计算得到:
通道注意力模型的最终目的是产生一个长度和特征向量相同通道数的一维向量,该向量和各个通道对应相乘,实现不同通道的权重分配;使用多层感知机MLP组成的共享参数网络对特征空间进行计算得到通道注意力向量;为了减少特征分辨率从而减小计算量通常采用池化的方式,使用两种池化方式得到两种池化特征作为多层感知机的输入;其中,多层感知机中通道的缩减比例设置为16,即输入256通道的特征图,感知机中间层缩减至256÷16=16通道,通道注意力向量计算如下公式:
其中,分别表示在通道方向上对特征空间F的平均池化和最大池化,W0、W1表示两层感知机,R表示ReLU函数激活,σ表示sigmoid激活,F表示图像的特征空间,具有channel×width×height的形状;
空间注意力机制是对空间位置信息的二维注意力分配,即产生关于特征空间的二维权重分布,实现对重点信息的关注以及空间背景信息的抑制;
空间注意力模型采用两种池化方式,进行一次卷积操作并使用sigmoid函数激活得到注意力的空间分布;其中卷积核大小设为3×3;和通道注意力类似,在通道轴的方向上分别使用最大池化和平均池化得到特征空间的二维描述矩阵并将两个矩阵合并;然后利用一个卷积层生成二维的空间注意力分布图,空间计算过程如下:
其中,F表示图像的特征空间,分别表示在二维空间上对特征空间F的平均池化和最大池化,C表示具有3×3卷积核的卷积操作、对两种池化方式得到的特征图进行合并卷积,经过sigmoid激活得到空间注意力权重分布图;
最后采用特征卷积层对模板图像特征FZa和搜索图像特征FX进过卷积得到响应图;
步骤2:使用目标跟踪数据集对网络模型进行端到端训练,设置损失函数对模型进行反向传播,得到网络模型;
利用不限定目标种类的图像序列数据集进行模型的训练,模板图像为图像序列中第一帧图像中的目标,且对同一序列的训练中不做改变;搜索图像在图像序列中随机选取但与模板图像之间的时间间隔应当不超过指定值;
模板图像与搜索图像根据已知的目标位置进行中心缩放,使模板图像为127×127,搜索图像为255×255;将目标置于图像中心并使用像素平均值填充空余部分,变换公式:s(w+2p)×s(h+2p)=A,其中,s表示中心缩放;
如果目标边框具有w×h的大小且上下文边距为p,将矩形缩放至固定面积A:127×127或255×255;将目标上下文的值p设置为平均尺度的一半:
p=(w+h)/4
利用相似度计算的方式实现对搜索图像中目标的定位,使用互相关作为相似度计算函数;将模板图像的特征空间作为核,对搜索图像特征空间进行卷积运算,即在密集采样的条件下计算所有滑动窗口与模板图像的相似度;上述操作将得到搜索图像中关于目标相似度的度量图;响应最大值位置就是搜索图像中与目标相似度最高的窗口位置,将该位置认定为目标在搜索图像中的定位;产生的响应图应当具有对中心区域的高响应值,即中心逻辑值为1而背景区域逻辑值为0:
其中,k是特征卷积层的步长,u是响应图中的所有位置,c是图像中心即目标区域,R是设定的距离阈值,||u-c||表示计算当前位置与图像中心的曼哈顿距离;损失函数是采用带逻辑值的二进制交叉熵函数;
步骤3:利用步骤2中已训练模型集成为无人机跟踪器,在包含无人机的指定图像序列或视频中初始化目标之后实现对该目标的跟踪,再使用矩形边框标识无人机;
以指定图像序列或视频中第1帧图像初始化目标,后续图像均为搜索图像;
待跟踪的无人机图像序列应当是具有因果关系的连续图像,根据上一帧图像中目标位置对待跟踪图片进行中心缩放,使用多个尺度变化因子δ控制缩放程度,模拟无人机的尺度变化,本实施例中,δ采用1.075{-1,0,+1};
模型输入模板图像和搜索图像,得到二维响应图;将该图进行二次线性插值使其分辨率为255×255,并根据权重因子weight(0.235)将其与余弦窗口进行加和,公式如下:
res=(1-weight)×response+weight×windows
其中,weight=0.235,response为原始响应图,windows为汉宁窗口;
将最终响应图res作为目标无人机的定位依据:最终响应图res中最大值所在位置对应于搜索图像中无人机的相对位置;多个尺度变化因子将产生多个响应图,响应值最大的响应图对应的尺度变化因子代表无人机的尺度变化,使用该因子修正框定无人机的矩形边框大小;
依次迭代计算每张图像中目标位置以及边框大小,实现无人机连续跟踪。
根据上述实施方案所述,对四旋翼无人飞行器的效果进行对比分析,其成功率曲线对比如图5所示;无人机跟踪结果示意图如图6所示;使用本发明中设计的跟踪器以及其他5个跟踪算法对包含9个无人机视频的测试样本,共计1252张序列化图像进行无人机跟踪:使用平均重合率、跟踪成功率、跟踪帧率进行量化评估;
跟踪方法 | 平均重合率 | 成功率 | 帧率 |
Ours | 0.513 | 0.671 | 18.34 |
DCF | 0.498 | 0.617 | 30.61 |
DaSiamRPN | 0.431 | 0.571 | 20.34 |
KCF | 0.156 | 0.109 | 29.66 |
TLD | 0.113 | 0.098 | 9.62 |
GOTURN | 0.102 | 0.071 | 14.46 |
测试表明,在平衡跟踪精度与跟踪速度的实际要求下,得益于注意力模型对模板图像特征空间的增强特性,本实施例的无人机跟踪方法具有更好的跟踪效果与量化指标。
以上所述,仅为本发明的具体实施方式,本说明书中所公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换;所公开的所有特征、或所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以任何方式组合。
Claims (1)
1.一种基于孪生神经网络与注意力模型的无人机跟踪方法,包括如下步骤:
步骤1:构建孪生神经网络结构和注意力模型;
步骤1.1:采用共享参数的孪生神经网络分别提取模板图像Z和待搜索图像X的特征空间,得到各自对应的特征空间FZ和FX:
FZ=φ(Z),FX=φ(X)
所述变换φ为全卷积网络,结构层次为:
[C(96,11,2)-B-R-M(3,2)]-[C(256,5,1)-B-R-M(3,2)]-[C(384,3,1)-B-R]-[C(384,3,1)-B-R]-[C(256,3,1)]
其中,C表示卷积层,B表示批标准化层,R表示ReLU激活层,M表示最大值池化层;
步骤:1.2:采用注意力模型对模板图像特征空间进行注意力的重新分配,得到特征空间FZa:
步骤1.3:采用特征卷积层对模板图像特征空间FZa和搜索图像特征空间FX进行卷积得到响应图;
步骤2:使用目标跟踪数据集对网络模型进行端到端训练,设置损失函数对模型进行反向传播,得到网络模型;
步骤2.1:利用不限定目标种类的图像序列数据集进行模型的训练,模板图像为图像序列中第一帧图像中的目标,且对同一序列的训练中不做改变;搜索图像在图像序列中随机选取与模板图像之间的时间间隔不超过阈值的图像;
模板图像与搜索图像根据已知的目标位置进行中心缩放,使模板图像为127×127,搜索图像为255×255;将目标置于图像中心并使用像素平均值填充空余部分,变换公式:
s(w+2p)×s(h+2p)=A,
其中,A为矩形缩放面积,s表示中心缩放,w×h为目标边框的大小,p为目标边框上下边距:p=(w+h)/4;
步骤2.2:设置损失函数为采用带逻辑值的二进制交叉熵函数,对模型进行反向传播,得到网络模型;所述逻辑值为:
其中,k为特征卷积层的步长,u为响应图中的所有位置,c为图像中心,R为预设距离阈值,||u-c||表示计算当前位置与图像中心的曼哈顿距离;
步骤3:利用步骤2中已训练模型集成为无人机跟踪器,在包含无人机的指定图像序列或视频中初始化目标之后实现对该目标的跟踪,再使用矩形边框标识无人机;
步骤3.1:以指定图像序列或视频中第1帧图像作为模板图像,后续待跟踪图像为搜索图像;设定多个尺度变化因子δ,对待跟踪图像进行中心缩放;
步骤3.2:模型输入模板图像和搜索图像,得到原始响应图;将响应图进行二次线性插值使其分辨率为255×255,并根据权重因子weight将其与余弦窗口进行加和,得到最终响应图res:
res=(1-weight)×response+weight×windows
其中,response为原始响应图,windows为汉宁窗口;
针对同一搜索图像,认定响应值最大的最终响应图对应的尺度变化因子为无人机的尺度变化,使用该因子修正框定无人机的矩形边框大小;且此最终响应图res中最大值所在位置对应于搜索图像中无人机的相对位置;
步骤3.3:依次迭代计算每张搜索图像中目标位置以及边框大小,实现无人机连续跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910807794.5A CN110675423A (zh) | 2019-08-29 | 2019-08-29 | 一种基于孪生神经网络和注意力模型的无人机跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910807794.5A CN110675423A (zh) | 2019-08-29 | 2019-08-29 | 一种基于孪生神经网络和注意力模型的无人机跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110675423A true CN110675423A (zh) | 2020-01-10 |
Family
ID=69075658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910807794.5A Pending CN110675423A (zh) | 2019-08-29 | 2019-08-29 | 一种基于孪生神经网络和注意力模型的无人机跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110675423A (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111291679A (zh) * | 2020-02-06 | 2020-06-16 | 厦门大学 | 一种基于孪生网络的目标特定响应注意力目标跟踪方法 |
CN111325108A (zh) * | 2020-01-22 | 2020-06-23 | 中能国际建筑投资集团有限公司 | 一种多任务网络模型及使用方法、装置、和存储介质 |
CN111354017A (zh) * | 2020-03-04 | 2020-06-30 | 江南大学 | 一种基于孪生神经网络及平行注意力模块的目标跟踪方法 |
CN111428575A (zh) * | 2020-03-02 | 2020-07-17 | 武汉大学 | 一种基于孪生网络的针对模糊目标的跟踪方法 |
CN111640136A (zh) * | 2020-05-23 | 2020-09-08 | 西北工业大学 | 一种复杂环境中的深度目标跟踪方法 |
CN111753667A (zh) * | 2020-05-27 | 2020-10-09 | 江苏大学 | 一种基于孪生网络的智能汽车单目标跟踪方法 |
CN111950493A (zh) * | 2020-08-20 | 2020-11-17 | 华北电力大学 | 图像识别方法、装置、终端设备和可读存储介质 |
CN112488061A (zh) * | 2020-12-18 | 2021-03-12 | 电子科技大学 | 一种联合ads-b信息的多航空器检测与跟踪方法 |
CN112560656A (zh) * | 2020-12-11 | 2021-03-26 | 成都东方天呈智能科技有限公司 | 一种联合注意力机制端到端训练的行人多目标跟踪方法 |
CN112560695A (zh) * | 2020-12-17 | 2021-03-26 | 中国海洋大学 | 水下目标跟踪方法、系统、存储介质、设备、终端及应用 |
CN112560620A (zh) * | 2020-12-08 | 2021-03-26 | 齐鲁工业大学 | 一种基于目标检测和特征融合的目标跟踪方法及系统 |
CN112816474A (zh) * | 2021-01-07 | 2021-05-18 | 武汉大学 | 一种基于目标感知的深度孪生网络高光谱视频目标跟踪方法 |
CN112819856A (zh) * | 2021-01-22 | 2021-05-18 | 同济大学 | 一种应用于无人机的目标跟踪方法及自定位方法 |
CN113065645A (zh) * | 2021-04-30 | 2021-07-02 | 华为技术有限公司 | 孪生注意力网络、图像处理方法和装置 |
CN113283407A (zh) * | 2021-07-22 | 2021-08-20 | 南昌工程学院 | 一种基于通道与空间注意力机制的孪生网络目标跟踪方法 |
CN113298748A (zh) * | 2020-02-21 | 2021-08-24 | 安徽大学 | 一种基于注意力机制的图像协同显著目标检测模型 |
CN113362373A (zh) * | 2021-06-01 | 2021-09-07 | 北京首都国际机场股份有限公司 | 基于双孪生网络的复杂机坪区域内飞机跟踪方法 |
CN113379806A (zh) * | 2021-08-13 | 2021-09-10 | 南昌工程学院 | 基于可学习稀疏转换注意力机制的目标跟踪方法与系统 |
CN113393496A (zh) * | 2021-07-05 | 2021-09-14 | 中国电子科技集团公司第二十八研究所 | 一种基于时空注意力机制的目标跟踪方法 |
CN113516713A (zh) * | 2021-06-18 | 2021-10-19 | 广西财经学院 | 一种基于伪孪生网络的无人机自适应目标跟踪方法 |
CN113643329A (zh) * | 2021-09-01 | 2021-11-12 | 北京航空航天大学 | 一种基于孪生注意力网络的在线更新目标跟踪方法和系统 |
CN114326639A (zh) * | 2021-12-30 | 2022-04-12 | 杭州电子科技大学 | 基于混合注意力卷积神经网络的工业过程性能评估方法 |
CN117314895A (zh) * | 2023-11-27 | 2023-12-29 | 北京阿丘科技有限公司 | 缺陷检测方法、设备及计算机可读存储介质 |
CN117392561A (zh) * | 2023-10-07 | 2024-01-12 | 中国公路工程咨询集团有限公司 | 智慧交通施工数据采集用遥感无人机图像处理方法及系统 |
WO2024022060A1 (zh) * | 2022-07-28 | 2024-02-01 | 杭州堃博生物科技有限公司 | 一种图像配准方法、装置及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108090918A (zh) * | 2018-02-12 | 2018-05-29 | 天津天地伟业信息系统集成有限公司 | 一种基于深度全卷积孪生网络的实时人脸跟踪方法 |
CN108846855A (zh) * | 2018-05-24 | 2018-11-20 | 北京飞搜科技有限公司 | 目标跟踪方法及设备 |
CN108846358A (zh) * | 2018-06-13 | 2018-11-20 | 浙江工业大学 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
CN109446889A (zh) * | 2018-09-10 | 2019-03-08 | 北京飞搜科技有限公司 | 基于孪生匹配网络的物体追踪方法及装置 |
CN109493364A (zh) * | 2018-09-26 | 2019-03-19 | 重庆邮电大学 | 一种结合残差注意力和上下文信息的目标跟踪算法 |
CN109767456A (zh) * | 2019-01-09 | 2019-05-17 | 上海大学 | 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法 |
CN109978921A (zh) * | 2019-04-01 | 2019-07-05 | 南京信息工程大学 | 一种基于多层注意力机制的实时视频目标跟踪算法 |
CN109993775A (zh) * | 2019-04-01 | 2019-07-09 | 云南大学 | 基于特征补偿的单目标跟踪方法 |
CN110120064A (zh) * | 2019-05-13 | 2019-08-13 | 南京信息工程大学 | 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 |
-
2019
- 2019-08-29 CN CN201910807794.5A patent/CN110675423A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108090918A (zh) * | 2018-02-12 | 2018-05-29 | 天津天地伟业信息系统集成有限公司 | 一种基于深度全卷积孪生网络的实时人脸跟踪方法 |
CN108846855A (zh) * | 2018-05-24 | 2018-11-20 | 北京飞搜科技有限公司 | 目标跟踪方法及设备 |
CN108846358A (zh) * | 2018-06-13 | 2018-11-20 | 浙江工业大学 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
CN109446889A (zh) * | 2018-09-10 | 2019-03-08 | 北京飞搜科技有限公司 | 基于孪生匹配网络的物体追踪方法及装置 |
CN109493364A (zh) * | 2018-09-26 | 2019-03-19 | 重庆邮电大学 | 一种结合残差注意力和上下文信息的目标跟踪算法 |
CN109767456A (zh) * | 2019-01-09 | 2019-05-17 | 上海大学 | 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法 |
CN109978921A (zh) * | 2019-04-01 | 2019-07-05 | 南京信息工程大学 | 一种基于多层注意力机制的实时视频目标跟踪算法 |
CN109993775A (zh) * | 2019-04-01 | 2019-07-09 | 云南大学 | 基于特征补偿的单目标跟踪方法 |
CN110120064A (zh) * | 2019-05-13 | 2019-08-13 | 南京信息工程大学 | 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 |
Non-Patent Citations (8)
Title |
---|
LUCA BERTINETTO 等: "Fully-Convolutional Siamese Networks for Object Tracking", 《ECCV 2016》 * |
SANGHYUN WOO 等: "CBAM: Convolutional Block Attention Module", 《ECCV 2018》 * |
XIAOLI ZHAO 等: "Siamese Network for Object Tracking in Aerial Video", 《2018 3RD IEEE INTERNATIONAL CONFERENCE ON IMAGE, VISION AND COMPUTING》 * |
YANBIAO ZOU 等: "Learning Siamese networks for laser vision seam tracking", 《JOURNAL OF THE OPTICAL SOCIETY OF AMERICA A》 * |
YUHONG LI 等: "SiamVGG: Visual Tracking using Deeper Siamese Networks", 《ARXIV》 * |
李蓝星: "基于深度学习的目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
杨康 等: "基于双重注意力孪生网络的实时视觉跟踪", 《计算机应用》 * |
高俊艳 等: "结合注意力与特征融合的目标跟踪", 《广东工业大学学报》 * |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325108B (zh) * | 2020-01-22 | 2023-05-26 | 中能国际高新科技研究院有限公司 | 一种多任务网络模型及使用方法、装置、和存储介质 |
CN111325108A (zh) * | 2020-01-22 | 2020-06-23 | 中能国际建筑投资集团有限公司 | 一种多任务网络模型及使用方法、装置、和存储介质 |
CN111291679B (zh) * | 2020-02-06 | 2022-05-27 | 厦门大学 | 一种基于孪生网络的目标特定响应注意力目标跟踪方法 |
CN111291679A (zh) * | 2020-02-06 | 2020-06-16 | 厦门大学 | 一种基于孪生网络的目标特定响应注意力目标跟踪方法 |
CN113298748A (zh) * | 2020-02-21 | 2021-08-24 | 安徽大学 | 一种基于注意力机制的图像协同显著目标检测模型 |
CN113298748B (zh) * | 2020-02-21 | 2022-11-18 | 安徽大学 | 一种基于注意力机制的图像协同显著目标检测模型 |
CN111428575A (zh) * | 2020-03-02 | 2020-07-17 | 武汉大学 | 一种基于孪生网络的针对模糊目标的跟踪方法 |
CN111428575B (zh) * | 2020-03-02 | 2022-03-04 | 武汉大学 | 一种基于孪生网络的针对模糊目标的跟踪方法 |
CN111354017A (zh) * | 2020-03-04 | 2020-06-30 | 江南大学 | 一种基于孪生神经网络及平行注意力模块的目标跟踪方法 |
CN111640136A (zh) * | 2020-05-23 | 2020-09-08 | 西北工业大学 | 一种复杂环境中的深度目标跟踪方法 |
CN111640136B (zh) * | 2020-05-23 | 2022-02-25 | 西北工业大学 | 一种复杂环境中的深度目标跟踪方法 |
CN111753667B (zh) * | 2020-05-27 | 2024-05-14 | 江苏大学 | 一种基于孪生网络的智能汽车单目标跟踪方法 |
CN111753667A (zh) * | 2020-05-27 | 2020-10-09 | 江苏大学 | 一种基于孪生网络的智能汽车单目标跟踪方法 |
CN111950493B (zh) * | 2020-08-20 | 2024-03-08 | 华北电力大学 | 图像识别方法、装置、终端设备和可读存储介质 |
CN111950493A (zh) * | 2020-08-20 | 2020-11-17 | 华北电力大学 | 图像识别方法、装置、终端设备和可读存储介质 |
CN112560620A (zh) * | 2020-12-08 | 2021-03-26 | 齐鲁工业大学 | 一种基于目标检测和特征融合的目标跟踪方法及系统 |
CN112560620B (zh) * | 2020-12-08 | 2023-02-28 | 齐鲁工业大学 | 一种基于目标检测和特征融合的目标跟踪方法及系统 |
CN112560656B (zh) * | 2020-12-11 | 2024-04-02 | 成都东方天呈智能科技有限公司 | 一种联合注意力机制端到端训练的行人多目标跟踪方法 |
CN112560656A (zh) * | 2020-12-11 | 2021-03-26 | 成都东方天呈智能科技有限公司 | 一种联合注意力机制端到端训练的行人多目标跟踪方法 |
CN112560695A (zh) * | 2020-12-17 | 2021-03-26 | 中国海洋大学 | 水下目标跟踪方法、系统、存储介质、设备、终端及应用 |
CN112560695B (zh) * | 2020-12-17 | 2023-03-24 | 中国海洋大学 | 水下目标跟踪方法、系统、存储介质、设备、终端及应用 |
CN112488061A (zh) * | 2020-12-18 | 2021-03-12 | 电子科技大学 | 一种联合ads-b信息的多航空器检测与跟踪方法 |
CN112816474B (zh) * | 2021-01-07 | 2022-02-01 | 武汉大学 | 一种基于目标感知的深度孪生网络高光谱视频目标跟踪方法 |
CN112816474A (zh) * | 2021-01-07 | 2021-05-18 | 武汉大学 | 一种基于目标感知的深度孪生网络高光谱视频目标跟踪方法 |
CN112819856A (zh) * | 2021-01-22 | 2021-05-18 | 同济大学 | 一种应用于无人机的目标跟踪方法及自定位方法 |
CN113065645A (zh) * | 2021-04-30 | 2021-07-02 | 华为技术有限公司 | 孪生注意力网络、图像处理方法和装置 |
CN113065645B (zh) * | 2021-04-30 | 2024-04-09 | 华为技术有限公司 | 孪生注意力网络、图像处理方法和装置 |
CN113362373B (zh) * | 2021-06-01 | 2023-12-15 | 北京首都国际机场股份有限公司 | 基于双孪生网络的复杂机坪区域内飞机跟踪方法 |
CN113362373A (zh) * | 2021-06-01 | 2021-09-07 | 北京首都国际机场股份有限公司 | 基于双孪生网络的复杂机坪区域内飞机跟踪方法 |
CN113516713A (zh) * | 2021-06-18 | 2021-10-19 | 广西财经学院 | 一种基于伪孪生网络的无人机自适应目标跟踪方法 |
CN113393496A (zh) * | 2021-07-05 | 2021-09-14 | 中国电子科技集团公司第二十八研究所 | 一种基于时空注意力机制的目标跟踪方法 |
CN113283407A (zh) * | 2021-07-22 | 2021-08-20 | 南昌工程学院 | 一种基于通道与空间注意力机制的孪生网络目标跟踪方法 |
CN113379806B (zh) * | 2021-08-13 | 2021-11-09 | 南昌工程学院 | 基于可学习稀疏转换注意力机制的目标跟踪方法与系统 |
CN113379806A (zh) * | 2021-08-13 | 2021-09-10 | 南昌工程学院 | 基于可学习稀疏转换注意力机制的目标跟踪方法与系统 |
CN113643329A (zh) * | 2021-09-01 | 2021-11-12 | 北京航空航天大学 | 一种基于孪生注意力网络的在线更新目标跟踪方法和系统 |
CN114326639A (zh) * | 2021-12-30 | 2022-04-12 | 杭州电子科技大学 | 基于混合注意力卷积神经网络的工业过程性能评估方法 |
WO2024022060A1 (zh) * | 2022-07-28 | 2024-02-01 | 杭州堃博生物科技有限公司 | 一种图像配准方法、装置及存储介质 |
CN117392561A (zh) * | 2023-10-07 | 2024-01-12 | 中国公路工程咨询集团有限公司 | 智慧交通施工数据采集用遥感无人机图像处理方法及系统 |
CN117392561B (zh) * | 2023-10-07 | 2024-05-14 | 中国公路工程咨询集团有限公司 | 智慧交通施工数据采集用遥感无人机图像处理方法及系统 |
CN117314895A (zh) * | 2023-11-27 | 2023-12-29 | 北京阿丘科技有限公司 | 缺陷检测方法、设备及计算机可读存储介质 |
CN117314895B (zh) * | 2023-11-27 | 2024-03-12 | 北京阿丘科技有限公司 | 缺陷检测方法、设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110675423A (zh) | 一种基于孪生神经网络和注意力模型的无人机跟踪方法 | |
CN110378381B (zh) | 物体检测方法、装置和计算机存储介质 | |
CN111712830B (zh) | 使用深度传感器的实时对象检测 | |
CN110009674B (zh) | 基于无监督深度学习的单目图像景深实时计算方法 | |
CN112488210A (zh) | 一种基于图卷积神经网络的三维点云自动分类方法 | |
WO2020170014A1 (en) | Object counting and instance segmentation using neural network architectures with image-level supervision | |
CN111723693B (zh) | 一种基于小样本学习的人群计数方法 | |
Venugopal | Automatic semantic segmentation with DeepLab dilated learning network for change detection in remote sensing images | |
CN112862792B (zh) | 一种用于小样本图像数据集的小麦白粉病孢子分割方法 | |
CN107977661B (zh) | 基于fcn与低秩稀疏分解的感兴趣区域检测方法 | |
Chen et al. | Remote sensing image quality evaluation based on deep support value learning networks | |
CN111046868B (zh) | 基于矩阵低秩稀疏分解的目标显著性检测方法 | |
CN113743417B (zh) | 语义分割方法和语义分割装置 | |
Chen et al. | Dr-tanet: Dynamic receptive temporal attention network for street scene change detection | |
Grigorev et al. | Depth estimation from single monocular images using deep hybrid network | |
CN110490894A (zh) | 基于改进的低秩稀疏分解的视频前背景分离方法 | |
CN107392211B (zh) | 基于视觉稀疏认知的显著目标检测方法 | |
Li et al. | An aerial image segmentation approach based on enhanced multi-scale convolutional neural network | |
CN117218343A (zh) | 一种基于深度学习的语义部件姿态估计方法 | |
CN112686952A (zh) | 一种图像光流计算系统、方法及应用 | |
CN116563682A (zh) | 一种基于深度霍夫网络的注意力方案和条带卷积语义线检测的方法 | |
Sun et al. | Two-stage deep regression enhanced depth estimation from a single RGB image | |
Qin et al. | Depth estimation by parameter transfer with a lightweight model for single still images | |
CN112668421B (zh) | 一种基于注意力机制的无人机高光谱农作物快速分类方法 | |
CN114462486A (zh) | 图像处理模型的训练方法、图像处理方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200110 |
|
RJ01 | Rejection of invention patent application after publication |