CN112669350A - 一种自适应特征融合的智能变电站人体目标跟踪方法 - Google Patents
一种自适应特征融合的智能变电站人体目标跟踪方法 Download PDFInfo
- Publication number
- CN112669350A CN112669350A CN202011637615.7A CN202011637615A CN112669350A CN 112669350 A CN112669350 A CN 112669350A CN 202011637615 A CN202011637615 A CN 202011637615A CN 112669350 A CN112669350 A CN 112669350A
- Authority
- CN
- China
- Prior art keywords
- branch
- feature
- mask
- target
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 230000004927 fusion Effects 0.000 title claims description 27
- 230000003044 adaptive effect Effects 0.000 title claims description 17
- 238000010586 diagram Methods 0.000 claims abstract description 31
- 230000007246 mechanism Effects 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 28
- 230000004913 activation Effects 0.000 claims description 6
- 238000009432 framing Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 5
- 238000012549 training Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
本发明提供了一种自适应特征融合的智能变电站人体目标跟踪方法。本发明的方法在快速给出准确跟踪结果的同时还可以对目标物体分割出精细的掩膜,并将FPN各层级特征图送入多比率锚框的ASF,对ASF输出特征图使用高斯非局部注意力机制进行增强,突出目标区域特征,抑制非目标、背景特征,有效提升检测精度。
Description
技术领域
本发明涉及目标跟踪领域,具体涉及一种自适应特征融合的智能变电站人体目标跟踪方法。
背景技术
现今有许多定位跟踪系统使用超宽波(ultra-wideband,UW)技术,基于硬件技术完成人员的定位与跟踪,但是该方法成本高,并且需要被监控对象一直携带手环等信号发生器,无法对擅自闯入的人员或工程车辆进行跟踪。视觉算法方面,有些监控系统使用自适应均值偏移(Camshift)、支持向量机(support vector machine,SVM)、自适应增强(AdaBoost)或者背景提取(ViBe)、卡尔曼滤波等传统的跟踪算法对人员或者工程车辆进行跟踪。但是传统算法往往依赖图像的底层特征的相似度,虽然速度较快,但无法适应跟踪目标的大姿态变化和由于摄像机拍摄造成的模糊、遮挡等情况,难以在较为复杂的场景下输出可以信赖的结果。
现有技术的变电站目标跟踪方法主要存在以下不足:(1)变电站视频监控的跟踪目标,一般为站内的工作人员,在特定场合对于工程车辆或入侵异物也有一定需求。考虑到实际场景,智能监控需要对各异常情况有极高的响应速度,并且往往需要对跟踪的目标进行后续分析,例如移动轨迹分析、行为识别等。(2)变电站监控视频帧率低、清晰度低,同时容易出现跟踪目标被设备遮挡的情况,这给智能监控算法提出了极大的挑战。
发明内容
为解决现有技术存在的问题,本发明提供了一种自适应特征融合的智能变电站人体目标跟踪方法。为实现本发明的目的,本发明的技术方案如下。
一种自适应特征融合的智能变电站人体目标跟踪方法,包括:
获取电站现场的人体目标图像,标定获取的人体目标图像,基于ResNet-50深度卷积网络提取特征图;
基于ResNet-50深度卷积网络的C3、C4、C5层级构造特征金字塔网络FPN的P3、P4、P5层级;
将特征金字塔网络FPN的P3、P4、P5层级的特征图输入自适应空间融合ASF进行特征融合;
采用注意力机制增强特征金字塔网络的输出特征图;
将目标图像块z和搜索图像块x分别输入自适应空间融合ASF的共享主干网络f,得到参考特征图f(z)和f(x);将参考特征图f(z)和f(x)进行深度互相关操作,得到候选窗口响应RoWs;
在增强特征金字塔网络的输出特征图上,滑动一组不同比率和不同尺度的锚点,映射到原始图像中得到不同比率和不同尺度的感兴趣区域ROIs;
拼接感兴趣区域ROIs,并将拼接后的ROIs输入三个并联的分支:边界框分支、分类分支和掩膜分支;其中,边界框分支的输出结果,用于下一帧目标的框定,掩膜分支的输出结果用于定位当前帧目标位置;
计算边界框分支的回归损失函数Lbox、分数分支的分类损失函数Lscore和掩膜分支的掩模损失函数Lmask;
计算孪生网络的总体损失函数。
优选的,所述基于ResNet-50深度卷积网络提取深度特征信息包括:输入256维的特征图,使用1×1卷积层,将256维的特征转变为64维的特征图;经过ReLU非线性激活后,使用3×3卷积层提取目标特征图;使用ReLU非线性激活,并使用1×1卷积层将目标特征图的维度转为256;将输出的特征图与输入的特征图进行加法操作。
优选的,所述将特征金字塔网络的P3、P4、P5的特征图输入自适应空间融合进行特征融合包括:将P3、P4、P5的特征图进行拼接,将拼接后的特征图分为第一分支和第二分支,基于第一分支的特征图得到注意力分支;第二个分支的特征图直接和注意力分支按位相乘;合并第一分支和第二分支,并将第一分支和第二分支合并后的特征图,进行分组和求和操作,得到特征金字塔网络的输出特征图。
优选的,采用公式(1)计算边界框分支的回归损失函数Lbox:
其中,smooth L1为:
式中,x为归一化后的距离,i为每组归一化距离的序号;
采用公式(2)计算分数分支的分类损失函数Lscore:
Lscore=-log(pn) (2)
其中,pn表示第n个RoW的置信度分数。
采用公式(3)计算掩膜分支的掩模损失函数Lmask:
其中,n为RoWs的序号,yn为RoW的标签,yn∈{±1},yn=+1表示正标签,yn=-1表示负标签,w,h为第n个RoW真实掩模cn的宽度和高度。为在第n个RoW中,目标的真实掩模在(i,j)像素位置处的正、负标签。为在第n个RoW中,目标的预测掩模在(i,j)像素位置处的正、负标签;
优选的,采用公式(4)计算孪生网络的总体损失函数:
L=λ1Lbox+λ2Lscore+λ3Lmask (4)
其中,λ1,λ2,λ3分别为三个分支损失函数的权值。
相对于现有技术,本发明的有益技术效果在于:
(1)本发明针对FPN各个层级特征图,使用ASF自适应空间融合,同时,使用高斯非局部注意力机制,对ASF特征图进行特征增强。从而可以在融合后的特征图中,突出目标区域特征,抑制非目标、背景特征,进而使得深度神经网络的多尺度目标检测能力更为高效。
(2)本发明提出在ASF特征图中,滑动一组具有不同尺度和比率的锚点,与只使用单一比率的ASF相比,可以得到更高精度的检测结果。
(3)本发明在丰富了ROI区域特征的同时,引入了通道注意力机制,重复挖掘了待检测目标深度特征,有效提升目标检测精度。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为自适应特征融合的智能变电站人体目标跟踪算法流程图;
图2为ResNet-50一个构建块的算法流程图;
图3为自适应空间融合ASF算法流程图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。
本实施例的自适应特征融合的智能变电站人体目标跟踪方法首先获取智能变电站现场的人体目标图像。对获取的训练数据,进行手工标定,从而形成深度学习算法的训练数据集。构造自适应特征融合的智能变电站人体目标跟踪神经网络框架。如图1所示,首先,将原始图像送入ResNet-50深度卷积网络,提取目标的深度特征信息。ResNet-50从低到高的卷积结果记为C1(图中未示出),C2,C3,C4,C5。对于C3、C4、C5没有使用池化,保证深度特征图具有较高分辨率,进而保证目标跟踪精度。然后,自上而下构造FPN融合特征,每个层级具有不同的语义信息右FPN层从低到高记为P1(图中未示出),P2(图中未示出),P3(图中未示出),P4,P5。将P3、P4、P5三个层级的参考特征图,分别送入多比率锚点和特征增强的ASF(Adaptive Spatial Fusion,自适应空间融合),使得特征融合更加高效。使用高斯非局部注意力机制实现特征增强,突出了目标特征,抑制了非目标、背景特征,从而增强了ASF特征图的特征信息,提升跟踪性能。在ASF特征图上使用了多比率锚点,进一步提升跟踪精度。此外,还对ASF特征图的不同通道特征进行拼接,训练得到通道注意力模型,实现针对特定目标更加精准的检测。经过端到端的训练,可以得到专注于变电站人体目标的高质量跟踪模型,有效提升目标跟踪精度。
示例性的,首先获取智能变电站现场的工作人员图像,例如,10000张以上的图像。图像满足包含有不同尺度、不同背景环境的人体目标,光线应包含晴天、阴天、下雨等多种类型,从而丰富训练样本所蕴含的特征信息,有效提升目标跟踪深度学习模型的精度和鲁棒性。
对获取的训练数据,进行手工标定。在手工标注的过程中,并保证标签的正确性,以及标定框的准确性,从而形成深度学习算法的训练数据集。
构造自适应特征融合的目标跟踪深度学习网络,用于智能变电站人体目标跟踪。提出的算法可以对人体目标进行高精度、强鲁棒的跟踪。
基于ResNet-50提取深度特征图。ResNet-50的一个构建块的算法流程图如图2所示,首先输入256维的特征图,使用1×1卷积层,将特征转变为64维的。经过relu非线性激活后,使用3×3卷积层提取目标特征信息。在此使用relu非线性激活层,并再次使用1×1卷积层将特征维度转为256。将得到的特征图与输入的特征图进行加法操作,经过relu层后,输入到下一个构建块。
将ResNet-50的C3、C4、C5三个层级参考特征图,构造FPN融合特征图P3、P4、P5,丰富了低层级特征图所蕴含的语义信息。对于C3、C4、C5的特征图,没有使用池化操作,是为了保证目标跟踪精度。没有使用C1、C2层级,因为二者特征图分辨率较高,会降低目标跟踪速度,除此之外,二者的语义信息相对较弱。
将FPN的P3、P4、P5三个层级的参考特征图,分别送入ASF模块,算法流程图如图3所示。首先,将各层级特征图进行拼接。拼接后的特征图,一分支经过1×1、3×3卷积层,sigmoid激活层,重复层,得到各个通道特征图的注意力分数。另一个分支的拼接后的特征图,直接和第一分支的注意力分支,按位相乘。将这两个分支合并后的特征图,进行分组、求和,得到最终的ASF输出特征图。
将ASF输出特征图,使用高斯非局部注意力机制,用于增强ASF的输出特征信息。在简化网络参数的同时,抑制了非目标、以及背景区域,使得特征图中的目标区域更为显著,实现对人体目标的高质量跟踪。
将目标图像块z和搜索图像块x分别输入深度特征融合的共享主干网络f,可以得到两组参考特征图f(z)和f(x)。将二者进行深度互相关操作,表示为*,从而得到候选窗口响应RoWs,表示为g,公式如下所示:
g(z,x)=f(z)*f(x)
在RoWs中构建RPN网络,可以精确地定位目标所在区域。通过在增强的ASF输出特征图上,滑动一组不同比率和尺度的锚点,映射到原始图像中,可以得到不同比率、不同尺度的感兴趣区域ROIs。
将ROIs送入具有通道注意力机制的卷积层,进一步提取特征信息,且拼接后的每个ROI都包含多个通道的特征图。这样做可以丰富高层级的语义特征信息,并且实现了基于通道的注意力机制,提升跟踪精度。
将多通道拼接后的ROIs送入三个并联的分支:边界框分支、分类分支、掩膜分支,实现对于目标的框定、分类和掩膜表示。其中边界框分支的输出结果,用于下一帧目标的框定,掩膜分支的输出结果用于定位当前帧目标位置。
提出的神经网络有三个分支输出,每个分支有自己的损失函数,用于优化各分支的性能。分别使用Lbox,Lscore,Lmask表示边界框分支、分数分支和掩模分支的损失函数。Lbox使用smooth L1损失函数,smooth L1计算公式如下:
其中,x表示归一化后的距离。本文计算了归一化距离δ[0],δ[1],δ[2],δ[3],计算公式如下:
其中,Ax,Ay,Aw,Ah分别表示锚框中心位置的横坐标,纵坐标,锚框的宽度和高度,Tx,Ty,Tw,Th分别表示真实目标区域的中心点横坐标,纵坐标,真实区域的宽度和高度。将归一化后的距离δ[0],δ[1],δ[2],δ[3]分别代入smooth L1损失函数,i表示每组归一化距离的序号,得到边界框分支的回归损失函数Lbox,计算公式为:
分数分支的分类损失函数Lscore使用了对数损失函数,计算公式为:
Lscore=-log(pn)
其中,pn表示第n个RoW的置信度分数。
掩膜分支的掩模损失函数Lmask计算过程如下:n表示RoWs的序号,每个RoW都使用一个二进制真实标签yn∈{±1}进行标定,yn=+1表示正标签,yn=-1表示负标签。w,h表示第n个RoW真实掩模cn的宽度和高度。表示在第n个RoW中,目标的真实掩模在(i,j)像素位置处的正、负标签。表示在第n个RoW中,目标的预测掩模在(i,j)像素位置处的正、负标签。掩模损失函数Lmask计算了全部RoWs的对数损失,计算公式为:
由此可知,Lmask只计算了RoWs中的正样本,即yn=1的情况。
用L表示本文孪生网络的总体损失函数,L根据Lbox,Lscore,Lmask经过加权计算得到,计算公式如下:
L=λ1Lbox+λ2Lscore+λ3Lmask
其中,λ1,λ2,λ3分别为三个分支损失函数的权值,将权值设置为λ1=λ2=1,λ3=32。
以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的精神和范围。都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (5)
1.一种自适应特征融合的智能变电站人体目标跟踪方法,其特征在于,包括:
获取电站现场的人体目标图像,标定获取的人体目标图像,基于ResNet-50深度卷积网络提取特征图;
基于ResNet-50深度卷积网络的C3、C4、C5层级构造特征金字塔网络FPN的P3、P4、P5层级;
将特征金字塔网络FPN的P3、P4、P5层级的特征图输入自适应空间融合ASF进行特征融合;
采用注意力机制增强特征金字塔网络的输出特征图;
将目标图像块z和搜索图像块x分别输入自适应空间融合ASF的共享主干网络f,得到参考特征图f(z)和f(x);将参考特征图f(z)和f(x)进行深度互相关操作,得到候选窗口响应RoWs;
在增强特征金字塔网络的输出特征图上,滑动一组不同比率和不同尺度的锚点,映射到原始图像中得到不同比率和不同尺度的感兴趣区域ROIs;
拼接感兴趣区域ROIs,并将拼接后的ROIs输入三个并联的分支:边界框分支、分类分支和掩膜分支;其中,边界框分支的输出结果,用于下一帧目标的框定,掩膜分支的输出结果用于定位当前帧目标位置;
计算边界框分支的回归损失函数Lbox、分数分支的分类损失函数Lscore和掩膜分支的掩模损失函数Lmask;
计算孪生网络的总体损失函数。
2.根据权利要求1所述的自适应特征融合的智能变电站人体目标跟踪方法,其特征在于,所述基于ResNet-50深度卷积网络提取深度特征信息包括:输入256维的特征图,使用1×1卷积层,将256维的特征转变为64维的特征图;经过ReLU非线性激活后,使用3×3卷积层提取目标特征图;使用ReLU非线性激活,并使用1×1卷积层将目标特征图的维度转为256;将输出的特征图与输入的特征图进行加法操作。
3.根据权利要求2所述的自适应特征融合的智能变电站人体目标跟踪方法,其特征在于,所述将特征金字塔网络的P3、P4、P5的特征图输入自适应空间融合进行特征融合包括:将P3、P4、P5的特征图进行拼接,将拼接后的特征图分为第一分支和第二分支,基于第一分支的特征图得到注意力分支;第二个分支的特征图直接和注意力分支按位相乘;合并第一分支和第二分支,并将第一分支和第二分支合并后的特征图,进行分组和求和操作,得到特征金字塔网络的输出特征图。
4.根据权利要求1-3所述的自适应特征融合的智能变电站人体目标跟踪方法,其特征在于,
采用公式(1)计算边界框分支的回归损失函数Lbox:
其中,smooth L1为:
式中,x为归一化后的距离,i为每组归一化距离的序号;
采用公式(2)计算分数分支的分类损失函数Lscore:
Lscore=-log(pn) (2)
其中,pn表示第n个RoW的置信度分数。
采用公式(3)计算掩膜分支的掩模损失函数Lmask:
5.根据权利要求4所述的自适应特征融合的智能变电站人体目标跟踪方法,其特征在于,
采用公式(4)计算孪生网络的总体损失函数:
L=λ1Lbox+λ2Lscore+λ3Lmask (4)
其中,λ1,λ2,λ3分别为三个分支损失函数的权值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011637615.7A CN112669350A (zh) | 2020-12-31 | 2020-12-31 | 一种自适应特征融合的智能变电站人体目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011637615.7A CN112669350A (zh) | 2020-12-31 | 2020-12-31 | 一种自适应特征融合的智能变电站人体目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112669350A true CN112669350A (zh) | 2021-04-16 |
Family
ID=75413568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011637615.7A Pending CN112669350A (zh) | 2020-12-31 | 2020-12-31 | 一种自适应特征融合的智能变电站人体目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112669350A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113283475A (zh) * | 2021-04-27 | 2021-08-20 | 南方电网数字电网研究院有限公司 | 目标检测方法、装置、设备和存储介质 |
CN113420770A (zh) * | 2021-06-21 | 2021-09-21 | 梅卡曼德(北京)机器人科技有限公司 | 图像数据处理方法、装置、电子设备和存储介质 |
CN113591748A (zh) * | 2021-08-06 | 2021-11-02 | 广东电网有限责任公司 | 一种航拍绝缘子目标检测方法及装置 |
CN113627488A (zh) * | 2021-07-13 | 2021-11-09 | 武汉大学 | 基于孪生网络在线更新的单目标跟踪方法及装置 |
CN113807516A (zh) * | 2021-09-13 | 2021-12-17 | 长城计算机软件与系统有限公司 | 神经网络模型的训练方法及图像检索方法 |
CN113807185A (zh) * | 2021-08-18 | 2021-12-17 | 苏州涟漪信息科技有限公司 | 一种数据处理方法和装置 |
CN116071374A (zh) * | 2023-02-28 | 2023-05-05 | 华中科技大学 | 一种车道线实例分割方法及系统 |
CN116229052A (zh) * | 2023-05-09 | 2023-06-06 | 浩鲸云计算科技股份有限公司 | 一种基于孪生网络的变电站设备状态变化检测方法 |
CN116309590A (zh) * | 2023-05-22 | 2023-06-23 | 四川新迎顺信息技术股份有限公司 | 一种基于人工智能的视觉计算方法、系统、电子设备和介质 |
CN113807516B (zh) * | 2021-09-13 | 2024-05-14 | 新长城科技有限公司 | 神经网络模型的训练方法及图像检索方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111696137A (zh) * | 2020-06-09 | 2020-09-22 | 电子科技大学 | 一种基于多层特征混合与注意力机制的目标跟踪方法 |
CN111967480A (zh) * | 2020-09-07 | 2020-11-20 | 上海海事大学 | 基于权重共享的多尺度自注意力目标检测方法 |
-
2020
- 2020-12-31 CN CN202011637615.7A patent/CN112669350A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111696137A (zh) * | 2020-06-09 | 2020-09-22 | 电子科技大学 | 一种基于多层特征混合与注意力机制的目标跟踪方法 |
CN111967480A (zh) * | 2020-09-07 | 2020-11-20 | 上海海事大学 | 基于权重共享的多尺度自注意力目标检测方法 |
Non-Patent Citations (6)
Title |
---|
CHAOXU GUO ET AL: "AugFPN: Improving Multi-scale Feature Learning for Object Detectio", 《ARXIV.ORG》, 11 December 2019 (2019-12-11), pages 1 - 5 * |
QIANG WANG ET AL: "Fast Online Object Tracking and Segmentation: A Unifying Approach", 《CVPR2019》 * |
QIANG WANG ET AL: "Fast Online Object Tracking and Segmentation: A Unifying Approach", 《CVPR2019》, 9 January 2020 (2020-01-09), pages 1328 - 1338 * |
SHAOQING REN ET AL: "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
SHAOQING REN ET AL: "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》, vol. 39, no. 6, 30 June 2017 (2017-06-30), pages 1139, XP055705510, DOI: 10.1109/TPAMI.2016.2577031 * |
杨贞: "《图像特征处理技术及应用》", 科学技术文献出版社, pages: 119 - 122 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113283475A (zh) * | 2021-04-27 | 2021-08-20 | 南方电网数字电网研究院有限公司 | 目标检测方法、装置、设备和存储介质 |
CN113420770A (zh) * | 2021-06-21 | 2021-09-21 | 梅卡曼德(北京)机器人科技有限公司 | 图像数据处理方法、装置、电子设备和存储介质 |
CN113627488B (zh) * | 2021-07-13 | 2023-07-21 | 武汉大学 | 基于孪生网络在线更新的单目标跟踪方法及装置 |
CN113627488A (zh) * | 2021-07-13 | 2021-11-09 | 武汉大学 | 基于孪生网络在线更新的单目标跟踪方法及装置 |
CN113591748A (zh) * | 2021-08-06 | 2021-11-02 | 广东电网有限责任公司 | 一种航拍绝缘子目标检测方法及装置 |
CN113807185A (zh) * | 2021-08-18 | 2021-12-17 | 苏州涟漪信息科技有限公司 | 一种数据处理方法和装置 |
CN113807185B (zh) * | 2021-08-18 | 2024-02-27 | 苏州涟漪信息科技有限公司 | 一种数据处理方法和装置 |
CN113807516A (zh) * | 2021-09-13 | 2021-12-17 | 长城计算机软件与系统有限公司 | 神经网络模型的训练方法及图像检索方法 |
CN113807516B (zh) * | 2021-09-13 | 2024-05-14 | 新长城科技有限公司 | 神经网络模型的训练方法及图像检索方法 |
CN116071374A (zh) * | 2023-02-28 | 2023-05-05 | 华中科技大学 | 一种车道线实例分割方法及系统 |
CN116071374B (zh) * | 2023-02-28 | 2023-09-12 | 华中科技大学 | 一种车道线实例分割方法及系统 |
CN116229052A (zh) * | 2023-05-09 | 2023-06-06 | 浩鲸云计算科技股份有限公司 | 一种基于孪生网络的变电站设备状态变化检测方法 |
CN116309590A (zh) * | 2023-05-22 | 2023-06-23 | 四川新迎顺信息技术股份有限公司 | 一种基于人工智能的视觉计算方法、系统、电子设备和介质 |
CN116309590B (zh) * | 2023-05-22 | 2023-08-04 | 四川新迎顺信息技术股份有限公司 | 一种基于人工智能的视觉计算方法、系统、电子设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112669350A (zh) | 一种自适应特征融合的智能变电站人体目标跟踪方法 | |
CN111797716B (zh) | 一种基于Siamese网络的单目标跟踪方法 | |
CN110675418B (zh) | 一种基于ds证据理论的目标轨迹优化方法 | |
CN107016357B (zh) | 一种基于时间域卷积神经网络的视频行人检测方法 | |
CN111209810A (zh) | 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构 | |
CN108830171B (zh) | 一种基于深度学习的智能物流仓库引导线视觉检测方法 | |
CN113052876B (zh) | 一种基于深度学习的视频接力跟踪方法及系统 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN110781964A (zh) | 一种基于视频图像的人体目标检测方法及系统 | |
CN112232199A (zh) | 基于深度学习的佩戴口罩检测方法 | |
CN113344932B (zh) | 一种半监督的单目标视频分割方法 | |
CN113554125A (zh) | 结合全局与局部特征的目标检测装置、方法和存储介质 | |
CN110246141A (zh) | 一种基于联合角点池化的复杂交通场景下车辆图像分割方法 | |
CN110827262B (zh) | 一种基于连续有限帧红外图像的弱小目标检测方法 | |
CN112633220A (zh) | 一种基于双向序列化建模的人体姿态估计方法 | |
CN112288776A (zh) | 一种基于多时间步金字塔编解码器的目标跟踪方法 | |
CN111260687B (zh) | 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法 | |
CN116596966A (zh) | 一种基于注意力和特征融合的分割与跟踪方法 | |
CN115861756A (zh) | 基于级联组合网络的大地背景小目标识别方法 | |
Zhang et al. | Few-shot object detection with self-adaptive global similarity and two-way foreground stimulator in remote sensing images | |
CN110334703B (zh) | 一种昼夜图像中的船舶检测和识别方法 | |
CN115546668A (zh) | 海洋生物的检测方法、装置及无人机 | |
CN113269808B (zh) | 视频小目标跟踪方法和装置 | |
CN115661932A (zh) | 一种垂钓行为检测方法 | |
CN112069997B (zh) | 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210416 |