CN116052025A - 一种基于孪生网络的无人机视频图像小目标跟踪方法 - Google Patents
一种基于孪生网络的无人机视频图像小目标跟踪方法 Download PDFInfo
- Publication number
- CN116052025A CN116052025A CN202310048920.XA CN202310048920A CN116052025A CN 116052025 A CN116052025 A CN 116052025A CN 202310048920 A CN202310048920 A CN 202310048920A CN 116052025 A CN116052025 A CN 116052025A
- Authority
- CN
- China
- Prior art keywords
- feature map
- feature
- target
- attention
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000004044 response Effects 0.000 claims abstract description 16
- 238000010586 diagram Methods 0.000 claims abstract description 15
- 238000005286 illumination Methods 0.000 claims abstract description 10
- 238000011176 pooling Methods 0.000 claims description 38
- 238000012545 processing Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 239000013598 vector Substances 0.000 claims description 2
- 230000005484 gravity Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 7
- 238000012800 visualization Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 241000283070 Equus zebra Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于孪生网络的无人机视频图像小目标跟踪方法,所述方法利用改进的VGG16网络对模板区域和搜索区域进行特征提取,得到模板区域和搜索区域特征图,提高特征的表达能力;将模板区域特征图依次经过通道注意力和空间注意力通道提高有效特征比重,得到加强后的模板区域特征图;将加强后的模板区域特征图和搜索区域特征图输入至RPN网络,在分类分支和回归分支分别进行卷积操作,获取目标的分类响应图得分和回归响应图得分;最后按照得分大小生成目标在下一帧中的位置信息,实现对目标跟踪。该发明可使目标特征表征能力更强,能够适应视频图像小目标存在姿态、光照变化和相似背景干扰情况,实现对无人机视频图像小目标的有效稳定跟踪。
Description
技术领域
本发明属于视觉目标跟踪技术领域,特别是一种基于孪生网络的无人机视频图像小目标跟踪方法。
技术背景
无人机在进行高空飞行时,采集到的视频图像中存在小目标,且目标易受背景和光照变化等干扰的情况。对于无人机拍摄到的小目标进行跟踪定位,采用传统手工特征进行跟踪效果并不理想,因为目标所占像素块较小,表层特征语义信息较少。基于深度学习的目标跟踪方法可以通过神经网络提取到更深层次的特征信息,推动了无人机视角下视频目标跟踪技术的发展。
随着深度学习技术的发展,卷积神经网络由于其较好的特征提取能力在目标跟踪领域得到了广泛地应用。Jie H等人提出一种SENet结构,将特征图按通道方向进行压缩,学习通道间的关系,对不同通道赋予不同权重参数,增强了特征图在通道方向上的关键信息。Liu JiangJiang等人提出SCNet网络,通过扩张卷积感受野增强输出特征的多样性,帮助卷积神经网络生成更具有判别性的特征表达,使网络生成的特征更丰富。Misra D等人提出一种TripletAttention结构,通过旋转操作和残差变化等建立特征不同维度之间的依存关系,强调了多维交互,不降低维度的重要性,在不增加模块复杂度的基础上对注意权重进行了重新分配。近年来,孪生全卷积网络由于其端到端的训练方式和跟踪实时性良好的特点备受关注。SiamFC采用两个完全相同的神经网络结构对输入模板和输出模板进行特征提取,分别输出对应的特征向量,通过设定的损失函数计算两个区域之间的相似度,相似度最大的地方即为目标所在位置。虽然SiamFC跟踪速度较快,但是对目标尺度变化问题效果较差。SiamRPN算法在此基础上引入了Faster R-CNN中的RPN网络进行标定框的回归,节省了SiamFC多尺度测试的损耗时间。虽然孪生跟踪网络通过模板分支与搜索分支进行相似对比确定目标位置,在一定程度上提高了算法跟踪速度和成功率,但是此类方法对无人机视角下的小目标跟踪效果并不好,这是由于当待跟踪小目标处于存在光照变化、相似目标干扰、形变等复杂场景时,由于目标较小,网络无法提取到充足的信息以实现目标跟踪任务。
发明内容
本发明的目的在于提供一种基于孪生网络的无人机视频图像小目标跟踪方法,该方法可以使目标特征表征能力更强,降低姿态光照变化和相似背景干扰,有效提高对无人机视频图像小目标的跟踪能力。
为实现上述目的,本发明采用以下技术方案:
一种基于孪生网络的无人机视频图像小目标跟踪方法,包括:
步骤一,选取包括光照变换、相似目标干扰和形变等复杂情况下的小目标视频图像,输入标记待跟踪目标的初始帧图像和下一帧图像;
步骤二,在初始帧图像中以待跟踪目标为中心截取127×127区域作为模板区域{xT};
步骤三,在下一帧图像中以模板区域{xT}为中心截取255×255区域作为搜索区域{xS};
步骤四,将{xT}、{xS}输入至改进的VGG16网络进行特征提取,分别生成模板区域特征图{FT}和搜索区域特征图{fS};
步骤五,对模板区域特征图{FT}进一步处理,分别经过通道注意力和空间注意力模块进行特征增强,得到增强后的模板区域特征图{fT};
步骤七,按照生成响应图上响应值的大小对位置预测值进行回归,生成待跟踪目标的位置信息PRO={(xPro,ypro,wpro,hpro)};
步骤八,判断是否为最后一帧,否,视频帧数加一,回到步骤二;是,确定出无人机视频图像待跟踪的小目标。
本发明具有以下优点:
1.本发明针对目标跟踪中浅层骨干网络提取特征较浅的问题,采用一种改进的VGG16网络作为孪生网络两条分支的骨干网络,利用更深层次的卷积网络对目标特征进行提取,提高了特征的表征能力。
2.本发明针对模板分支中特征权重分布问题,采用通道注意力和空间注意力对模板分支提取到的特征信息进行特征权重重分布,提高有效特征的比重,增强了特征提取效果。
附图表说明
图1为本发明框图。
图2为加入本发明方法与未加入本发明方法的热力图可视化效果对比。
图3为本发明方法与其他方法不同属性下跟踪成功率和精确度比较。
图4为复杂场景下本发明方法与其他方法的跟踪效果比较。
具体实施方式
结合所附图表,对本发明技术方案做具体说明。
如图1所示,本发明的一种基于孪生网络的无人机视频图像小目标跟踪方法,具体包括以下步骤:
步骤一,选取包括光照变换、相似目标干扰和形变等复杂情况下的小目标视频图像,输入标记待跟踪目标的初始帧图像和下一帧图像。
步骤二,在初始帧图像中以待跟踪目标为中心截取127×127区域作为模板区域{xT}。
步骤三,在下一帧图像中以模板区域{xT}为中心截取255×255区域作为搜索区域{xS}。
步骤四,为了使VGG16网络适用于小目标跟踪任务,对其网络结构进行改进,将网络结构分为4组卷积块,其中第一组卷积块包括Conv1_1、Conv1_2两个卷积层和最大池化层maxpool_1,第二组卷积块包括Conv2_1、Conv2_2两个卷积层和最大池化层maxpool_2,第三组卷积块包括Conv3_1、Conv3_2、Conv3_3三个卷积层和最大池化层maxpool_3,第四组卷积块包括Conv4_1、Conv4_2、Conv4_3三个卷积层。
步骤五,设置改进后的VGG16网络的卷积层参数,其中卷积核的大小均为3×3,卷积核的个数随着组数增加,分别为64、128、256、512,滑动步长为2,为了不破坏网络的平移不变性,取消对传统VGG16网络特征图的填充,即尺度填充为0,池化核大小均为2×2。
步骤六,将{xT}、{xS}输入至改进后的VGG16网络中,经过4组10个卷积层和3个最大池化层,分别生成模板区域特征图{FT}和搜索区域特征图{FS}。
步骤七,对模板区域特征图FT利用通道注意力模块进行特征增强,实现对特征图进行通道上的注意力重分配,得到经通道注意力处理后得到的特征图FT′,具体过程为:
(7.2)将获取到的两个特征图输入由两个卷积层和一个ReLU激活层构成的感知器模型中,聚合不同通道的特征信息;
(7.3)将聚合了通道信息的两个特征向量经过非线性映射生成通道注意力权重Mc(FT);
(7.4)将该权重Mc(FT)与输入特征图FT相乘,得到经通道注意力处理后得到的特征图FT′,其中,通道注意力权重Mc(FT)计算公式为:
步骤八,将特征图FT′利用空间注意力模块进行特征增强,得到空间注意力权重Ms(F′T),实现对特征进行空间通道上的注意力重分配,得到增强后的模板区域最终生成的特征图fT,具体过程为:
(8.2)将其利用Concat(·)操作对特征图在通道层面进行相加,随后利用3×3卷积核对通道特征图进行融合;
(8.3)将融合后的特征图经过sigmoid函数进行激活处理得到空间注意力权重Ms(FT′);
(8.4)将该权重Ms(FT′)与特征图FT′相乘,得到经空间注意力增强后的模板区域特征图{fT}。其中,空间注意力权重Ms(FT′)计算公式为:
式中,FT′表示经通道注意力处理后得到的特征图,σ(·)表示sigmoid函数,f3×3表示3×3的卷积核,Concat(·)表示特征连接方式,在通道层面对特征进行叠加,AvgPool(·)、MaxPool(·)分别表示平均池化操作和最大池化操作,分别表示空间注意力模块中提取的均值池化特征图和最大池化特征图。
其中,w、h表示响应图长和宽,k表示生成的锚框个数,*表示卷积运算。
步骤十三,判断是否为最后一帧,否,视频帧数加一,回到步骤二;是,确定出无人机视频图像待跟踪的小目标。
为了验证本发明的可行性和有效性,下面结合实例对本发明做进一步详细的描述。
本次验证在Intel(R)Core(TM)i5-9400F CPU@2.9GHZ、6GB内存、NVIDIA GeForceGTX 1660台式机上完成,通过Pycharm、CUDA9.0、CUDNN7.0实现,实验从本发明方法与未加入本发明方法的热力图可视化效果对比、本发明方法与其他方法跟踪性能比较和复杂场景下本发明方法的跟踪效果三个方面进行验证。
图2为加入本发明方法与未加入本发明方法的热力图可视化效果对比。每组对比的第一幅图像为输入原图,第二幅为图像经过卷积处理后的热力图可视化结果,第三幅为对卷积特征图二值化的结果。由图2中(a)可知,未加入本发明方法前,神经网络提取到的目标特征包含较多背景干扰信息,如斑马线、人行道等信息,由二值化图像可以看出,对待跟踪目标主体虽能进行定位,但是容易出现定位不精确等问题。图2中(b)为加入本发明方法的效果图,由图可知待跟踪目标区域特征增强效果明显,加强了特征的表达能力。由二值化图像可以看出改进后的算法对目标区域识别更加准确。因此,采用本发明方法可以对待跟踪目标区域进行特征增强操作,可以帮助卷积神经网络更好地定位目标所在位置,实现目标跟踪。
图3所示为本发明方法与其他方法在不同属性下跟踪成功率和精确度比较。由图可知,从跟踪精度曲线来看,在目标发生快速运动时,本发明跟踪精度高于SiamDWfc1.8%,在目标发生形变时,本发明精度高于SiamRPN 6.7%。在跟踪成功率曲线中,三种不同属性下,本发明与SiamRPN算法相比,跟踪成功率分别提升了2.7%、1.2%以及5.4%。由对比结果可知,本发明方法能够较好适应不同环境下的目标跟踪任务。良好的跟踪精确度保证了对目标位置的准确估计,较高的成功率保证了对目标位置的正确定位,能有效改善方法在跟踪过程中出现跟踪漂移的情况。
图4所示为复杂场景下本发明方法与其他方法的跟踪效果比较。其中,红色为本发明方法,蓝色为SiamRPN_Alex方法,绿色为SiamRPN_ResNet50方法。在图4中(a)、(d)中,bike1和group1视频序列中的车和行人发生较大姿态变化,其中bike1第269帧SiamRPN_ResNet50跟踪框出现了明显的偏移,本发明方法对模板帧对象特征进行了进一步提取,实现了对目标的准确定位,没有出现跟踪框漂移的情况;在图4中(b)中,boat4视频序列出现明显的光照变化,受光照变化干扰,在第367帧,SiamRPN_Alex与SiamRPN_ResNet50的跟踪结果均出现一定误差,对目标尺度估计出现偏差,而本发明方法能够较好实现光照变化下的目标跟踪;在图4中(c)和4中(d)中,car1和group1视频序列均存在与目标相似的干扰对象。如car1中,第1248帧时车辆位置附近出现相似目标,且存在一定遮挡,此时,SiamRPN_Alex与SiamRPN_ResNet50均将干扰目标包括在内;在group1中,在第2823帧,受旁边行人影响,SiamRPN_Alex与SiamRPN_ResNet50已经逐渐偏离目标位置;本发明方法采用注意力机制能够对待跟踪目标特征进行选择性加强,确保在进行相似度对比的过程中获取到目标的最大响应位置,实现较为精准的跟踪。
Claims (3)
1.一种基于孪生网络的无人机视频图像小目标跟踪方法,其特征在于,包括以下步骤:
步骤一,选取包括光照变换、相似目标干扰和形变等复杂情况下的小目标视频图像,输入标记待跟踪目标的初始帧图像和下一帧图像;
步骤二,在初始帧图像中以待跟踪目标为中心截取127×127区域作为模板区域{xT};
步骤三,在下一帧图像中,以模板区域{xT}为中心截取255×255区域作为搜索区域{xS};
步骤四,将{xT}、{xS}输入至改进的VGG16网络进行特征提取,分别生成模板区域特征图{FT}和搜索区域特征图{fS};
步骤五,对模板区域特征图{FT}进一步处理,分别经过通道注意力和空间注意力模块进行特征增强,得到增强后的模板区域特征图{fT};
步骤七,按照生成的响应图上响应值大小对位置预测值进行回归,生成待跟踪目标的位置信息PRO={(xpro,ypro,wpro,hpro)};
步骤八,判断是否为最后一帧,否,视频帧数加一,回到步骤二;是,确定出无人机视频图像待跟踪的小目标。
2.根据权利要求1所述的一种基于孪生网络的无人机视频图像小目标跟踪方法,其特征在于,所述步骤四将{xT}、{xS}输入至改进的VGG16网络进行特征提取,分别生成模板区域特征图{FT}和搜索区域特征图{fS},具体为:
(2.1)为了使VGG16网络适用于小目标跟踪任务,对其网络结构进行调整,将网络结构分为4组卷积块,其中第一组卷积块包括Conv1_1、Conv1_2两个卷积层和最大池化层maxpool_1,第二组卷积块包括Conv2_1、Conv2_2两个卷积层和最大池化层maxpool_2,第三组卷积块包括Conv3_1、Conv3_2、Conv3_3三个卷积层和最大池化层maxpool_3,第四组卷积块包括Conv4_1、Conv4_2、Conv4_3三个卷积层;
(2.2)设置改进后的VGG16网络的卷积层参数,其中卷积核的大小均为3×3,卷积核的个数随着组数增加,分别为64、128、256、512,滑动步长为2,为了不破坏网络的平移不变性,取消对传统VGG16网络特征图的填充,即尺度填充为0,池化核大小均为2×2;
(2.3)将{xT}、{xS}输入至改进后的VGG16网络中,经过4组10个卷积层和3个最大池化层,生成模板区域特征图{FT}和搜索区域特征图{fS}。
3.根据权利要求1所述的一种基于孪生网络的无人机视频图像小目标跟踪方法,其特征在于,所述步骤五中对模板区域特征图{FT}进一步处理,分别经过通道注意力和空间注意力模块进行特征增强,得到增强后的模板区域特征图{fT},具体为:
(3.1)对模板区域特征图FT利用通道注意力模块进行特征增强,实现对特征图进行通道上的注意力重分配,得到经通道注意力处理后得到的特征图FT′,具体过程为:
其次,将获取到的两个特征图输入由两个卷积层和一个ReLU激活层构成的感知器模型中,聚合不同通道的特征信息;
然后,将聚合了通道信息的两个特征向量经过非线性映射生成通道注意力权重Mc(FT);
最后,将该权重Mc(FT)与输入特征图FT相乘,得到经通道注意力处理后得到的特征图FT′,其中,通道注意力权重Mc(FT)可表示为:
(3.2)将特征图FT′利用空间注意力模块进行特征增强,得到空间注意力权重Ms(FT′),实现对特征图进行空间通道上的注意力重分配,得到增强后的模板区域特征图{fT},具体过程为:
其次,将其利用Concat(·)操作对特征图在通道层面进行相加,随后利用3×3卷积核对通道特征图进行融合;
然后,将融合后的特征图经过sigmoid函数进行激活处理得到空间注意力权重Ms(FT′);
最后,将该权重Ms(FT′)与特征图FT′相乘,得到经空间注意力增强后的模板区域特征图{fT},其中,空间注意力权重Ms(FT′)可表示为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310048920.XA CN116052025A (zh) | 2023-01-11 | 2023-01-11 | 一种基于孪生网络的无人机视频图像小目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310048920.XA CN116052025A (zh) | 2023-01-11 | 2023-01-11 | 一种基于孪生网络的无人机视频图像小目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116052025A true CN116052025A (zh) | 2023-05-02 |
Family
ID=86131016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310048920.XA Pending CN116052025A (zh) | 2023-01-11 | 2023-01-11 | 一种基于孪生网络的无人机视频图像小目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116052025A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116645399A (zh) * | 2023-07-19 | 2023-08-25 | 山东大学 | 基于注意力机制的残差网络目标跟踪方法及系统 |
CN117252904A (zh) * | 2023-11-15 | 2023-12-19 | 南昌工程学院 | 基于长程空间感知与通道增强的目标跟踪方法与系统 |
-
2023
- 2023-01-11 CN CN202310048920.XA patent/CN116052025A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116645399A (zh) * | 2023-07-19 | 2023-08-25 | 山东大学 | 基于注意力机制的残差网络目标跟踪方法及系统 |
CN116645399B (zh) * | 2023-07-19 | 2023-10-13 | 山东大学 | 基于注意力机制的残差网络目标跟踪方法及系统 |
CN117252904A (zh) * | 2023-11-15 | 2023-12-19 | 南昌工程学院 | 基于长程空间感知与通道增强的目标跟踪方法与系统 |
CN117252904B (zh) * | 2023-11-15 | 2024-02-09 | 南昌工程学院 | 基于长程空间感知与通道增强的目标跟踪方法与系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114782691B (zh) | 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备 | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN116052025A (zh) | 一种基于孪生网络的无人机视频图像小目标跟踪方法 | |
Zhang et al. | Vehicle color recognition using Multiple-Layer Feature Representations of lightweight convolutional neural network | |
CN111625667A (zh) | 一种基于复杂背景图像的三维模型跨域检索方法及系统 | |
CN109063724A (zh) | 一种增强型生成式对抗网络以及目标样本识别方法 | |
CN112489164B (zh) | 基于改进深度可分离卷积神经网络的图像着色方法 | |
CN109146944A (zh) | 一种基于深度可分卷积神经网络的视觉深度估计方法 | |
CN110991444A (zh) | 面向复杂场景的车牌识别方法及装置 | |
CN111414953A (zh) | 点云分类方法和装置 | |
CN113095371B (zh) | 一种面向三维重建的特征点匹配方法及系统 | |
CN111310609B (zh) | 基于时序信息和局部特征相似性的视频目标检测方法 | |
CN113610905B (zh) | 基于子图像匹配的深度学习遥感图像配准方法及应用 | |
CN110826411B (zh) | 一种基于无人机图像的车辆目标快速识别方法 | |
CN110458178A (zh) | 多模态多拼接的rgb-d显著性目标检测方法 | |
CN107358625B (zh) | 基于SPP Net和感兴趣区域检测的SAR图像变化检测方法 | |
CN105956581A (zh) | 一种快速的人脸特征点初始化方法 | |
CN117853596A (zh) | 无人机遥感测绘方法及系统 | |
CN116129280B (zh) | 一种遥感影像雪检测的方法 | |
CN117011648A (zh) | 一种基于单个真实样本的触觉图像数据集扩充方法及设备 | |
CN116993760A (zh) | 一种基于图卷积和注意力机制的手势分割方法、系统、设备及介质 | |
CN113920391B (zh) | 一种基于生成尺度自适应真值图的目标计数方法 | |
CN113688842B (zh) | 一种基于解耦合的局部图像特征提取方法 | |
CN115331021A (zh) | 基于多层特征自身差异融合的动态特征提取与描述方法 | |
CN115272153A (zh) | 一种基于特征稀疏区域检测的影像匹配增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |