CN113240709B - 基于对比学习的孪生网络目标跟踪方法 - Google Patents
基于对比学习的孪生网络目标跟踪方法 Download PDFInfo
- Publication number
- CN113240709B CN113240709B CN202110442621.5A CN202110442621A CN113240709B CN 113240709 B CN113240709 B CN 113240709B CN 202110442621 A CN202110442621 A CN 202110442621A CN 113240709 B CN113240709 B CN 113240709B
- Authority
- CN
- China
- Prior art keywords
- target
- image block
- search image
- target template
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于对比学习的孪生网络目标跟踪方法,其利用表征模块、相似度计算模块、对比监督模块来实现;本方法提取目标模板和搜索图像块的特征表示,进而计算目标模板与搜索图像块中所有候选样本之间的相似度。根据相似度值和真实目标的位置信息,最小化目标候选样本和其他候选样本之间的对比损失,通过反向传播调节网络参数。不同于现有的跟踪方法分配同一人为设定的标签给不同的背景样本和最小化候选样本与人为设定的标签之间的误差,本方法利用样本之间内在相似度关系,促使学习到的跟踪模型不但能够区分不同类别的实例,而且还能够区别同类别不相同的实例。
Description
技术领域
本发明涉及计算机视觉领域,尤其涉及基于对比学习的孪生网络目标跟踪方法。
背景技术
目标跟踪是计算机视觉领域中一个关键的课题,是视频分析系统中的重要组成部分。目标跟踪技术广泛应用于自动驾驶、公共安全、人机交互、交通控制、计算机辅助医疗等领域。这些应用的实际效果依赖于其所采用的目标跟踪技术。
根据数据集中仅给出的目标位置信息,现有的目标跟踪方法通过分配特定的标签给目标样本,同时分配同一标签给其余的背景样本,构建跟踪模型。例如,现有的跟踪方法把目标样本标记为正类、背景样本标记为负类,把目标跟踪问题建模成二分类问题;还有的跟踪方法设定一个高斯响应分布,把跟踪问题建模成回归问题,回归样本集到一个高斯响应分布,其中目标样本对应高斯响应的波峰。由此可以看出,在现有方法中,不同的背景样本共享同一标签。然而,在实际应用中,背景样本并不都是同类型的,某些背景样本不包含任何物体,某些背景样本可能是与目标相似的干扰物。由于非物体背景样本在背景样本中占比非常大,如果非物体背景样本和与目标相似的背景样本共享同一标签,会导致跟踪器拟合众多非物体背景样本,从而使得学习得到的跟踪器不能很好地区分目标和相似干扰物,影响了目标跟踪效果。在测试时,跟踪器容易混淆目标和与之相似的背景样本,造成跟踪失败。
发明内容
针对现有的计算机视觉目标跟踪方法中,其对非物体背景样本和与目标相似的背景样本共享同一标签影响目标跟踪效果的问题,本发明借助样本之间内在相似度关系,促使学习到的跟踪模型能够区分不同类别的实例,同时能够区分同类别不相同的实例。
为实现上述目的,本发明采取的技术方案为:
本发明公开了基于对比学习的孪生网络目标跟踪方法,其利用表征模块、相似度计算模块、对比监督模块来实现。
所述的表征模块,通过前向计算提取目标模板和搜索图像块的深度特征,目标模板和搜索图像块的深度特征用于目标模板和搜索图像块中候选样本相似度计算。表征模块通过修改的标准ResNet-50神经网络来实现,其对标准ResNet-50神经网络去掉平均池化层和全连接层,修改conv4_x和conv5_x中的步长为1,同时在最后增加一个卷积层以降低特征通道数,修改的标准ResNet-50神经网络由conv1、conv2_x、conv3_x、conv4_x、conv5_x和conv6串联而成。conv1包含1个[7×7,64]卷积层,[7×7,64]表示卷积层的卷积核的长和宽均为7,卷积层的通道数为64;conv2_x由一个池化层和3个拥有卷积层的block串联而成,conv2_x的block由1个[1×1,64]卷积层、1个[3×3,64]卷积层和1个[1×1,256]卷积层串联而成;conv3_x由4个block串联而成,conv3_x的block由1个[1×1,128]卷积层、1个[3×3,128]卷积层和1个[1×1,512]卷积层串联而成;conv4_x由6个block,1个[1×1,256]卷积层、1个[3×3,256]卷积层和1个[1×1,1024]卷积层串联而成;conv5_x由3个block,1个[1×1,512]卷积层、1个[3×3,512]卷积层和1个[1×1,2048]卷积层串联而成;conv6包含1个[1×1,256]卷积层。当输入目标模板和搜索图像块时,所述的修改的标准ResNet-50神经网络通过前向计算输入目标模板和搜索图像块的深度特征。
所述的相似度计算模块,利用目标模板和搜索图像块的深度特征,计算目标样本与搜索图像块中所有的候选样本之间的相似度,相似度的计算公式为:
R=X*S,
其中X是目标模板的深度特征,S是搜索图像块的深度特征,*为卷积操作,R是二维响应图,其中的每个值表示搜索图像块中对应位置候选样本与目标样本的相似度值。
所述的对比监督模块,根据相似度计算模块计算得到的相似度值和真实目标位置信息,计算损失函数,产生反馈信息,进而反向传播调节网络参数。对比监督模块利用目标候选样本之间的对比,约束目标候选样本与目标模板的相似度值最大,即使得取最大值,对表征模块的修改的标准ResNet-50神经网络参数进行调节,约束目标候选样本与目标模板的相似度值最大时对应的神经网络参数为最优参数,其中,r+∈R表示目标候选样本与目标模板的相似度值,表示第i个背景候选样本与目标模板的相似度值,τ是超参数。
该方法具体步骤包括:
在训练阶段,在同一视频序列不同帧图像中分别裁剪目标模板和搜索图像块,搜索图像块包含目标并且搜索图像块的尺寸大于目标模板的尺寸。
将目标模板和搜索图像块分别输入对应的表征模块,表征模块提取目标模板和搜索图像块的深度特征。利用两个表征模块分别对目标模板和搜索图像块进行深度特征提取,一个表征模块用来提取目标模板的深度特征,另一个表征模块用来提取搜索图像块的深度特征,这两个表征模块共享网络参数,从而构成孪生网络。
将目标模板和搜索图像块的深度特征输入到相似度计算模块,相似度计算模块计算目标模板和搜索图像块中所有的目标候选样本之间的相似度值。
将相似度计算模块计算得到的相似度值和搜索图像块中的真实目标位置信息输入到对比监督模块。对比监督模块选择对应真实目标位置信息的候选样本为目标候选样本,进而计算目标候选样本与其他候选样本之间的对比损失函数。以最小化对比损失函数为目标,计算梯度值,通过反向传播调节网络参数。
在推理阶段,以当前帧图像的上一帧图像的目标几何中心为中心,剪裁搜索图像块,根据第一帧图像中的目标位置裁剪目标模板。同时将目标模板和搜索图像块输入表征模块,表征模块产生相应的深度特征。将目标模板和搜索图像块的深度特征输入相似度计算模块。相似度计算模块分别计算目标模板和搜索图像块中的所有候选样本之间的相似度,相似度最大值对应的候选样本即为检测得到的目标,此候选样本所在的位置即为目标的所在位置。
本发明的有益效果为:
本发明不同于现有的跟踪方法人为地分配同一标签给不同的背景样本(如非物体背景样本、与目标相似的背景样本),本发明不强制分配标签给背景样本。同时,也不同于现有的跟踪方法计算候选样本的预测值和人为分配的标签之间的误差,本发明利用目标候选样本和其他候选样本之间的对比,限制约束目标候选样本应该获得最大的预测值。本方法借助样本之间内在相似度关系,如目标模板和与目标相似的背景样本之间的相似度大于目标和非物体背景之间的相似度、目标模板与目标样本之间的相似度大于目标和与目标相似的背景样本之间的相似度,促使学习到的跟踪模型不但能够区分不同类别的实例,而且还能够区别同类别不相同的实例。
附图说明
图1是本发明基于对比学习的孪生网络跟踪方法的结构示意图;
图2是本发明基于对比学习的孪生网络跟踪方法的流程图。
具体实施方式
以下结合附图和具体实施案例,对本发明做进一步的详细说明:
图1是本发明基于对比学习的孪生网络跟踪方法的结构示意图;
图2是本发明基于对比学习的孪生网络跟踪方法的流程图。
为了更好的了解本发明内容,这里给出一个实施例。
本发明公开了基于对比学习的孪生网络目标跟踪方法,其利用表征模块、相似度计算模块、对比监督模块来实现;
所述的表征模块,通过前向计算提取目标模板和搜索图像块的深度特征,目标模板和搜索图像块的深度特征用于目标模板和搜索图像块中候选样本相似度计算。表征模块通过修改的标准ResNet-50神经网络来实现,其对标准ResNet-50神经网络去掉平均池化层和全连接层,修改conv4_x和conv5_x中的步长为1,同时在最后增加一个卷积层以降低特征通道数,修改的标准ResNet-50神经网络由conv1、conv2_x、conv3_x、conv4_x、conv5_x和conv6串联而成。conv1包含1个[7×7,64]卷积层,[7×7,64]表示卷积层的卷积核的长和宽均为7,卷积层的通道数为64;conv2_x由一个池化层和3个拥有卷积层的block串联而成,conv2_x的block由1个[1×1,64]卷积层、1个[3×3,64]卷积层和1个[1×1,256]卷积层串联而成;conv3_x由4个block串联而成,conv3_x的block由1个[1×1,128]卷积层、1个[3×3,128]卷积层和1个[1×1,512]卷积层串联而成;conv4_x由6个block,1个[1×1,256]卷积层、1个[3×3,256]卷积层和1个[1×1,1024]卷积层串联而成;conv5_x由3个block,1个[1×1,512]卷积层、1个[3×3,512]卷积层和1个[1×1,2048]卷积层串联而成;conv6包含1个[1×1,256]卷积层。当输入目标模板和搜索图像块时,所述的修改的标准ResNet-50神经网络通过前向计算输入目标模板和搜索图像块的深度特征。
所述的相似度计算模块,利用目标模板和搜索图像块的深度特征,计算目标样本与搜索图像块中所有的候选样本之间的相似度,相似度的计算公式为:
R=X*S,
其中X是目标模板的深度特征,S是搜索图像块的深度特征,*为卷积操作,R是二维响应图,其中的每个值表示搜索图像块中对应位置候选样本与目标样本的相似度值。
所述的对比监督模块,根据相似度计算模块计算得到的相似度值和真实目标位置信息,计算损失函数,产生反馈信息,进而反向传播调节网络参数。在此过程中,不同于现有的跟踪方法人为地分配同一标签给搜索图像块中所有的背景样本并最小化标签与预测相似度之间的差,此模块不用人为设定背景候选样本的标签作为监督值。对比监督模块利用目标候选样本之间的对比,约束目标候选样本与目标模板的相似度值最大,即使得取最大值,对表征模块的修改的标准ResNet-50神经网络参数进行调节,约束目标候选样本与目标模板的相似度值最大时对应的神经网络参数为最优参数,其中,r+∈R表示目标候选样本与目标模板的相似度值,表示第i个背景候选样本与目标模板的相似度值,τ是超参数。
该方法具体步骤包括:
在训练阶段,在同一视频序列不同帧图像中分别裁剪目标模板和搜索图像块,搜索图像块包含目标并且搜索图像块的尺寸大于目标模板的尺寸。
将目标模板和搜索图像块分别输入对应的表征模块,表征模块提取目标模板和搜索图像块的深度特征。利用两个表征模块分别对目标模板和搜索图像块进行深度特征提取,一个表征模块用来提取目标模板的深度特征,另一个表征模块用来提取搜索图像块的深度特征,这两个表征模块共享网络参数,从而构成孪生网络。
将目标模板和搜索图像块的深度特征输入到相似度计算模块,相似度计算模块计算目标模板和搜索图像块中所有的目标候选样本之间的相似度值。
将相似度计算模块计算得到的相似度值和搜索图像块中的真实目标位置信息输入到对比监督模块。对比监督模块选择对应真实目标位置信息的候选样本为目标候选样本,进而计算目标候选样本与其他候选样本之间的对比损失函数。以最小化对比损失函数为目标,计算梯度值,通过反向传播调节网络参数。
在推理阶段,以当前帧图像的上一帧图像的目标几何中心为中心,剪裁搜索图像块,根据第一帧图像中的目标位置裁剪目标模板。同时将目标模板和搜索图像块输入表征模块,表征模块产生相应的深度特征。将目标模板和搜索图像块的深度特征输入相似度计算模块。相似度计算模块分别计算目标模板和搜索图像块中的所有候选样本之间的相似度,相似度最大值对应的候选样本即为检测得到的目标,此候选样本所在的位置即为目标的所在位置。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (2)
1.一种基于对比学习的孪生网络目标跟踪方法,其特征在于,其利用表征模块、相似度计算模块、对比监督模块来实现;
所述的表征模块,通过前向计算提取目标模板和搜索图像块的深度特征,目标模板和搜索图像块的深度特征用于目标模板和搜索图像块中候选样本相似度计算;表征模块通过修改的标准ResNet-50神经网络来实现,其对标准ResNet-50神经网络去掉平均池化层和全连接层,修改conv4_x和conv5_x中的步长为1,同时在最后增加一个卷积层以降低特征通道数,当输入目标模板和搜索图像块时,所述的修改的标准ResNet-50神经网络通过前向计算输入目标模板和搜索图像块的深度特征;
所述的相似度计算模块,利用目标模板和搜索图像块的深度特征,计算目标模板与搜索图像块中所有的候选样本之间的相似度,相似度的计算公式为:
R=X*S,
其中X是目标模板的深度特征,S是搜索图像块的深度特征,*为卷积操作,R是二维响应图,其中的每个值表示搜索图像块中对应位置候选样本与目标模板的相似度值;
所述的对比监督模块,根据相似度计算模块计算得到的相似度值和真实目标位置信息,计算损失函数,产生反馈信息,进而反向传播调节网络参数;对比监督模块利用候选样本与目标模板之间的对比,约束目标候选样本与目标模板的相似度值最大,即使得取最大值,对表征模块的修改的标准ResNet-50神经网络参数进行调节,约束目标候选样本与目标模板的相似度值最大时对应的神经网络参数为最优参数,其中,r+∈R表示目标候选样本与目标模板的相似度值,表示第i个背景候选样本与目标模板的相似度值,τ是超参数;
该方法具体步骤包括:
在训练阶段,在同一视频序列不同帧图像中均裁剪目标模板和搜索图像块,搜索图像块包含目标并且搜索图像块的尺寸大于目标模板的尺寸;
将目标模板和搜索图像块分别输入对应的表征模块,表征模块提取目标模板和搜索图像块的深度特征;
将目标模板和搜索图像块的深度特征输入到相似度计算模块,相似度计算模块计算目标模板和搜索图像块中所有的候选样本之间的相似度值;
将相似度计算模块计算得到的相似度值和搜索图像块中的真实目标位置信息输入到对比监督模块;对比监督模块选择对应真实目标位置信息的候选样本为目标候选样本,进而计算候选样本与目标模板之间的对比损失函数;以最小化对比损失函数为目标,计算梯度值,通过反向传播调节网络参数;
在推理阶段,以当前帧图像的上一帧图像的目标几何中心为中心,剪裁搜索图像块,根据第一帧图像中的目标位置裁剪目标模板;同时将目标模板和搜索图像块输入表征模块,表征模块产生相应的深度特征;将目标模板和搜索图像块的深度特征输入相似度计算模块;相似度计算模块分别计算目标模板和搜索图像块中的所有候选样本之间的相似度,相似度最大值对应的候选样本即为检测得到的目标,此候选样本所在的位置即为目标的所在位置;
利用两个表征模块分别对目标模板和搜索图像块进行深度特征提取,一个表征模块用来提取目标模板的深度特征,另一个表征模块用来提取搜索图像块的深度特征,这两个表征模块共享网络参数,从而构成孪生网络。
2.如权利要求1所述的基于对比学习的孪生网络目标跟踪方法,其特征在于,所述的修改的标准ResNet-50神经网络由conv1、conv2_x、conv3_x、conv4_x、conv5_x和conv6串联而成;conv1包含1个[7×7,64]卷积层,[7×7,64]表示卷积层的卷积核的长和宽均为7,卷积层的通道数为64;conv2_x由一个池化层和3个拥有卷积层的模块串联而成,conv2_x的模块由1个[1×1,64]卷积层、1个[3×3,64]卷积层和1个[1×1,256]卷积层串联而成;conv3_x由4个模块串联而成,conv3_x的模块由1个[1×1,128]卷积层、1个[3×3,128]卷积层和1个[1×1,512]卷积层串联而成;conv4_x由6个模块串联而成,conv4_x的模块由1个[1×1,256]卷积层、1个[3×3,256]卷积层和1个[1×1,1024]卷积层串联而成;conv5_x由3个模块串联而成,conv5_x的模块由1个[1×1,512]卷积层、1个[3×3,512]卷积层和1个[1×1,2048]卷积层串联而成;conv6包含1个[1×1,256]卷积层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110442621.5A CN113240709B (zh) | 2021-04-23 | 2021-04-23 | 基于对比学习的孪生网络目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110442621.5A CN113240709B (zh) | 2021-04-23 | 2021-04-23 | 基于对比学习的孪生网络目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113240709A CN113240709A (zh) | 2021-08-10 |
CN113240709B true CN113240709B (zh) | 2022-05-20 |
Family
ID=77128972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110442621.5A Active CN113240709B (zh) | 2021-04-23 | 2021-04-23 | 基于对比学习的孪生网络目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113240709B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108257158A (zh) * | 2018-03-27 | 2018-07-06 | 福州大学 | 一种基于循环神经网络的目标预测与跟踪方法 |
CN109446889A (zh) * | 2018-09-10 | 2019-03-08 | 北京飞搜科技有限公司 | 基于孪生匹配网络的物体追踪方法及装置 |
CN111179307A (zh) * | 2019-12-16 | 2020-05-19 | 浙江工业大学 | 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法 |
CN111915650A (zh) * | 2020-07-30 | 2020-11-10 | 齐鲁工业大学 | 基于改进孪生网络的目标跟踪方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533691B (zh) * | 2019-08-15 | 2021-10-22 | 合肥工业大学 | 基于多分类器的目标跟踪方法、设备和存储介质 |
US11288835B2 (en) * | 2019-09-20 | 2022-03-29 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Lighttrack: system and method for online top-down human pose tracking |
CN111640136B (zh) * | 2020-05-23 | 2022-02-25 | 西北工业大学 | 一种复杂环境中的深度目标跟踪方法 |
CN112560656B (zh) * | 2020-12-11 | 2024-04-02 | 成都东方天呈智能科技有限公司 | 一种联合注意力机制端到端训练的行人多目标跟踪方法 |
-
2021
- 2021-04-23 CN CN202110442621.5A patent/CN113240709B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108257158A (zh) * | 2018-03-27 | 2018-07-06 | 福州大学 | 一种基于循环神经网络的目标预测与跟踪方法 |
CN109446889A (zh) * | 2018-09-10 | 2019-03-08 | 北京飞搜科技有限公司 | 基于孪生匹配网络的物体追踪方法及装置 |
CN111179307A (zh) * | 2019-12-16 | 2020-05-19 | 浙江工业大学 | 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法 |
CN111915650A (zh) * | 2020-07-30 | 2020-11-10 | 齐鲁工业大学 | 基于改进孪生网络的目标跟踪方法及系统 |
Non-Patent Citations (3)
Title |
---|
"A Simple Framework for Contrastive Learning of Visual Representations";Ting Chen等;《arXiv:2002.05709v3》;20200701;全文 * |
"Fully-Convolutional Siamese Networks for Object Tracking";Bertinetto L.等;《Computer Vision-ECCV 2016 Workshops》;20161103;全文 * |
"基于孪生网络结构的目标跟踪算法综述";陈云芳等;《计算机工程与应用》;20200315;第56卷(第06期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113240709A (zh) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
CN113221905B (zh) | 基于均匀聚类的语义分割的无监督域适应方法、装置、系统和存储介质 | |
EP3690714A1 (en) | Method for acquiring sample images for inspecting label among auto-labeled images to be used for learning of neural network and sample image acquiring device using the same | |
CN110879959B (zh) | 生成数据集的方法及装置、利用其的测试方法及测试装置 | |
CN110910391B (zh) | 一种双模块神经网络结构视频对象分割方法 | |
CN111507993A (zh) | 一种基于生成对抗网络的图像分割方法、装置及存储介质 | |
CN109190707A (zh) | 一种基于对抗学习的域自适应图像语义分割方法 | |
CN112116593A (zh) | 一种基于基尼指数的领域自适应语义分割方法 | |
CN115731441A (zh) | 基于数据跨模态迁移学习的目标检测和姿态估计方法 | |
CN114692741A (zh) | 基于域不变特征的泛化人脸伪造检测方法 | |
CN114419323A (zh) | 基于跨模态学习与领域自适应rgbd图像语义分割方法 | |
CN116524307A (zh) | 一种基于扩散模型的自监督预训练方法 | |
CN113591978A (zh) | 一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法、设备及存储介质 | |
CN116433909A (zh) | 基于相似度加权多教师网络模型的半监督图像语义分割方法 | |
CN117456480B (zh) | 一种基于多源信息融合的轻量化车辆再辨识方法 | |
CN113240709B (zh) | 基于对比学习的孪生网络目标跟踪方法 | |
CN110647917B (zh) | 一种模型复用方法与系统 | |
CN116246147A (zh) | 基于跨层特征融合和线性注意力优化的跨物种目标检测方法 | |
EP4009245A1 (en) | Machine learning method and machine learning device for eliminating spurious correlation | |
CN116109649A (zh) | 一种基于语义错误修正的3d点云实例分割方法 | |
Li et al. | Robust lane detection through self pre-training with masked sequential autoencoders and fine-tuning with customized polyLoss | |
Cui et al. | Road Vehicle Detection Based on Deep Learning | |
CN116486203B (zh) | 一种基于孪生网络和在线模板更新的单目标跟踪方法 | |
CN111881828B (zh) | 一种面向移动端设备的障碍物检测方法 | |
Yang et al. | Lightweight lane marking detection CNNs by self soft label attention |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |