CN114842512B - 基于多特征协同和语义感知的遮挡行人重识别和检索方法 - Google Patents
基于多特征协同和语义感知的遮挡行人重识别和检索方法 Download PDFInfo
- Publication number
- CN114842512B CN114842512B CN202210763141.3A CN202210763141A CN114842512B CN 114842512 B CN114842512 B CN 114842512B CN 202210763141 A CN202210763141 A CN 202210763141A CN 114842512 B CN114842512 B CN 114842512B
- Authority
- CN
- China
- Prior art keywords
- feature
- local
- sample
- semantic
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Abstract
本发明公开了基于多特征协同和语义感知的遮挡行人重识别和检索方法,属于计算机视觉和模式识别技术领域,实现了对有遮挡的行人重识别数据集的高效识别和检索;方法的具体步骤如下:图像预处理;双链网络模型搭建;双链网络的目标函数构建;基于多特征协同和人体语义感知的有遮挡行人重识别和检索方法;本发明可对现有公开有遮挡的行人重识别数据集进行高效识别和检索,能够有效地解决目标数据集由于遮挡、姿态变化造成的行人信息缺失、特征对齐困难等问题,并且方法收敛速度快。
Description
技术领域
本发明属于计算机视觉和模式识别技术领域,具体涉及基于多特征协同和语义感知的遮挡行人重识别和检索方法。
背景技术
当前基于深度学习的行人重识别方法在Market-1501、DukeMTMC-reID等全身数据集上已经取得了较高的准确率;然而,在现实场景中难以获取理想的全身人物图像,人物图像被物品或其他行人遮挡的情况普遍存在。由于遮挡所造成的关键信息缺失为行人重识别带来极大的困难。现有的常规行人重识别网络难以在有遮挡的行人重识别数据集上取得良好的效果。
但是,现有处理有遮挡的行人重识别问题的方法存在着以下缺陷:采取单一路线进行特征提取,仅可以提取语义特征、纹理特征、骨骼关键点特征等信息,由于提取的特征所包含的信息有限,所以忽略了有价值的信息。现有技术只聚焦于解决遮挡的问题,行人重识别方向本身所面临的其他问题如行人姿态变化、视角变化等问题并没有得到有效解决,造成模型进行识别的准确率不高。当前行人重识别中人物遮挡部分的处理方式,主要采用将其特征不加处理直接使用或将其当作干扰项直接舍弃,处理方式简单粗暴,会造成无关噪声信息的引入和相关有用信息的丢失。
发明内容
本发明提供了基于多特征协同和语义感知的遮挡行人重识别和检索方法,能够有效地解决目标数据集由于遮挡、姿态变化造成的行人信息缺失、特征对齐困难等问题,具体包括以下步骤:
步骤1:对图片进行预处理,进行数据增强,将图片像素大小调整为256×128,并对图片随机采取随机裁剪、水平翻转和随机擦除,概率均为50%。
步骤2:构建双链网络模型并进行训练,链一采用基于HRNet的卷积神经网络,链二采用基于ViT-B/16的Transformer,所述Transformer为转换器。
步骤3:使用训练后的链一对于每张输入图像分别提取5个局部语义特征、1个前景语义特征与1个全局语义特征。
步骤4:通过训练后的链二将每张输入图像经过处理后得到4个局部特征组与1个全局特征。
步骤5:利用链一输出的局部可见性系数判断query集中的各个样本5个部分是否有个别缺失,若有缺失则选用gallery集中的相关样本进行补全得到补全后的局部特征;所述query集为查询集,所述gallery集为图库集。
步骤6:将链一补全后的局部语义特征与链二输出的4个局部特征组与1个全局特征经过批量归一化层处理后沿通道方向进行拼接,分别计算gallery集各个样本与query集各个样本的特征欧氏距离,通过gallery集中的样本按照与query集中样本距计算累计匹配特性与均值平均精度,实现对行人样本的重识别。
优选的,链一的训练的主要步骤为像素级部分分割与对齐,由一组置信图加权的像素级特征表示的集合表示人体部分,具体步骤如下:
步骤2-1:给定n张来自不同行人的训练图像及其身份标签,所述n大于等于1,通过学习人类语义解析,获得用于重识别的使用像素级的部分特征表示的部分对齐特征,对于图像,使用骨干网映射函数得到全局特征图,全局特征图为输入大小的1/4;
将每个置信度图与局部语义部分相关联,通过下式计算得到n个局部语义特征、1个前景语义特征和1个全局语义特征:
优选的,链二的训练过程如下:
步骤3-5:进行关键点-局部特征组相似度匹配。
部分相似度匹配层将关键点特征集合与局部特征组融合,计算每个关键点特征与局部特征组间的距离,选取相似度最高的部分进行整合,使得局部特征组包含相关的关键点特征信息:
优选的,所述链一训练过程中需要使用三元组损失和交叉熵损失函数约束通过最小化两种损失函数确定最优网络参数。
所述链二输出全局特征以及洗牌后的局部特征组后,也分别使用了交叉熵损失函数与三元组损失函数进行约束。
三元组损失公式如下:
交叉熵损失函数公式如下:
优选的,所述步骤5具体步骤如下:
步骤5-1:选取相关gallery样本。
步骤5-1-1:将链二输出的4个局部特征组与1个全局特征经过批量归一化层处理后沿通道方向进行拼接,分别计算query集与gallery集各个样本的特征欧氏距离dist1。
步骤5-2:将缺失部位特征补全。
优选的,所述n取值为4。
本发明的有益效果在于:本发明使用双链模型提取多种类别的行人特征,利用将多种特征进行融合的方式解决有遮挡的行人重识别问题,令模型提取的特征包含更丰富的信息用以更好地计算样本间的特征距离。在处理主要的遮挡问题的同时,也可以解决行人重识别所面临的姿态变化、视角变化等问题。并且在训练阶段,引入了“洗牌模块”,通过关键点-局部特征组相似度匹配,更加充分地利用了Transformer的全局依赖关系。在测试阶段,提出了“缺失部位特征补全检索方法”,将缺失部位的特征补全,改变了传统的舍弃遮挡部位特征的做法,进一步提升了模型在有遮挡的行人重识别任务中的性能。
样本经过模型训练,可以得到具有判别性的特征;并且通过结合姿态关键点信息,可以得到鲁棒的图像特征,模型收敛速度快,在多个有遮挡或无遮挡的行人重识别数据集上都能取得高效的识别性能。
附图说明
图1为本发明的结构示意图。
图2为相关gallery样本选取步骤示意图。
图3为缺失部位特征补全步骤示意图。
图中:query表示查询集,gallery表示图库集,HRNet表示高分辨率网络,FC表示全连接层,Transformer为转换器。
具体实施方式
下面结合附图对本发明作进一步的描述。
实施例:
如图1所示,为本发明的一种基于多特征协同和人体语义感知的有遮挡行人重识别和检索方法的操作流程图,该方法的操作步骤包括步骤1-6:
步骤1:对图片进行预处理,由于有遮挡的行人重识别数据集的query集中遮挡问题普遍存在,为了使模型对遮挡问题有较强的鲁棒性,在训练集图像输入网络之前使用数据增强的方式。
输入原图像大小调整为256×128,全局特征图为输入大小的1/4。在数据增加方面,采用了常用的随机裁剪、水平翻转和随机擦除,概率为50%。
步骤2:构建双链网络模型,并进行训练,在第1步样本对生成的基础上,设计模型结构。选择基于双链深度学习网络的原因是双链网络可以对同一图像提取相辅相成的两种特征,使获得的特征信息更加丰富,能够将任何神经网络当作双链网络的基础网络。在本发明中采用的两条链分别为基于HRNet的卷积神经网络和基于ViT-B/16的Transformer。
步骤3:使用训练后的链一对于每张输入图像分别提取5个局部语义特征、1个前景语义特征与1个全局语义特征;具体的链一训练过程如下:
首先,链一通过像素聚类的方式将图像特征进行分割,每张图片生成5个人体部分特征并沿通道方向拼接。在链一的训练的主要步骤为像素级部分分割与对齐。像素级部分分割与对齐的主要思想是用属于该部分的像素表示来表示人体部分,由一组置信图加权的像素级特征表示的集合来表示人体部分。具体做法如下:
将5个不同局部语义部分的置信度图,,,,相加得到1个前景的置信度图,其中每个置信图与局部语义部分相关联。用表示属于语义部分k的像素的置信度图。然后,通过以下方式可计算得到5个部分语义特征、1个前景语义特征和一个全局语义特征:
式中, 表示属于语义部分k的像素 的置信度,表示是逐元素相乘,表示全局平均池化操作,表示第部分的语义特征。对于被遮挡人图像中的被遮挡
部分,。链一最终输出的局部语义特征记为,且,其中意为沿通道方向拼接,为全景语义特征,为全局语义特征。
步骤4通过训练后的链二将每张输入图像经过处理后得到4个局部特征与1个全局特征;具体的,链二的训练过程如下:
链二为基于ViT-B/16的Transformer,给定一个图像,其中,,分别表示其高度、宽度和通道数,将其分成大小固定的。
一个可学习[cls]嵌入令牌被预先添加到补丁嵌入,该补丁嵌入经过处理得到一
个中间特征,该特征的[cls]令牌被表示为链二输出的全局特征。使用添加可学习的位置
嵌入的方式向序列中引入空间信息,馈入层的Transformer层的输入序列可以表示为:
式中,表示输入序列嵌入,是位置嵌入, 是将面片映射到D维的线性投影,此外,层的变换层用于学习特征表示。基于CNN的方法的有限感受野问题得到了解决,因为所有变压器层都有一个全局感受野,也没有下采样操作,因此保留了详细信息。
在链二中,虽然基于Transformer强大的基线可以在行人重识别中获得令人印象深刻的性能,但它利用了来自整个图像的信息。然而,由于遮挡和不对齐等问题,可能只能对一个物体进行部分观察,所以需要学习细粒度的局部特性(如条纹特性)。经过层的Transformer层的处理,假设输入到最后一层的隐藏特征记为。为了学习细粒度的局部特征,一个简单的解决方案是分割按顺序将共享令牌串联起来,然后将个特征组送入共享Transformer层学习个局部特征。由于每个局部段只考虑连续补丁嵌入的一部分,所以不能充分利用变压器的全局依赖关系。为了解决上述问题,使用了洗牌模块,该模块将嵌入的patch进行洗牌,然后将它们重新组合成不同的部分,每个部分包含多个随机的整幅图像的patch嵌入。此外,在训练中引入额外的扰动也有助于提高行人重识别模型的鲁棒性。通过移位操作和洗牌操作对嵌入的patch进行洗牌,将序列打乱如下:
第二步:洗牌操作,通过组的patch shuffle操作对移位的patch进行进一步的洗牌。隐藏特征变为。经过洗牌操作后的局部特征组再经过一个标准的Transformer层处理后得到最终的Transformer局部特征组。
利用姿态估计辅助模块获取姿势引导特征,估计器从输入图像中提取16个地
标,然后利用地标生成热图,每个热图都被缩小到的大
小。每个热图的最大响应点对应于一个关键点,设置一个阈值过滤高置信度地标和低置
信度地标。热图标签可以表示为:
进行关键点-局部特征组相似度匹配,在链二中,将16个关键点特征归类于n个局部特征组中(一般将n设为4),并对局部特征组进行关键位置加强,增强网络对于关键点部位的关注度。部分相似度匹配层将关键点特征集合与局部特征组融合,计算每个关键点特征与局部特征组间的距离,选取相似度最高的部分进行整合,使得局部特征组包含相关的关键点特征信息:
步骤5利用链一输出的局部可见性系数判断query集中的各个样本5个部分是否有个别缺失,若有缺失则选用gallery中的相关样本进行补全得到补全后的局部特征。
具体的,首先,选取相关gallery样本:
将链二输出的4个局部特征组与1个全局特征经过批量归一化层处理后沿通道方向进行拼接,分别计算query集与gallery各个样本的特征欧氏距离dist1。
将缺失部位特征补全:
通过“缺失部位特征补全检索方法”的操作,query样本的局部语义特征中原本可见的部分被保留了下来,原本缺失的部分则被候选局部语义特征补全。
步骤6将链一补全后的局部语义特征与链二输出的4个局部特征组与1个全局特征经过批量归一化层处理后沿通道方向进行拼接,分别计算gallery集与query集各个样本的特征欧氏距离,通过gallery集合中的样本按照与query集合中样本距计算累计匹配特性与均值平均精度,最终实现对行人样本的重识别。
双链网络解决了有遮挡的行人重识别场景中的遮挡问题;行人重识别问题被视为一个度量问题,同一人物的不同图像特征间的距离应比不同人物的图像特征间的距离小。由于本发明使用了双链结构,每条链最终输出的特征具有差异性,因此为每条链各自设置了损失函数。对于链一而言,输出为全局语义特征、前景语义特征、局部语义特征以及以上特征分别通过分类器的预测结果。对于链二而言,输出为全局特征与局部特征组沿通道方向拼接而成的融合特征,以及各个全局特征与局部特征组分别通过分类器的预测结果。
在该网络的目标函数中,三元组损失使得同类样本的距离更小,不同类样本的距离更大,这样使得所学特征具有更好的鲁棒性,三元组损失公式如下:
另外,交叉熵损失函数作为分类损失使得所学特征具有更好的区分性,分类损失公式如下:
将这两种损失函数同时嵌入到链一网络上,共同指导该网络参数的学习和优化,并通过最小化这两种损失函数,从而确定最优的网络参数;对于链二,输出特征为全局特征以及洗牌后的局部特征,也分别使用了交叉熵损失函数与三元组损失函数。
Claims (2)
1.基于多特征协同和语义感知的遮挡行人重识别和检索方法,其特征在于,包括以下步骤:
步骤1:对图片进行预处理,进行数据增强,将图片像素大小调整为256×128,并对图片随机采取随机裁剪、水平翻转和随机擦除,概率均为50%;
步骤2:构建双链网络模型,并进行训练,链一采用基于HRNet的卷积神经网络,链二采用基于ViT-B/16的Transformer;
链一的训练的主要步骤为像素级部分分割与对齐,由一组置信图加权的像素级特征表示的集合表示人体部分,具体步骤如下:
步骤2-1:给定n张来自不同行人的训练图像及其身份标签,所述n大于等
于1,通过学习人类语义解析,获得用于重识别的使用像素级的部分特征表示的部分特征,
对于图像,使用骨干网映射函数得到全局特征图,全局特征图为输入大小的1/4;
将每个置信度图与局部语义部分相关联,通过下式计算得到n个局部语义特征、1个前景语义特征和1个全局语义特征:
链二的训练过程如下:
步骤3-5:进行关键点-局部特征组相似度匹配;
部分相似度匹配层将关键点特征集合与局部特征组融合,计算每个关键点特征与局部特征组间的距离,选取相似度最高的部分进行整合,使得局部特征组包含相关的关键点特征信息:
步骤3:使用训练后的链一对于每张输入图像分别提取5个局部语义特征、1个前景语义特征与1个全局语义特征;
步骤4:通过训练后的链二将每张输入图像经过处理后得到4个局部特征组与1个全局特征;
步骤5:利用链一输出的局部可见性系数判断query集中的各个样本5个部分是否有个别缺失,若有缺失则选用gallery中的相关样本进行补全得到补全后的局部特征;
具体步骤如下:
步骤5-1:选取相关gallery样本:
步骤5-1-1:将链二输出的4个局部特征组与1个全局特征经过批量归一化层处理后沿通道方向进行拼接,分别计算query集中各个样本与gallery集中各个样本的特征欧氏距离dist1;
步骤5-2:将缺失部位特征补全:
步骤6:将链一补全后的局部语义特征与链二输出的4个局部特征组与1个全局特征经过批量归一化层处理后沿通道方向进行拼接,分别计算gallery集各个样本与query集各个样本的特征欧氏距离,通过gallery集合中的样本按照与query集合中样本距计算累计匹配特性与均值平均精度,最终实现对行人样本的重识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210763141.3A CN114842512B (zh) | 2022-07-01 | 2022-07-01 | 基于多特征协同和语义感知的遮挡行人重识别和检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210763141.3A CN114842512B (zh) | 2022-07-01 | 2022-07-01 | 基于多特征协同和语义感知的遮挡行人重识别和检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114842512A CN114842512A (zh) | 2022-08-02 |
CN114842512B true CN114842512B (zh) | 2022-10-14 |
Family
ID=82573821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210763141.3A Active CN114842512B (zh) | 2022-07-01 | 2022-07-01 | 基于多特征协同和语义感知的遮挡行人重识别和检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114842512B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116052218B (zh) * | 2023-02-13 | 2023-07-18 | 中国矿业大学 | 一种行人重识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110555060A (zh) * | 2019-09-09 | 2019-12-10 | 山东省计算中心(国家超级计算济南中心) | 基于成对样本匹配的迁移学习方法 |
CN111783753A (zh) * | 2020-09-04 | 2020-10-16 | 中国科学院自动化研究所 | 基于语义一致水平条和前景修正的行人重识别方法 |
CN111797813A (zh) * | 2020-07-21 | 2020-10-20 | 天津理工大学 | 基于可见感知纹理语义对齐的部分行人重识别方法 |
CN114155554A (zh) * | 2021-12-02 | 2022-03-08 | 东南大学 | 一种基于Transformer的相机域适应行人重识别方法 |
-
2022
- 2022-07-01 CN CN202210763141.3A patent/CN114842512B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110555060A (zh) * | 2019-09-09 | 2019-12-10 | 山东省计算中心(国家超级计算济南中心) | 基于成对样本匹配的迁移学习方法 |
CN111797813A (zh) * | 2020-07-21 | 2020-10-20 | 天津理工大学 | 基于可见感知纹理语义对齐的部分行人重识别方法 |
CN111783753A (zh) * | 2020-09-04 | 2020-10-16 | 中国科学院自动化研究所 | 基于语义一致水平条和前景修正的行人重识别方法 |
CN114155554A (zh) * | 2021-12-02 | 2022-03-08 | 东南大学 | 一种基于Transformer的相机域适应行人重识别方法 |
Non-Patent Citations (3)
Title |
---|
AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE;Alexey Dosovitskiy,et al;《https://arxiv.org/abs/2010.11929》;20210603;全文 * |
Deep High-Resolution Representation Learning for Human Pose Estimation;Ke Sun,et al;《https://arXiv.org/abs/1902.09212》;20190225;全文 * |
基于关键信息感知的通用行人重识别算法研究;高立帅;《中国优秀硕士学位论文全文数据库》;20210815;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114842512A (zh) | 2022-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107832672B (zh) | 一种利用姿态信息设计多损失函数的行人重识别方法 | |
CN112101150B (zh) | 一种基于朝向约束的多特征融合行人重识别方法 | |
Marin et al. | Random forests of local experts for pedestrian detection | |
Kong et al. | General road detection from a single image | |
CN113408492B (zh) | 一种基于全局-局部特征动态对齐的行人重识别方法 | |
CN107239730B (zh) | 智能汽车交通标志识别的四元数深度神经网络模型方法 | |
US10445602B2 (en) | Apparatus and method for recognizing traffic signs | |
CN110633632A (zh) | 一种基于循环指导的弱监督联合目标检测和语义分割方法 | |
CN112818862A (zh) | 基于多源线索与混合注意力的人脸篡改检测方法与系统 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
Wang et al. | Traffic sign detection using a cascade method with fast feature extraction and saliency test | |
CN112132004A (zh) | 一种基于多视角特征融合的细粒度图像识别方法 | |
Alvarez et al. | Road geometry classification by adaptive shape models | |
CN103679142A (zh) | 一种基于空间约束的目标人体识别方法 | |
CN109740572A (zh) | 一种基于局部彩色纹理特征的人脸活体检测方法 | |
CN113435319B (zh) | 一种联合多目标跟踪和行人角度识别的分类方法 | |
CN111582178A (zh) | 基于多方位信息和多分支神经网络车辆重识别方法及系统 | |
CN114842512B (zh) | 基于多特征协同和语义感知的遮挡行人重识别和检索方法 | |
Barodi et al. | An enhanced artificial intelligence-based approach applied to vehicular traffic signs detection and road safety enhancement | |
CN111274964A (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
CN109255052B (zh) | 一种基于多特征的三阶段车辆检索方法 | |
CN116912184B (zh) | 一种基于篡改区域分离和区域约束损失的弱监督深度修复图像篡改定位方法及系统 | |
CN116311345A (zh) | 一种基于Transformer的遮挡行人重识别方法 | |
Niazi et al. | Hybrid face detection in color images | |
Zhang et al. | Pedestrian detection in binocular stereo sequence based on appearance consistency |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |