CN116935447B - 基于自适应师生结构的无监督域行人重识别方法及系统 - Google Patents
基于自适应师生结构的无监督域行人重识别方法及系统 Download PDFInfo
- Publication number
- CN116935447B CN116935447B CN202311208606.XA CN202311208606A CN116935447B CN 116935447 B CN116935447 B CN 116935447B CN 202311208606 A CN202311208606 A CN 202311208606A CN 116935447 B CN116935447 B CN 116935447B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- loss function
- network model
- recognition
- teacher
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000006870 function Effects 0.000 claims abstract description 145
- 239000013598 vector Substances 0.000 claims abstract description 111
- 238000012549 training Methods 0.000 claims abstract description 71
- 238000009826 distribution Methods 0.000 claims abstract description 59
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 44
- 238000004821 distillation Methods 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 20
- 238000013140 knowledge distillation Methods 0.000 claims description 19
- 238000004891 communication Methods 0.000 claims description 15
- 230000003044 adaptive effect Effects 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000005065 mining Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 7
- 239000003550 marker Substances 0.000 claims 1
- 238000004590 computer program Methods 0.000 description 16
- 238000003860 storage Methods 0.000 description 9
- 238000012216 screening Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自适应师生结构的无监督域行人重识别方法及系统,其方法包括:基于行人重识别数据集对深度卷积神经网络模型进行训练,获取行人重识别预训练网络模型;将增强后的图像输入至深度卷积神经网络模型中获取行人全局特征向量;基于聚类算法对行人全局特征向量进行聚类,并分配伪标签;基于概率分布差异性模型去除错误标记的特征向量;构建联合损失函数,并对行人重识别预训练网络模型进行训练和调整,获取行人重识别网络模型;将目标行人图像对应的分类结果与行人图像对应的分类结果进行比对,获取最终行人识别结果;因此可适应性筛选输入样本,局部的特征差异性学习,全局师生特征学习,进一步提高行人重识别的准确率。
Description
技术领域
本发明涉及图像识别领域,具体是涉及一种基于自适应师生结构的无监督域行人重识别方法及系统。
背景技术
行人重识别技术旨在匹配不重叠的多个摄像区域间的特定行人身份,即给定特定的监控行人图像,通过对其他摄像头下的行人图像进行检索,找出该行人在其他监控下的图像。由于其在行为分析、智能安防等场景下的高实用价值而受到了广泛的关注,同时随着深度学习的发展,许多带有人工标注信息的大规模数据集使得行人重识别准确率取得了显著的进步。但是由于现实条件下不同摄像头之间的光照、视角、分辨率之间存在差异,摄像头拍摄的图像存在遮挡问题,大量数据下的人工信息标注难等问题进一步限制了行人重识别领域的发展。目前,学者们提出了无监督域适应的行人重识别任务来解决现实场景下的数据采集和人工标注问题,通过将在有标注的源域上训练好的模型适应于无标注的目标域,以提升模型的鲁棒性。
针对上述任务,众多学者提出了许多不同的无监督域适应的行人重识别方法,现有技术中基于师生教学框架的协调训练网络取得了不错的效果,主要通过利用时间平均模型生成的教师网络提供可靠的伪标签监督信息,生成的监督信息能够随着模型的不断训练而进行更新。训练结束后,学生网络能够很好的捕获目标域分布,显著提高模型的泛化能力。该方法通过不断更新时间平均模型生成的教师网络,提高老师的教学水平,以便在训练过程中提供更可靠的指导。但是上述研究方案仍存在一定的缺陷:试图从一个单独的方面来挖掘知识蒸馏过程中的信息,如侧重于利用时间平均策略来提供一个更好的教师,或仅仅通过选择可靠的学习材料来训练学生;因此这些方法没有充分利用教师和学生、学生和学生之间的关联性,仅从单一视角出发,对人类的学习过程进行了模仿。
发明内容
本发明的目的是为了克服上述背景技术的不足,提供一种基于自适应师生结构的无监督域行人重识别方法及系统,能适应性筛选输入样本,局部的特征差异性学习,全局师生特征学习,进一步提高行人重识别的准确率。
第一方面,提供一种基于自适应师生结构的无监督域行人重识别方法,包括以下步骤:
基于行人重识别数据集对深度卷积神经网络模型进行训练,获取行人重识别预训练网络模型,构建交叉熵损失函数及三元损失函数;
对行人重识别数据集中的行人图像进行数据增强,并将增强后的图像输入至深度卷积神经网络模型中,获取行人全局特征向量;
基于聚类算法对行人全局特征向量进行聚类,并分配伪标签;
构建行人全局特征向量的概率分布差异性模型,基于所述概率分布差异性模型去除行人全局特征向量中错误标记的特征向量;
根据深度卷积神经网络模型与去除错误标记后的伪标签,并基于时间平均模型与知识蒸馏方法,获取局部差异性学习损失函数及全局特征管理蒸馏损失函数;
根据交叉熵损失函数、三元损失函数局部差异性学习损失函数及全局特征管理蒸馏损失函数,构建联合损失函数,并对行人重识别预训练网络模型进行训练和调整,获取行人重识别网络模型;
根据行人重识别网络模型,将目标行人图像对应的分类结果与行人重识别数据集中的行人图像对应的分类结果进行比对,获取最终行人识别结果。
根据第一方面,在第一方面的第一种可能的实现方式中,所述“基于行人重识别数据集对深度卷积神经网络模型进行训练,获取行人重识别预训练网络模型,构建交叉熵损失函数及三元损失函数”步骤,包括以下步骤:
基于带有标签数据的行人重识别数据集对在ImageNet数据集上预先训练好的深度卷积神经网络模型进行再训练,获取行人重识别预训练网络模型;
将行人重识别数据集中的行人图像按照预设条件进行选择并调整,获取模型输入图片;
通过深度卷积神经网络模型获取模型输入图片对应的分类结果;
结合带有标签数据的行人重识别数据集构建交叉熵损失函数及三元损失函数。
根据第一方面,在第一方面的第二种可能的实现方式中,所述“基于聚类算法对行人全局特征向量进行聚类,并分配伪标签”步骤,包括以下步骤:
基于Kmeans聚类算法对行人全局特征向量进行聚类,并按照聚类结果为行人全局特征向量中的每个特征向量分配伪标签。
根据第一方面,在第一方面的第三种可能的实现方式中,所述“构建行人全局特征向量的概率分布差异性模型,基于所述概率分布差异性模型去除行人全局特征向量中错误标记的特征向量”步骤,包括以下步骤:
根据行人全局特征向量中的每个特征向量构建外部分类器,并动态生成外部分类器的权重;
将每个特征向量输入到外部分类器后,得到每个特征向量的预测概率分布;
利用分布构建每个特征向量的理想概率分布,并采用KL散度算法计算理想概率分布与预测概率分布之间的差异性;利用得到的差异性曲线设定动态阈值、以去除聚类过程中产生的错误标记的特征向量。
根据第一方面,在第一方面的第四种可能的实现方式中,所述“根据深度卷积神经网络模型与去除错误标记后的伪标签,并基于时间平均模型与知识蒸馏方法,获取局部差异性学习损失函数及全局特征管理蒸馏损失函数”步骤,包括以下步骤:
基于时间平均模型生成深度卷积神经网络模型对应的教师网络模型,并提取教师网络模型的行人教师特征向量及深度卷积神经网络模型的行人学生特征向量;
将行人教师特征向量输入至softmax层中获取行人教师分类结果,比对行人教师分类结果与伪标签是否一致,获取行人教师分类结果掩码;
基于知识蒸馏方法,并根据行人教师分类结果掩码与深度卷积神经网络模型的行人学生特征向量,获取局部差异性学习损失函数;
构建教师网络模型的关系矩阵与深度卷积神经网络模型的关系矩阵,并获取全局特征管理蒸馏损失函数以减小两个关系矩阵之间的差异。
根据第一方面,在第一方面的第五种可能的实现方式中,所述“根据交叉熵损失函数、三元损失函数、局部差异性学习损失函数及全局特征管理蒸馏损失函数,构建联合损失函数,并对行人重识别预训练网络模型进行训练和调整,获取行人重识别网络模型”步骤,包括以下步骤:
根据交叉熵损失函数、三元损失函数、局部差异性学习损失函数及全局特征管理蒸馏损失函数,并按照预设权重分配参数加权构建联合损失函数;
根据联合损失函数对行人重识别预训练网络模型进行训练,并通过梯度反向传播对行人重识别预训练网络模型的参数进行调整,获取行人重识别网络模型。
根据第一方面的第一种可能的实现方式,在第一方面的第六种可能的实现方式中,所述“根据行人重识别网络模型,将目标行人图像对应的分类结果与行人重识别数据集中的行人图像对应的分类结果进行比对,获取最终行人识别结果”步骤,包括以下步骤:
将目标行人图像输入至进行训练和调整后的行人重识别网络模型,获取目标行人图像对应的分类结果;
将目标行人图像对应的分类结果与模型输入图片对应的分类结果进行比对;
当比对结果一致,则判断为相同的行人。
第二方面,提供一种基于自适应师生结构的无监督域行人重识别系统,包括:训练模块,用于将深度卷积神经网络模型在行人重识别数据集中进行训练,获取行人重识别预训练网络模型,构建交叉熵损失函数及三元损失函数;
特征向量模块,与所述训练模块通讯连接,用于对行人重识别数据集中的行人图像进行数据增强,并将增强后的图像输入至深度卷积神经网络模型中,获取行人全局特征向量;
伪标签分配模块,与所述特征向量模块通讯连接,用于基于聚类算法对行人全局特征向量进行聚类,并分配伪标签;
去除模块,与所述伪标签分配模块通讯连接,用于构建行人全局特征向量的概率分布差异性模型,基于所述概率分布差异性模型去除行人全局特征向量中错误标记的特征向量;
自适应师生结构挖掘模块,与所述去除模块及所述伪标签分配模块通信连接,用于根据深度卷积神经网络模型与去除错误标记后的伪标签,并基于时间平均模型与知识蒸馏方法,获取局部差异性学习损失函数及全局特征管理蒸馏损失函数;
联合损失函数模块,与所述训练模块及所述自适应师生结构挖掘模块,用于根据交叉熵损失函数、三元损失函数、局部差异性学习损失函数及全局特征管理蒸馏损失函数,构建联合损失函数,并对行人重识别预训练网络模型进行训练和调整,获取行人重识别网络模型;
比对结果模块,与所述联合损失函数模块及所述训练模块通信连接,用于根据获取行人重识别网络模型,将目标行人图像对应的分类结果与行人重识别数据集中的行人图像对应的分类结果进行比对,获取最终行人识别结果。
与现有技术相比,本发明采用基于知识蒸馏的方式训练师生网络,并通过提取全局特征向量,对师生结构信息进行挖掘;为了缓解聚类过程中伪标签噪声的影响,对概率分布差异性进行建模,利用差异模型去除错误标记的样本,消除错误样本带来的影响,;通过获取局部差异性学习损失函数,即对教师特征向量进行分类,让学生网络特征靠近教师网络特征中识别正确部分,远离识别错误部分特征,学生网络可以自我更新到一个准确的方向;同时构建全局特征管理蒸馏损失函数,即通过构建师生网络样本间的结构相似矩阵,并让两个矩阵相互进行逼近,在减小矩阵之间的特征差异,使得更多的结构性知识可以提炼出来,以提供令人信服的监督;最后将目标行人图像对应的分类结果与行人重识别数据集中的行人图像对应的分类结果进行比对,获取最终行人识别结果,因此,本发明提出了一种用于无监督域自适应行人重识别的基于自适应师生结构挖掘方法:基于概率分布差异性的样本筛选,局部差异性学习,全局特征蒸馏,进一步提高行人重识别的准确率。
附图说明
图1是本发明一实施例提供的一种基于自适应师生结构的无监督域行人重识别方法的流程示意图;
图2是本发明一实施例提供的一种基于自适应师生结构的无监督域行人重识别系统的结构示意图。
具体实施方式
现在将详细参照本发明的具体实施例,在附图中例示了本发明的例子。尽管将结合具体实施例描述本发明,但将理解,不是想要将本发明限于所述的实施例。相反,想要覆盖由所附权利要求限定的在本发明的精神和范围内包括的变更、修改和等价物。应注意,这里描述的方法步骤都可以由任何功能块或功能布置来实现,且任何功能块或功能布置可被实现为物理实体或逻辑实体、或者两者的组合。
为了使本领域技术人员更好地理解本发明,下面结合附图和具体实施方式对本发明作进一步详细说明。
注意:接下来要介绍的示例仅是一个具体的例子,而不作为限制本发明的实施例必须为如下具体的步骤、数值、条件、数据、顺序等等。本领域技术人员可以通过阅读本说明书来运用本发明的构思来构造本说明书中未提到的更多实施例。
参见图1所示,本发明实施例提供一种基于自适应师生结构的无监督域行人重识别方法,包括以下步骤:
S100,基于行人重识别数据集对深度卷积神经网络模型进行训练,获取行人重识别预训练网络模型,构建交叉熵损失函数及三元损失函数;
S200,对行人重识别数据集中的行人图像进行图像增强,并将增强后的图像输入至深度卷积神经网络模型中,获取行人全局特征向量;
S300,基于聚类算法对行人全局特征向量进行聚类,并分配伪标签;
S400,构建行人全局特征向量的概率分布差异性模型,基于所述概率分布差异性模型去除行人全局特征向量中错误标记的特征向量;
S500,根据深度卷积神经网络模型与去除错误标记后的伪标签,并基于时间平均模型与知识蒸馏方法,获取局部差异性学习损失函数及全局特征管理蒸馏损失函数;
S600,根据交叉熵损失函数、三元损失函数、局部差异性学习损失函数及全局特征管理蒸馏损失函数,构建联合损失函数,并对行人重识别预训练网络模型进行训练和调整,获取行人重识别网络模型;
S700,根据行人重识别网络模型,将目标行人图像对应的分类结果与行人重识别数据集中的行人图像对应的分类结果进行比对,获取最终行人识别结果。
具体的,本实施例中,行人重识别旨在从不同的图像集中进行人物检索,这些图像集可能被不同的相机捕获。在真实场景中,一个行人重识别模型可能会在两个统计分布不同的不同域(源/目标)上进行训练和测试;为了处理该场景中的域差距问题,提出了无监督域适应行人重新识别方法。无监督域自适应行人重识别的目标是训练一个基于带标注的源域数据的模型,实现对目标域的高精度识别。
师生框架又称知识蒸馏,已广泛应用于各种计算机视觉和机器学习任务中,如模型压缩、知识转移等。一般来说,师生框架的共同特征是将知识从一个网络即教师网络转移到另一个网络即学生网络中。不同之处在于它们之间转移的是什么。
自适应师生结构挖掘过程中有几个关键因素:(1)对概率分布差异性进行建模,利用差异模型去除错误标记的图像;(2)在蒸馏过程中有选择地模仿教师的行为;(3)分析师生全局的特征结构关系,系统地、有结构地学习。受这些因素的启发,从差异性指导的样本筛选(DGSS)、局部的差异性学习(LDL)、全局特征管理(GFA)三个不同但相关的方面对如何通过挖掘蒸馏过程中的师生结构信息来提高无监督领域适应性人再识别进行了探索,该方法称为适应性师生结构学习挖掘框架。
本发明采用基于知识蒸馏的方式训练师生网络,并通过提取全局特征向量,对人类学习过程进行模仿;并自适应进行图像增强,在整个训练过程中不断更新,通过发现错误的伪标签,减少其对于基于聚类的行人重识别的负面影响;通过获取局部差异性学习损失函数,即对教师特征向量进行分类,让学生网络特征靠近教师网络特征中识别正确部分,远离识别错误部分特征,学生网络可以自我更新到一个准确的方向;同时构建全局特征管理蒸馏损失函数,即通过构建师生网络样本间的结构相似矩阵,并让两个矩阵相互进行逼近,减小矩阵之间的特征差异,更多的结构性知识可以提炼出来,以提供令人信服的监督;最后将目标行人图像对应的分类结果与行人重识别数据集中的行人图像对应的分类结果进行比对,获取最终行人识别结果,因此,本发明提出通过差异性指导的样本筛选,局部的差异性学习,全局特征结构管理,进一步提高行人重识别的准确率。
优选地,在本申请另外的实施例中,所述“S100,基于行人重识别数据集对深度卷积神经网络模型进行训练,获取行人重识别预训练网络模型,构建交叉熵损失函数及三元损失函数”步骤,包括以下步骤:
S110,基于带有标签数据的行人重识别数据集对在ImageNet数据集上预先训练好的深度卷积神经网络模型进行再训练,获取行人重识别预训练网络模型;
S120,将行人重识别数据集中的行人图像按照预设条件进行选择并调整,获取模型输入图片;
S130,通过深度卷积神经网络模型获取模型输入图片对应的分类结果;
S140,结合带有标签数据的行人重识别数据集构建交叉熵损失函数及三元损失函数。
具体的,本实施例中,
S120,将行人重识别数据集中的batch图像,选取P个不同的行人身份,每个身份选取K张照片,并进行图像大小统一调整为256×128,方便后续作为模型输入;
S130,通过深度卷积神经网络模型获取模型输入图片对应的分类结果,表示为:/>,其中/>为特征分类器,/>为图片总类别数。
S140,为了更好的做到非同类极相似样本的区分,提高模型的分类准确率,构建交叉熵损失和三元损失函数,损失函数分别表示为:
其中./>表示L2范数距离,下标i,p和i,n表示样本图片/>在每个batch下的正、负样本特征,m = 0.5表示三元损失的域边距。
优选地,在本申请另外的实施例中,所述“S200,对行人重识别数据集中的行人图像进行图像增强,并将增强后的图像输入至深度卷积神经网络模型中,获取行人全局特征向量”步骤,包括以下步骤:
S210,将行人重识别数据集中的行人图像进行随机裁剪、翻转和擦除的数据增强。
S220,将增强后的行人图像进行数据增强后输入至深度卷积神经网络模型中,获取行人全局特征向量-每个行人图像的特征向量。
优选地,在本申请另外的实施例中,所述“S300,基于聚类算法对行人全局特征向量进行聚类,并分配伪标签”步骤,包括以下步骤:
基于Kmeans聚类算法对行人全局特征向量进行聚类,并按照聚类结果为行人全局特征向量中的每个特征向量分配伪标签。
具体的,本实施例中,采用Kmeans聚类算法,根据行人重识别数据集中的行人图像的身份数,设置K个聚类的中心数;对带标注信息的行人重识别数据集提取的特征向量进行聚类,按照聚类的结果给每张图片分配伪标签;将上述过程进行迭代,直至整个过程收敛,获得当前数据集中图片对应伪标签。
优选地,在本申请另外的实施例中,所述“S400,构建行人全局特征向量的概率分布差异性模型,基于所述概率分布差异性模型去除行人全局特征向量中错误标记的特征向量”步骤,包括以下步骤:
S410,根据行人全局特征向量中的每个特征向量构建外部分类器,并动态生成外部分类器的权重;
S420,将每个特征向量输入到外部分类器后,得到每个特征向量的预测概率分布;
S430,利用分布构建每个特征向量的理想概率分布/>,并采用KL散度算法计算理想概率分布与预测概率分布之间的差异性/>;利用得到的差异性曲线设定动态阈值、以去除聚类过程中产生的错误标记的特征向量。
具体的,本实施例中,为了缓解聚类过程中伪标签噪声的影响,构建行人全局特征向量的概率分布差异性模型,基于所述概率分布差异性模型去除行人全局特征向量中错误标记的的特征向量,进一步降低其对训练过程的影响。
S410,通过聚类为目标域中的每个无标签样本(每个特征向量)分配一个伪标签/>。对于由教师网络提供的样本/>对应的特征/>维度属于d维,即/>,并将样本对应的不同身份间的分类概率(外部分类器)表示如下:
其中表示温度参数,/>是设计的外部分类器的权重参数。
S430,对于理想概率分布,发现与大温度/>相关的平滑/>分布高度稳定,对特定数据集不敏感。因此,我们将平滑/>分布绘制为理想分布/>,表示如下:
其中j是身份的序号,是聚类的类别数,/>是超参数,并且值等于0.99。
对于估计预测概率和理想分布之间的概率距离,以测量样本的不确定性。通过利用Kullback-Leibler (KL)散度来度量不一致性,并建立了概率不确定性为:
其中当值超过设定阈值时,则表明聚类产生的分配给某个特征向量的伪标签更有可能是错误的,应该在训练阶段予以排除,因此可缓解聚类过程中伪标签噪声的影响。
需要说明的是,一般在对聚类后的样本进行除燥处理前会进行样本筛选处理,样本筛选的过程表示如下:
其中是样本(x,y)的概率不确定性,/>是当前样本预测概率的中位数。
优选地,在本申请另外的实施例中,所述“S500,根据深度卷积神经网络模型与去除错误标记后的伪标签,并基于时间平均模型与知识蒸馏方法,获取局部差异性学习损失函数及全局特征管理蒸馏损失函数”步骤,包括以下步骤:
S510,基于时间平均模型生成深度卷积神经网络模型(学生网络模型)对应的教师网络模型,并提取教师网络模型的行人教师特征向量及深度卷积神经网络模型的行人学生特征向量;
S520,将行人教师特征向量输入至softmax层中获取行人教师分类结果,比对行人教师分类结果与伪标签是否一致,获取行人教师分类结果掩码;若一致,则认为该特征对应图片分类正确,若不一致,则认为分类结果错误;
将教师网络的分类结果(正确/不正确),划分为与/>。
S530,基于知识蒸馏方法,并根据行人教师分类结果掩码与深度卷积神经网络模型的行人学生特征向量,获取局部差异性学习损失函数;
S540,构建教师网络模型的关系矩阵与深度卷积神经网络模型的关系矩阵,并获取全局特征管理蒸馏损失函数以减小两个关系矩阵之间的差异。
具体的,本实施例中,
S530,对教师网络和学生网络之间进行知识蒸馏,为了避免教师网络的错误认知对整个蒸馏过程的影响,按照教师网络分类的结果是否正确,使得学生网络和教师网络之间的特征向量分别进行逼近和远离,获取局部差异性学习损失函数表示如下:
;
其中代表均方差损失函数。
S540,对于同批中的所有样本,我们构造一个关系矩阵A∈RN×N ,其中N表示一个批次中的样本个数。由于有一个学生网络和一个教师网络,两者都可以用来计算一个关系矩阵,我们构造了两个关系矩阵,分别记为和一个/>;
关系矩阵A中的每个元素,例如,Ai,j,表示图像样本x之间的特征差异和/>,其公式如下:
;
Dis是度量函数,使用归一化的反欧式距离,
;
通过优化全局特征管理蒸馏损失函数来最小化两个关系矩阵/>、/>之间的差异,表示如下,
。
优选地,在本申请另外的实施例中,所述“S600,根据交叉熵损失函数、三元损失函数局部差异性学习损失函数及全局特征管理蒸馏损失函数,构建联合损失函数,并对行人重识别预训练网络模型进行训练和调整,获取行人重识别网络模型”步骤,包括以下步骤:
S610,根据交叉熵损失函数、三元损失函数局部差异性学习损失函数及全局特征管理蒸馏损失函数,并按照预设权重分配参数加权构建联合损失函数;
联合损失函数构建如下:
;
其中,、/>、/>、/>分别为权重参数,可分别设置为0.5、1.0、0.5、0.5。
S620,根据联合损失函数对行人重识别预训练网络模型进行训练,并通过梯度反向传播对行人重识别预训练网络模型的参数进行调整,获取行人重识别网络模型。
优选地,在本申请另外的实施例中,所述“S700,根据行人重识别网络模型,将目标行人图像对应的分类结果与行人重识别数据集中的行人图像对应的分类结果进行比对,获取最终行人识别结果”步骤,包括以下步骤:
将目标行人图像输入至进行训练和调整后的行人重识别网络模型,获取目标行人图像对应的分类结果;
将目标行人图像对应的分类结果与模型输入图片对应的分类结果进行比对;
当比对结果一致,则判断为相同的行人。
参见图2所示,本发明还提供了一种基于自适应师生结构的无监督域行人重识别系统,包括:训练模块、特征向量模块、伪标签分配模块、去除模块、自适应师生结构挖掘模块、联合损失函数模块、比对结果模块;
训练模块,用于将深度卷积神经网络模型在行人重识别数据集中进行训练,获取行人重识别预训练网络模型,构建交叉熵损失函数及三元损失函数;
特征向量模块,与所述训练模块通讯连接,用于对行人重识别数据集中的行人图像进行数据增强,并将增强后的图像输入至深度卷积神经网络模型中,获取行人全局特征向量;
伪标签分配模块,与所述特征向量模块通讯连接,用于基于聚类算法对行人全局特征向量进行聚类,并分配伪标签;
去除模块,与所述伪标签分配模块通讯连接,用于构建行人全局特征向量的概率分布差异性模型,基于所述概率分布差异性模型去除行人全局特征向量中错误标记的特征向量;
自适应师生结构挖掘模块,与所述伪标签分配模块及所述去除模块通信连接,用于根据深度卷积神经网络模型与去除错误标记后的伪标签,并基于时间平均模型与知识蒸馏方法,获取局部差异性学习损失函数及全局特征管理蒸馏损失函数;
联合损失函数模块,与所述训练模块及所述自适应师生结构挖掘模块,用于根据交叉熵损失函数、三元损失函数、局部差异性学习损失函数及全局特征管理蒸馏损失函数,构建联合损失函数,并对行人重识别预训练网络模型进行训练和调整,获取行人重识别网络模型;
比对结果模块,与所述联合损失函数模块及所述训练模块通信连接,用于根据获取行人重识别网络模型,将目标行人图像对应的分类结果与行人重识别数据集中的行人图像对应的分类结果进行比对,获取最终行人识别结果。
本发明采用基于知识蒸馏的方式训练师生网络,并通过提取全局特征向量,对蒸馏过程中的结构信息进行挖掘;并自适应进行图像筛选,在整个训练过程中不断更新,减少聚类过程中错误标签带来的影响,提高识别精度;通过获取局部差异性学习损失函数,即对教师特征向量进行分类,让学生网络特征靠近教师网络特征中识别正确部分,远离识别错误部分特征,学生网络可以自我更新到一个准确的方向,模仿现实场景中学生只对老师教授的正确知识进行学习,错误部分自行进行探索;同时构建全局特征管理蒸馏损失函数,即通过构建师生网络样本间的结构相似矩阵,并让两个矩阵相互进行逼近,减小矩阵之间的特征差异,在整体的知识蒸馏过程中可以提炼出更多的结构性知识,以提供令人信服的监督;最后将目标行人图像对应的分类结果与行人重识别数据集中的行人图像对应的分类结果进行比对,获取最终行人识别结果,因此,本发明基于概率差异适应性进行样本筛选,基于分类结果局部差异性进行蒸馏,基于样本自身结构全局性进行特征管理,进一步提高行人重识别的准确率。
具体的,本实施例与上述方法实施例一一对应,各个模块的功能在相应的方法实施例中已经进行详细说明,因此不再一一赘述。
基于同一发明构思,本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述方法的所有方法步骤或部分方法步骤。
本发明实现上述方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
基于同一发明构思,本申请实施例还提供一种电子设备,包括存储器和处理器,存储器上储存有在处理器上运行的计算机程序,处理器执行计算机程序时实现上述方法中的所有方法步骤或部分方法步骤。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,处理器是计算机装置的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
存储器可用于存储计算机程序和/或模块,处理器通过运行或执行存储在存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现计算机装置的各种功能。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(例如声音播放功能、图像播放功能等);存储数据区可存储根据手机的使用所创建的数据(例如音频数据、视频数据等)。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、服务器或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、服务器和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (7)
1.一种基于自适应师生结构的无监督域行人重识别方法,其特征在于,包括以下步骤:
基于行人重识别数据集对深度卷积神经网络模型进行训练,获取行人重识别预训练网络模型,构建交叉熵损失函数及三元损失函数;
对行人重识别数据集中的行人图像进行数据增强,并将增强后的图像输入至深度卷积神经网络模型中,获取行人全局特征向量;
基于聚类算法对行人全局特征向量进行聚类,并分配伪标签;
构建行人全局特征向量的概率分布差异性模型,基于所述概率分布差异性模型去除行人全局特征向量中错误标记的特征向量;
根据深度卷积神经网络模型与去除错误标记后的伪标签,并基于时间平均模型与知识蒸馏方法,获取局部差异性学习损失函数及全局特征管理蒸馏损失函数;
根据交叉熵损失函数、三元损失函数、局部差异性学习损失函数及全局特征管理蒸馏损失函数,构建联合损失函数,并对行人重识别预训练网络模型进行训练和调整,获取行人重识别网络模型;
根据行人重识别网络模型,将目标行人图像对应的分类结果与行人重识别数据集中的行人图像对应的分类结果进行比对,获取最终行人识别结果;
所述根据深度卷积神经网络模型与去除错误标记后的伪标签,并基于时间平均模型与知识蒸馏方法,获取局部差异性学习损失函数及全局特征管理蒸馏损失函数步骤,包括以下步骤:
基于时间平均模型生成深度卷积神经网络模型对应的教师网络模型,并提取教师网络模型的行人教师特征向量及深度卷积神经网络模型的行人学生特征向量;
将行人教师特征向量输入至softmax层中获取行人教师分类结果,比对行人教师分类结果与伪标签是否一致,获取行人教师分类结果掩码;
基于知识蒸馏方法,并根据行人教师分类结果掩码与深度卷积神经网络模型的行人学生特征向量,获取局部差异性学习损失函数;
构建教师网络模型的关系矩阵与深度卷积神经网络模型的关系矩阵,并获取全局特征管理蒸馏损失函数以减小两个关系矩阵之间的差异。
2.如权利要求1所述的基于自适应师生结构的无监督域行人重识别方法,其特征在于,所述基于行人重识别数据集对深度卷积神经网络模型进行训练,获取行人重识别预训练网络模型,构建交叉熵损失函数及三元损失函数步骤,包括以下步骤:
基于带有标签数据的行人重识别数据集对在ImageNet数据集上预先训练好的深度卷积神经网络模型进行再训练,获取行人重识别预训练网络模型;
将行人重识别数据集中的行人图像按照预设条件进行选择并调整,获取模型输入图片;
通过深度卷积神经网络模型获取模型输入图片对应的分类结果;
结合带有标签数据的行人重识别数据集构建交叉熵损失函数及三元损失函数。
3.如权利要求1所述的基于自适应师生结构的无监督域行人重识别方法,其特征在于,所述基于聚类算法对行人全局特征向量进行聚类,并分配伪标签步骤,包括以下步骤:
基于Kmeans聚类算法对行人全局特征向量进行聚类,并按照聚类结果为行人全局特征向量中的每个特征向量分配伪标签。
4.如权利要求1所述的基于自适应师生结构的无监督域行人重识别方法,其特征在于,所述构建行人全局特征向量的概率分布差异性模型,基于所述概率分布差异性模型去除行人全局特征向量中错误标记的特征向量步骤,包括以下步骤:
根据行人全局特征向量中的每个特征向量构建外部分类器,并动态生成外部分类器的权重;
将每个特征向量输入到外部分类器后,得到每个特征向量的预测概率分布;
利用分布构建每个特征向量的理想概率分布,并采用KL散度算法计算理想概率分布与预测概率分布之间的差异性;利用得到的差异性曲线设定动态阈值、以去除聚类过程中产生的错误标记的特征向量。
5.如权利要求1所述的基于自适应师生结构的无监督域行人重识别方法,其特征在于,所述根据交叉熵损失函数、三元损失函数、局部差异性学习损失函数及全局特征管理蒸馏损失函数,构建联合损失函数,并对行人重识别预训练网络模型进行训练和调整,获取行人重识别网络模型步骤,包括以下步骤:
根据交叉熵损失函数、三元损失函数、局部差异性学习损失函数及全局特征管理蒸馏损失函数,并按照预设权重分配参数加权构建联合损失函数;
根据联合损失函数对行人重识别预训练网络模型进行训练,并通过梯度反向传播对行人重识别预训练网络模型的参数进行调整,获取行人重识别网络模型。
6.如权利要求2所述的基于自适应师生结构的无监督域行人重识别方法,其特征在于,所述根据行人重识别网络模型,将目标行人图像对应的分类结果与行人重识别数据集中的行人图像对应的分类结果进行比对,获取最终行人识别结果步骤,包括以下步骤:
将目标行人图像输入至进行训练和调整后的行人重识别网络模型,获取目标行人图像对应的分类结果;
将目标行人图像对应的分类结果与模型输入图片对应的分类结果进行比对;
当比对结果一致,则判断为相同的行人。
7.一种基于自适应师生结构的无监督域行人重识别系统,其特征在于,包括:
训练模块,用于将深度卷积神经网络模型在行人重识别数据集中进行训练,获取行人重识别预训练网络模型,构建交叉熵损失函数及三元损失函数;
特征向量模块,与所述训练模块通讯连接,用于对行人重识别数据集中的行人图像进行数据增强,并将增强后的图像输入至深度卷积神经网络模型中,获取行人全局特征向量;
伪标签分配模块,与所述特征向量模块通讯连接,用于基于聚类算法对行人全局特征向量进行聚类,并分配伪标签;
去除模块,与所述伪标签分配模块通讯连接,用于构建行人全局特征向量的概率分布差异性模型,基于所述概率分布差异性模型去除行人全局特征向量中错误标记的特征向量;
自适应师生结构挖掘模块,与所述伪标签分配模块及所述去除模块通信连接,用于根据深度卷积神经网络模型与去除错误标记后的伪标签,并基于时间平均模型与知识蒸馏方法,获取局部差异性学习损失函数及全局特征管理蒸馏损失函数;
联合损失函数模块,与所述训练模块及所述自适应师生结构挖掘模块,用于根据交叉熵损失函数、三元损失函数、局部差异性学习损失函数及全局特征管理蒸馏损失函数,构建联合损失函数,并对行人重识别预训练网络模型进行训练和调整,获取行人重识别网络模型;
比对结果模块,与所述联合损失函数模块及所述训练模块通信连接,用于根据获取行人重识别网络模型,将目标行人图像对应的分类结果与行人重识别数据集中的行人图像对应的分类结果进行比对,获取最终行人识别结果;
所述自适应师生结构挖掘模块,用于基于时间平均模型生成深度卷积神经网络模型对应的教师网络模型,并提取教师网络模型的行人教师特征向量及深度卷积神经网络模型的行人学生特征向量;
将行人教师特征向量输入至softmax层中获取行人教师分类结果,比对行人教师分类结果与伪标签是否一致,获取行人教师分类结果掩码;
基于知识蒸馏方法,并根据行人教师分类结果掩码与深度卷积神经网络模型的行人学生特征向量,获取局部差异性学习损失函数;
构建教师网络模型的关系矩阵与深度卷积神经网络模型的关系矩阵,并获取全局特征管理蒸馏损失函数以减小两个关系矩阵之间的差异。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311208606.XA CN116935447B (zh) | 2023-09-19 | 2023-09-19 | 基于自适应师生结构的无监督域行人重识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311208606.XA CN116935447B (zh) | 2023-09-19 | 2023-09-19 | 基于自适应师生结构的无监督域行人重识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116935447A CN116935447A (zh) | 2023-10-24 |
CN116935447B true CN116935447B (zh) | 2023-12-26 |
Family
ID=88390932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311208606.XA Active CN116935447B (zh) | 2023-09-19 | 2023-09-19 | 基于自适应师生结构的无监督域行人重识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116935447B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117423132A (zh) * | 2023-10-26 | 2024-01-19 | 山东海润数聚科技有限公司 | 一种无监督行人重识别方法、设备及介质 |
CN117152669B (zh) * | 2023-10-30 | 2024-02-06 | 华中科技大学 | 一种跨模态时域视频定位方法及系统 |
CN117612214B (zh) * | 2024-01-23 | 2024-04-12 | 南京航空航天大学 | 一种基于知识蒸馏的行人搜索模型压缩方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830246A (zh) * | 2018-06-25 | 2018-11-16 | 中南大学 | 一种交通环境行人多维运动特征视觉提取方法 |
CN110321813A (zh) * | 2019-06-18 | 2019-10-11 | 南京信息工程大学 | 基于行人分割的跨域行人重识别方法 |
CN110807434A (zh) * | 2019-11-06 | 2020-02-18 | 威海若维信息科技有限公司 | 一种基于人体解析粗细粒度结合的行人重识别系统及方法 |
CN113378632A (zh) * | 2021-04-28 | 2021-09-10 | 南京大学 | 一种基于伪标签优化的无监督域适应行人重识别算法 |
CN114419672A (zh) * | 2022-01-19 | 2022-04-29 | 中山大学 | 基于一致性学习的跨场景持续学习的行人再识别方法及装置 |
WO2022126669A1 (zh) * | 2020-12-16 | 2022-06-23 | 中电海康集团有限公司 | 一种基于视频行人识别的地铁人流网络融合方法及人流预测方法 |
CN114882521A (zh) * | 2022-03-30 | 2022-08-09 | 河北工业大学 | 基于多分支网络的无监督行人重识别方法及装置 |
CN116229512A (zh) * | 2023-02-27 | 2023-06-06 | 华中科技大学 | 基于跨摄像头自蒸馏的行人重识别模型建立方法及其应用 |
EP4198820A1 (en) * | 2020-08-31 | 2023-06-21 | Huawei Technologies Co., Ltd. | Training method for semi-supervised learning model, image processing method, and device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111739076B (zh) * | 2020-06-15 | 2022-09-30 | 大连理工大学 | 面向多种ct肺部纹理识别的非监督保内容域适应方法 |
CN113221905B (zh) * | 2021-05-18 | 2022-05-17 | 浙江大学 | 基于均匀聚类的语义分割的无监督域适应方法、装置、系统和存储介质 |
-
2023
- 2023-09-19 CN CN202311208606.XA patent/CN116935447B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830246A (zh) * | 2018-06-25 | 2018-11-16 | 中南大学 | 一种交通环境行人多维运动特征视觉提取方法 |
CN110321813A (zh) * | 2019-06-18 | 2019-10-11 | 南京信息工程大学 | 基于行人分割的跨域行人重识别方法 |
CN110807434A (zh) * | 2019-11-06 | 2020-02-18 | 威海若维信息科技有限公司 | 一种基于人体解析粗细粒度结合的行人重识别系统及方法 |
EP4198820A1 (en) * | 2020-08-31 | 2023-06-21 | Huawei Technologies Co., Ltd. | Training method for semi-supervised learning model, image processing method, and device |
WO2022126669A1 (zh) * | 2020-12-16 | 2022-06-23 | 中电海康集团有限公司 | 一种基于视频行人识别的地铁人流网络融合方法及人流预测方法 |
CN113378632A (zh) * | 2021-04-28 | 2021-09-10 | 南京大学 | 一种基于伪标签优化的无监督域适应行人重识别算法 |
CN114419672A (zh) * | 2022-01-19 | 2022-04-29 | 中山大学 | 基于一致性学习的跨场景持续学习的行人再识别方法及装置 |
CN114882521A (zh) * | 2022-03-30 | 2022-08-09 | 河北工业大学 | 基于多分支网络的无监督行人重识别方法及装置 |
CN116229512A (zh) * | 2023-02-27 | 2023-06-06 | 华中科技大学 | 基于跨摄像头自蒸馏的行人重识别模型建立方法及其应用 |
Also Published As
Publication number | Publication date |
---|---|
CN116935447A (zh) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111709409B (zh) | 人脸活体检测方法、装置、设备及介质 | |
CN116935447B (zh) | 基于自适应师生结构的无监督域行人重识别方法及系统 | |
CN112069929B (zh) | 一种无监督行人重识别方法、装置、电子设备及存储介质 | |
CN108647583B (zh) | 一种基于多目标学习的人脸识别算法训练方法 | |
CN109558823B (zh) | 一种以图搜图的车辆识别方法及系统 | |
CN109978893A (zh) | 图像语义分割网络的训练方法、装置、设备及存储介质 | |
US10445602B2 (en) | Apparatus and method for recognizing traffic signs | |
CN111598182B (zh) | 训练神经网络及图像识别的方法、装置、设备及介质 | |
CN113076994B (zh) | 一种开集域自适应图像分类方法及系统 | |
CN110619059B (zh) | 一种基于迁移学习的建筑物标定方法 | |
CN105787466B (zh) | 一种车辆类型的精细识别方法及系统 | |
CN108960047B (zh) | 基于深度二次树的视频监控中人脸去重方法 | |
CN108491766B (zh) | 一种端到端的基于深度决策森林的人群计数方法 | |
WO2022218396A1 (zh) | 图像处理方法、装置和计算机可读存储介质 | |
CN112132014B (zh) | 基于非督导金字塔相似性学习的目标重识别方法及系统 | |
CN105117720A (zh) | 基于时空模型的目标尺度自适应跟踪方法 | |
CN114998220B (zh) | 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法 | |
CN115641613A (zh) | 一种基于聚类和多尺度学习的无监督跨域行人重识别方法 | |
WO2021243947A1 (zh) | 对象再识别方法及装置、终端和存储介质 | |
CN110852358A (zh) | 一种基于深度学习的车辆类型判别方法 | |
CN111291705B (zh) | 一种跨多目标域行人重识别方法 | |
CN113065409A (zh) | 一种基于摄像分头布差异对齐约束的无监督行人重识别方法 | |
TW202226054A (zh) | 物件辨識裝置及物件辨識方法 | |
CN115527083B (zh) | 图像标注方法、装置和电子设备 | |
Zhao et al. | Cross-modal knowledge distillation for fine-grained one-shot classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |