CN114330554A - 一种面向智能安防的视觉深度模型知识重组方法 - Google Patents
一种面向智能安防的视觉深度模型知识重组方法 Download PDFInfo
- Publication number
- CN114330554A CN114330554A CN202111639661.5A CN202111639661A CN114330554A CN 114330554 A CN114330554 A CN 114330554A CN 202111639661 A CN202111639661 A CN 202111639661A CN 114330554 A CN114330554 A CN 114330554A
- Authority
- CN
- China
- Prior art keywords
- model
- target
- knowledge
- training
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000000007 visual effect Effects 0.000 title claims abstract description 17
- 238000005215 recombination Methods 0.000 title claims 3
- 230000006798 recombination Effects 0.000 title claims 3
- 230000008521 reorganization Effects 0.000 claims abstract description 51
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 238000002372 labelling Methods 0.000 claims abstract description 5
- 238000005070 sampling Methods 0.000 claims abstract description 3
- 238000005259 measurement Methods 0.000 claims abstract 3
- 238000012549 training Methods 0.000 claims description 54
- 230000008569 process Effects 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 6
- 238000013136 deep learning model Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims 1
- 238000012512 characterization method Methods 0.000 claims 1
- 238000013507 mapping Methods 0.000 claims 1
- 238000004821 distillation Methods 0.000 abstract description 3
- 230000005012 migration Effects 0.000 abstract description 2
- 238000013508 migration Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013140 knowledge distillation Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
一种面向智能安防的视觉深度模型知识重组方法,首先,收集安防边缘测的视觉数据,明确模型任务,收集数据进行标注,训练目标任务模型。然后,利用归因图计算目标模型和不同预训练模型之间的可迁移分数,将归一化的可迁移分数作为模型选择的概率,可放回地采样形成模型集合;在联邦学习范式的基础上,将目标模型分发到不同的节点,利用表征蒸馏迁移预训练模型的特征提取能力,在目标模型学习和迁移完成后,通过平均的方式在中心节点进行知识重组,重组过后的模型再次分发到选择的模型节点进一步迭代。最后,再利用目标数据集进行微调目标模型,从而学习得到一个在智能安防领域的目标任务上表现良好的视觉深度模型,并且保护了数据隐私和模型隐私。
Description
技术领域
本发明属于智能安防和联邦学习领域,涉及一种面向智能安防的视觉深度模型知识重组方法。
背景技术
智能安防是一种涉及人脸识别,大数据分析以及视频结构化等多种技术的领域。随着深度学习等技术的快速发展,智能安防产品的功能也越发多元化,安防技术在交通、社区等多种场景下成功应用落地。
然而深度学习技术的成功依赖于两大因素,一是大量的标注数据,二是实际深度学习模型复用形式的发展:使用他人预先训练好的、经过公开验证的网络模型,从而大大减少网络训练的工作量。在智能安防领域,大量的标注数据需要大量的人力成本,因而质量优秀的标注数据是稀缺的;而日益发展的模型共享形式也面临着一个问题:良好性能的网络需要耗费巨大的资源,即使训练该网络的研究人员或机构有意向公开该模型,但由于隐私保护、安全或知识产权等问题,他们无法向公众分享他们的模型。现有的模型重用方法,如知识蒸馏、迁移学习和领域自适应,通常需要预训练模型才能进行使用,因此在这种情况下是无法解决该问题的。
发明内容
为了解决上述问题,本发明提供一种面向智能安防的视觉深度模型知识重组方法。其目的是在几个分散的教师模型的帮助下训练一个学生模型。这个学生模型关注于安防领域的具体目标任务,如深度估计,行人重识别。为了确保模型信息在训练的过程中不被泄露,预训练模型的细节(包括预训练的任务和数据)始终保持私有,其他训练参与者不能获得任何有关信息。这样的问题设置给联邦模型重用带来了巨大的挑战,因为很难为目标任务找到有用的教师模型。同时,不同的教师模型的训练领域是不同的,学生模型的训练必须考虑平衡来自不同教师的知识汇总。
为此,本发明提出了一种面向智能安防的视觉深度模型知识重组技术来解决此类问题。该方法通过利用私密的教师模型的预训练知识来定制一个学生模型。本发明不是通过模仿教师模型来训练学生模型,而是通过基于特征的训练模式,从教师模型处过滤和吸收有用的知识。特征分析在网络可解释性的文献中被广泛使用,也被用来揭示网络的可迁移性。基于特征分析,本发明提出了一种自适应训练模式。在不直接访问私有教师模型的情况下选择有用的教师模型。具体而言就是:本发明使用目标任务的标记数据训练学生模型,同时计算学生模型和私密的教师模型之间的表征相似度来进行知识选择。并根据相似度增加选择的概率,所选择的教师模型通过本地节点内部的表征蒸馏将知识迁移给学生模型,并通过平均的方式进行知识重组,然后再根据目标任务数据进行微调。
本发明考虑智能安防领域模型训练的实际场景,有限的标注数据使得直接训练一个泛化性能良好的模型是极其困难的。本发明在预训练模型及其训练数据不可直接获取的条件下,借鉴于现有的联邦学习范式,提出了一种用于面向智能安防的视觉深度模型知识重组方法。本发明的技术方案是:
一种面向安防的视觉深度模型知识重组方法,包含如下步骤:
1.收集与训练智能安防数据;
本发明首先收集安防边缘测(如摄像头)的视觉数据,明确具体的模型任务,如行人重识别,为收集的小部分数据进行标注,这一小部分标注后的数据将作为目标任务数据集DT,其中包含了M个数据样本以及标签。由于安防设备所处的环境以及昂贵的标注成本,安防设备收集的数据通常是不充分的,因而直接利用该部分数据训练学习难以获得一个表现良好的深度模型。为了让安防的深度模型拥有一定的关于目标任务的知识,首先需要利用收集的目标任务数据集训练目标任务模型。
2.选择模型知识;
预训练模型{M1,M2,…,MN}是在不同训练数据和不同的任务上训练的,因而预训练模型包含了不同领域的知识。并且预训练模型以及数据存放在不同的节点上。对于智能安防具体的目标任务模型而言,不同的预训练模型的知识的可迁移性是不同的。可迁移性更好的预训练模型知识对于目标任务更有帮助。为了从若干预训练模型中选择合适的模型,本发明首先计算不同模型在目标数据集上的归因图其中表示第n个模型第k层对于第j个输入的归因图,归因图是计算特定输入的反向传播梯度得到的,归因图反映了模型对于输入的注意力区域。因而,不同模型之间归因图的距离可以作为一种模型知识可迁移性的度量。利用目标数据集计算不同模型之间的可迁移性距离如下:
本发明将可迁移分数归一化为一个离散的概率分布{P1,P2,…,PN},概率值表示选择某一个预训练模型的概率。本发明将根据概率分布{P1,P2,…,PN}有放回地采样k个模型,形成一个模型集合SM。这一模型集合将用于后续的联邦知识重组中。
3.重组联邦知识;
在不直接接触预训练模型和数据集的条件下,为了将模型集合SM的知识重组到目标模型,本发明按照过程是否发生在预训练模型的边缘节点上,将联邦知识重组划分为本地知识重组和中心知识重组两个阶段。两个阶段的划分可以避免对预训练模型的直接接触,进而保护了预训练模型和数据的隐私。
首先,本发明将目标模型Mt的参数复制到预训练模型Mn所在的节点。对于绝大多数深度模型而言,模型可以划分为编码器部分和解码器部分,编码器将原始输入编码到特征空间的向量,特征提取部分是与任务无关的,具有良好的泛化性。而解码器将特征空间的向量解码成与任务相关的输出。在本地重组的过程中,本发明迫使目标模型的特征输出和预训练的特征输出保持一致,目标模型的副本将学习到预训练模型的特征提取能力。由于预训练模型Mn和目标模型Mt的网络结构可能是异构的,目标模型和本地预训练模型的输出特征可能存在输出维度的差异,因而本发明利用3个1×1的卷积操作对齐不同模型的特征输出维度。本地重组过程中损失计算如下:
其中,ηt表示本地重组的学习率。
在中心节点的知识的重组完成以后,将会再次进行知识的选择和本地知识的重组。在迭代的学习过程中,目标模型将会从多个预训练模型中筛选和学习到可迁移的教师的表征提取能力。
4.智能安防任务适应
本发明考虑深度学习模型的拓扑结构特点,在知识重组阶段收敛完成以后,将继续在智能安防的目标任务数据集上进行训练,以获得更多与目标任务相关的知识。具体来说,这一阶段利用目标数据集对目标模型的解码器部分进行训练。在此阶段,目标模型将学习到特征映射到目标标签的能力。进而,可以在智能安防的相关任务上,如行人重识别,获得良好的表现。
本发明的优点是:可以在可以在不直接访问私密模型的情况下实现模型知识的迁移,进而在智能安防领域的目标任务上获得较好的表现;本发明与传统的只关注数据隐私的联邦学习框架不同,本发明不仅考虑到了数据隐私,还考虑到了模型的隐私。这为智能安防领域的模型共享提供了一种灵活和安全的方式。
附图说明
图1是本发明的知识选择和联邦知识重组的流程示意图。
图2是本发明的本地知识重组的示意图。
图3是本发明的联邦知识重组的流程示意图。
具体实施方式
下面结合附图,对本发明的技术方案进行清晰、完整的解释和描述。
一种面向智能安防的视觉深度模型知识重组方法,包含如下步骤:
1.收集与训练智能安防数据;
本发明首先收集安防边缘测(如摄像头)的视觉数据,明确具体的模型任务,如行人重识别,为收集的小部分数据进行标注,这一小部分标注后的数据将作为目标任务数据集DT,其中包含了M个数据样本以及标签。由于安防设备所处的环境以及昂贵的标注成本,安防设备收集的数据通常是不充分的,因而直接利用该部分数据训练学习难以获得一个表现良好的深度模型。为了让安防的深度模型拥有一定的关于目标任务的知识,首先需要利用收集的目标任务数据集训练目标任务模型。
2.选择模型知识;
预训练模型{M1,M2,…,MN}是在不同训练数据和不同的任务上训练的,因而预训练模型包含了不同领域的知识。并且预训练模型以及数据存放在不同的节点上。对于智能安防具体的目标任务模型而言,不同的预训练模型的知识的可迁移性是不同的。可迁移性更好的预训练模型知识对于目标任务更有帮助。为了从若干预训练模型中选择合适的模型,本发明首先计算不同模型在目标数据集上的归因图其中表示第n个模型第k层对于第j个输入的归因图,归因图是计算特定输入的反向传播梯度得到的,归因图反映了模型对于输入的注意力区域。因而,不同模型之间归因图的距离可以作为一种模型知识可迁移性的度量。利用目标数据集计算不同模型之间的可迁移性距离如下:
本发明将可迁移分数归一化为一个离散的概率分布{P1,P2,…,PN},概率值表示选择某一个预训练模型的概率。本发明将根据概率分布{P1,P2,…,PN}有放回地采样k个模型,形成一个模型集合SM。这一模型集合将用于后续的联邦知识重组中。(图1)
3.重组联邦知识;
在不直接接触预训练模型和数据集的条件下,为了将模型集合SM的知识重组到目标模型,本发明按照过程是否发生在预训练模型的边缘节点上,将联邦知识重组划分为本地知识重组和中心知识重组两个阶段。两个阶段的划分可以避免对预训练模型的直接接触,进而保护了预训练模型和数据的隐私。
首先,本发明将目标模型Mt的参数复制到预训练模型Mn所在的节点。对于绝大多数深度模型而言,模型可以划分为编码器部分和解码器部分,编码器将原始输入编码到特征空间的向量,特征提取部分是与任务无关的,具有良好的泛化性。而解码器将特征空间的向量解码成与任务相关的输出。在本地重组的过程中,本发明迫使目标模型的特征输出和预训练的特征输出保持一致,目标模型的副本将学习到预训练模型的特征提取能力。由于预训练模型Mn和目标模型Mt的网络结构可能是异构的,目标模型和本地预训练模型的输出特征可能存在输出维度的差异,因而本发明利用3个1×1的卷积操作对齐不同模型的特征输出维度。本地重组过程中损失计算如下:
其中,ηt表示本地重组的学习率。(图2)
在中心节点的知识的重组完成以后,将会再次进行知识的选择和本地知识的重组。在迭代的学习过程中,目标模型将会从多个预训练模型中筛选和学习到可迁移的教师的表征提取能力。(图3)
4.目标任务适应;
本发明考虑深度学习模型的拓扑结构特点,在知识重组阶段收敛完成以后,将继续在智能安防的目标任务数据集上进行训练,以获得更多与目标任务相关的知识。具体来说,这一阶段利用目标数据集对目标模型的解码器部分进行训练。在此阶段,目标模型将学习到特征映射到目标标签的能力。进而,可以在智能安防的相关任务上,如行人重识别,获得良好的表现。
本发明首先收集安防边缘测(如摄像头)的视觉数据,明确具体的模型任务,如行人重识别,为收集的小部分数据进行标注,利用收集的目标任务数据集训练目标任务模型。然后,利用归因图计算目标模型和不同预训练模型之间的可迁移分数,将归一化的可迁移分数作为模型选择的概率,可放回地采样形成模型集合;在联邦学习范式的基础上,将目标模型分发到不同的节点,利用表征蒸馏迁移预训练模型的特征提取能力,在目标模型学习和迁移完成后,通过平均的方式在中心节点进行知识重组,重组过后的模型再次分发到选择的模型节点进一步迭代。最后,再利用目标数据集进行微调目标模型,从而学习得到一个在智能安防领域的目标任务上表现良好的视觉深度模型,并且保护了数据隐私和模型隐私。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围的不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (2)
1.一种面向智能安防的视觉深度模型知识重组方法,包含如下步骤:
步骤1:收集与训练智能安防数据;
首先收集安防边缘测的视觉数据,明确具体的模型任务,为收集的小部分数据进行标注标注后的数据作为目标任务数据集DT,其中包含了M个数据样本以及标签;由于安防设备所处的环境以及昂贵的标注成本,安防设备收集的数据是不充分的,因而直接利用该部分数据训练学习难以获得一个表现良好的深度模型;为了让安防的深度模型拥有足够的关于目标任务的知识,首先需要利用收集的目标任务数据集训练目标任务模型;
步骤2:选择模型知识;
预训练模型{M1,M2,...,MN}是在不同训练数据和不同的任务上训练的,因而预训练模型包含了不同领域的知识;并且预训练模型以及数据存放在不同的节点上;对于智能安防具体的目标任务模型而言,不同的预训练模型的知识的可迁移性是不同的;可迁移性更好的预训练模型知识对于目标任务更有帮助;为了从若干预训练模型中选择合适的模型,首先计算不同模型在目标数据集上的归因图其中表示第n个模型第k层对于第j个输入的归因图,归因图是计算特定输入的反向传播梯度得到的,归因图反映了模型对于输入的注意力区域;因而,不同模型之间归因图的距离能作为一种模型知识可迁移性的度量;利用目标数据集计算不同模型之间的可迁移性距离如下:
将可迁移分数归一化为一个离散的概率分布{P1,P2,...,PN},概率值表示选择某一个预训练模型的概率;将根据概率分布{P1,P2,...,PN}有放回地采样k个模型,形成一个模型集合SM;这一模型集合将用于后续的联邦知识重组中;
步骤3:重组联邦知识;
在不直接接触预训练模型和数据集的条件下,为了将模型集合SM的知识重组到目标模型,按照过程是否发生在预训练模型的边缘节点上,将联邦知识重组划分为本地知识重组和中心知识重组两个阶段;两个阶段的划分可以避免对预训练模型的直接接触,进而保护了预训练模型和数据的隐私;
首先,将目标模型Mt的参数复制到预训练模型Mn所在的节点;深度模型能划分为编码器部分和解码器部分,编码器将原始输入编码到特征空间的向量,特征提取部分是与任务无关的,具有良好的泛化性;而解码器将特征空间的向量解码成与任务相关的输出;在本地重组的过程中,迫使目标模型的特征输出和预训练的特征输出保持一致,目标模型的副本将学习到预训练模型的特征提取能力;由于预训练模型Mn和目标模型Mt的网络结构可能是异构的,目标模型和本地预训练模型的输出特征可能存在输出维度的差异,因而利用3个1×1的卷积操作对齐不同模型的特征输出维度;本地重组过程中损失计算如下:
其中,ηt表示本地重组的学习率;
在中心节点的知识的重组完成以后,将会再次进行知识的选择和本地知识的重组;在迭代的学习过程中,目标模型将会从多个预训练模型中筛选和学习到可迁移的教师的表征提取能力;
步骤4:智能安防任务适应;
考虑深度学习模型的拓扑结构特点,在知识重组阶段收敛完成以后,将继续在智能安防的目标任务数据集上进行训练,以获得更多与目标任务相关的知识;具体来说,利用目标数据集对目标模型的解码器部分进行训练,目标模型将学习到特征映射到目标标签的能力,在智能安防的模型任务上获得良好的表现。
2.如权利要求1所述的面向边缘侧的视觉深度模型知识重组方法,其特征在于:步骤1所述的安防边缘测是摄像头,所述的模型任务是行人重识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111639661.5A CN114330554A (zh) | 2021-12-29 | 2021-12-29 | 一种面向智能安防的视觉深度模型知识重组方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111639661.5A CN114330554A (zh) | 2021-12-29 | 2021-12-29 | 一种面向智能安防的视觉深度模型知识重组方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114330554A true CN114330554A (zh) | 2022-04-12 |
Family
ID=81017142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111639661.5A Pending CN114330554A (zh) | 2021-12-29 | 2021-12-29 | 一种面向智能安防的视觉深度模型知识重组方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114330554A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115600160A (zh) * | 2022-10-20 | 2023-01-13 | 浙江大学(Cn) | 基于积分梯度可解释算法的网络模型窃取行为的检测方法 |
KR102635611B1 (ko) * | 2022-08-12 | 2024-02-08 | 고려대학교 산학협력단 | 영상 신호 처리 장치 및 이의 영상 처리 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111091179A (zh) * | 2019-12-03 | 2020-05-01 | 浙江大学 | 基于归因图的异构深度模型可迁移性度量方法 |
CN112884165A (zh) * | 2021-03-18 | 2021-06-01 | 中国地质大学(北京) | 面向联邦机器学习的全流程服务迁移方法与系统 |
CN113191392A (zh) * | 2021-04-07 | 2021-07-30 | 山东师范大学 | 一种乳腺癌图像信息瓶颈多任务分类和分割方法及系统 |
CN118709740A (zh) * | 2024-08-28 | 2024-09-27 | 腾讯科技(深圳)有限公司 | 模型训练方法、影像分割方法、装置及电子设备 |
-
2021
- 2021-12-29 CN CN202111639661.5A patent/CN114330554A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111091179A (zh) * | 2019-12-03 | 2020-05-01 | 浙江大学 | 基于归因图的异构深度模型可迁移性度量方法 |
CN112884165A (zh) * | 2021-03-18 | 2021-06-01 | 中国地质大学(北京) | 面向联邦机器学习的全流程服务迁移方法与系统 |
CN113191392A (zh) * | 2021-04-07 | 2021-07-30 | 山东师范大学 | 一种乳腺癌图像信息瓶颈多任务分类和分割方法及系统 |
CN118709740A (zh) * | 2024-08-28 | 2024-09-27 | 腾讯科技(深圳)有限公司 | 模型训练方法、影像分割方法、装置及电子设备 |
Non-Patent Citations (2)
Title |
---|
JUAN ZHAO: ""HotFed: Hot Start through Self-Supervised Learning in Federated Learning"", 《2021 IEEE 23RD INT CONF ON HIGH PERFORMANCE COMPUTING & COMMUNICATIONS》, 30 May 2022 (2022-05-30), pages 149 - 156 * |
吕庚: ""双回归的单图像超分辨率重建网络模型"", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 2023, 15 February 2023 (2023-02-15), pages 138 - 2685 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102635611B1 (ko) * | 2022-08-12 | 2024-02-08 | 고려대학교 산학협력단 | 영상 신호 처리 장치 및 이의 영상 처리 방법 |
CN115600160A (zh) * | 2022-10-20 | 2023-01-13 | 浙江大学(Cn) | 基于积分梯度可解释算法的网络模型窃取行为的检测方法 |
CN115600160B (zh) * | 2022-10-20 | 2023-07-21 | 浙江大学 | 基于积分梯度可解释算法的网络模型窃取行为的检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110414432B (zh) | 对象识别模型的训练方法、对象识别方法及相应的装置 | |
CN114067160A (zh) | 基于嵌入平滑图神经网络的小样本遥感图像场景分类方法 | |
CN105654729B (zh) | 一种基于卷积神经网络的短时交通流量预测方法 | |
CN110111340A (zh) | 基于多路割的弱监督实例分割方法 | |
WO2019071754A1 (zh) | 一种基于深度学习的图像隐私感知方法 | |
CN111242157A (zh) | 联合深度注意力特征和条件对抗的无监督域自适应方法 | |
CN113538218B (zh) | 基于位姿自监督对抗生成网络的弱配对图像风格迁移方法 | |
CN109961095B (zh) | 基于非监督深度学习的图像标注系统及标注方法 | |
CN111931814B (zh) | 一种基于类内结构紧致约束的无监督对抗域适应方法 | |
CN114330554A (zh) | 一种面向智能安防的视觉深度模型知识重组方法 | |
CN109710776A (zh) | 相册的知识图谱的构建方法 | |
CN116958735A (zh) | 视觉特征提取模型的训练方法、应用方法、装置及设备 | |
CN111091179A (zh) | 基于归因图的异构深度模型可迁移性度量方法 | |
CN112860847B (zh) | 视频问答的交互方法及系统 | |
CN115809340A (zh) | 一种知识图谱的实体更新方法及系统 | |
CN111695531B (zh) | 一种基于异构卷积网络的跨域行人再识别方法 | |
CN116704202A (zh) | 一种基于知识嵌入的视觉关系检测方法 | |
CN115936119A (zh) | 一种基于图注意力网络的知识表示学习方法 | |
CN108052680A (zh) | 基于数据图谱、信息图谱和知识图谱的图像数据目标识别增强方法 | |
CN115439878A (zh) | 目标重识别模型抗遗忘训练方法、目标重识别方法及装置 | |
CN114529949A (zh) | 一种基于深度学习的轻量级手势识别方法 | |
CN110717512B (zh) | 一种基于结构保持零样本学习的鸟类濒危物种识别方法 | |
CN116071609B (zh) | 基于目标特征动态自适应提取的小样本图像分类方法 | |
CN112801179A (zh) | 面向跨领域复杂视觉任务的孪生分类器确定性最大化方法 | |
Hu et al. | Progeo: Generating prompts through image-text contrastive learning for visual geo-localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |