CN114882337A - 一种基于校正新旧任务类别混淆的类增量学习方法 - Google Patents
一种基于校正新旧任务类别混淆的类增量学习方法 Download PDFInfo
- Publication number
- CN114882337A CN114882337A CN202210560371.XA CN202210560371A CN114882337A CN 114882337 A CN114882337 A CN 114882337A CN 202210560371 A CN202210560371 A CN 202210560371A CN 114882337 A CN114882337 A CN 114882337A
- Authority
- CN
- China
- Prior art keywords
- task
- old
- new
- model
- knowledge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000012937 correction Methods 0.000 title claims abstract description 32
- 238000013140 knowledge distillation Methods 0.000 claims abstract description 48
- 238000012549 training Methods 0.000 claims abstract description 36
- 239000013598 vector Substances 0.000 claims abstract description 27
- 230000006870 function Effects 0.000 claims description 42
- 238000000605 extraction Methods 0.000 claims description 10
- 238000010187 selection method Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 238000012546 transfer Methods 0.000 claims description 5
- 230000006978 adaptation Effects 0.000 claims description 4
- 238000004821 distillation Methods 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 3
- 238000013508 migration Methods 0.000 abstract description 7
- 230000005012 migration Effects 0.000 abstract description 7
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
Abstract
本发明属于图像识别的动态类增量学习领域,公开了一种基于校正新旧任务类别混淆的类增量学习方法,包括了一个级联的知识蒸馏框架和一种特征回放的方法。级联的知识蒸馏框架首先校正旧模型的特征表示,生成一个校正后的教师网络,然后在学习新任务的同时将旧任务的知识从校正后的教师网络迁移到新模型。特征回放的方法主要是为缓解新旧任务类别数据的不平衡问题,通过保存旧任务类别更多的特征向量用于训练特征校正网络。本发明旨在校正新旧任务类别之间的混淆,缓解旧模型所代表的知识与新任务知识之间的冲突,以便在学习新任务的同时提升知识迁移的效率。
Description
技术领域
本发明属于图像识别的动态类增量学习领域,尤其涉及一种基于校正新旧任务类别混淆的类增量学习方法。
背景技术
当前,基于人工神经网络的图像识别技术已经取得了巨大的成功,并在很多现实场景得到了应用,比如人脸识别,牌号识别、无人驾驶、交通标志识别,医学图像分析诊断、病例图像分析等等。但是目前的图像识别模型普遍存在“灾难性遗忘”问题,即在学习新任务的同时必须将已学习过的旧任务的数据和新任务的数据联合起来一起训练,否则会忘掉旧任务知识。所以,目前的图像识别模型只适用于封闭静态的应用场景,不能像人脑一样能够动态的学习新的类别。对开放的动态环境的低泛化性和低鲁棒性已经成为基于人工神经网络的图像识别技术进一步发展和应用的阻碍。因此,研究克服人工神经网络普遍存在的“灾难性遗忘”问题,以便使得图像识别模型能够动态地学习新知识,这不仅能够大大节省训练时间也能够成倍地节约能源,而且在某些涉及到数据隐私的场景,也必须运用连续学习或类增量学习的方法来训练图像识别模型。
目前,基于经验回放与知识蒸馏的类增量学习算法已经取得了一些重要进展,但是这些算法大多忽视了旧模型对于新旧任务类别的混淆问题,在学习新任务的同时,直接将旧任务的知识通过知识蒸馏的方法迁移到新模型中,而旧模型对于新旧任务类别的混淆问题会影响旧任务知识的迁移效果。
发明内容
本发明目的在于提供一种基于校正新旧任务类别混淆的类增量学习方法,以解决上述的技术问题。
为解决上述技术问题,本发明的一种基于校正新旧任务类别混淆的类增量学习方法的具体技术方案如下:
一种基于校正新旧任务类别混淆的类增量学习方法,包括如下步骤:
步骤1:训练特征校正网络FCN:使用新任务的图片和保存的旧任务图片通过旧模型提取特征向量;然后将提取的特征向量输入FCN通过特征校正损失函数和知识蒸馏损失函数进行训练;
步骤2:训练好FCN后,将旧模型的特征提取网络与FCN组合成一个新模型称为特征校正后的教师网络FCTM;在训练新模型时候采用不同的基于知识蒸馏的类增量学习方法在学习新任务同时将旧任务的知识从FCTM迁移到新模型;
步骤3:在训练好新模型后,需根据基于知识蒸馏的类增量学习方法中原有的样本选取方法去掉超出存储限制的旧任务图片样本和选取当前任务需要保存的图片样本进行保存。
进一步地,所述步骤1使用特征校正损失函数LFC校正旧模型的知识,LFC表示为
上式是使用图片数据计算的损失,表示在第t个任务,所有的图片数据及其标签;包括存储的旧任务的图片数据以及新任务的图片数据,δ为示性函数,σ为softmax函数,m和n分别表示已学过的类别总数和新任务的类别数,表示第t个任务要训练的FCN,表示第t-1个任务训练好的旧模型的特征提取网络,其中θ表示其网络参数;通过将旧模型的输出作为锚点,利用知识蒸馏损失LAD作为校正的约束,LAD表示为
L=LFC+LAD。 (3)
进一步地,所述步骤2包括传统的基于知识蒸馏的类增量学习方法使用两个损失函数分别为分类交叉熵LCE和知识蒸馏损失LKD,iCaRL方法使用二分类交叉熵方法计算这两个损失函数,计算如下:
Loverall=LCE+LKD。 (6)
进一步地,所述步骤2包括按照基于知识蒸馏的类增量学习方法原有训练步骤训练。
进一步地,所述步骤1包括特征回放方法,具体包括如下步骤:
第一项是使用图片数据计算的损失,表示在第t个任务,所有的图片数据及其标签,包括存储的旧任务的图片数据以及新任务的图片数据;第二项是使用旧任务类别的特征向量计算的损失,表示在第t个任务,保存的所有旧任务类别的特征向量数据及其标签,δ为示性函数,σ为softmax函数,m和n分别表示已学过的类别总数和新任务的类别数,表示第t个任务要训练的FCN,表示第t-1个任务训练好的旧模型的特征提取网络,其中θ表示其网络参数,通过将旧模型的输出作为锚点,利用知识蒸馏损失LAD作为校正的约束,LAD表示为
L=LFC+LAD。 (3)
进一步地,所述步骤3根据基于知识蒸馏的类增量学习方法中原有的样本选取方法去掉超出存储限制的旧任务的特征向量数据和选取当前任务需要保存的特征向量数据进行保存,并且在每一次学习完新任务后,把保存的旧任务类别的特征向量通过FeatureAdaptation方法映射到新模型所对应的特征空间。
本发明的一种基于校正新旧任务类别混淆的类增量学习方法具有以下优点:本发明通过级联的知识蒸馏框架首先校正旧模型的特征表示,生成一个校正后的教师网络,然后在学习新任务的同时将旧任务的知识从校正后的教师网络迁移到新模型,利用特征回放的方法缓解了新旧任务类别数据的不平衡问题,通过保存旧任务类别更多的特征向量用于训练特征校正网络。本发明能够校正新旧任务类别之间的混淆,缓解旧模型所代表的知识与新任务知识之间的冲突,在学习新任务的同时提升了知识迁移的效率。
附图说明
图1为本发明的级联的知识蒸馏框架与特征回放方法示意图。
具体实施方式
为了更好地了解本发明的目的、结构及功能,下面结合附图,对本发明一种基于校正新旧任务类别混淆的类增量学习方法做进一步详细的描述。
我们发现只学习旧任务的模型会混淆新旧任务类别,所以,传统的基于知识蒸馏的类增量学习方法所使用的知识蒸馏损失和分类交叉熵损失是异构的,这会影响知识迁移的效果。我们通过把联合训练的模型作为基于知识蒸馏的类增量学习方法的教师模型进行实验,验证了使用不会混淆新旧任务类别的教师模型能够有效提高知识迁移的效果。因此,我们提出了特征校正网络和级联的知识蒸馏框架。该框架是一个适用于基于知识蒸馏的类增量学习方法的通用框架。该框架采用经验回放和知识蒸馏的方法校正旧模型的特征表示,生成一个校正后的教师网络,缓解旧模型知识对已学过的类别和新任务的类别之间的混淆,然后使用不同的基于知识蒸馏的类增量学习方法在学习新任务的同时将校正后的旧任务知识迁移到新模型。
级联的知识蒸馏框架,这是一个适用于基于知识蒸馏的类增量学习的通用框架。首先使用新任务的数据以及保存的少量旧任务数据来通过经验回放和知识蒸馏方法训练一个特征校正网络(Feature Calibration Network,FCN),以生成一个校正后的教师网络(Feature Calibrated Teacher Model,FCTM)。在该框架运用到一般的基于知识蒸馏的类增量学习方法时,只需要在训练新模型时将原用于进行知识迁移的旧模型换成FCTM即可,其他训练步骤、图片或特征向量的样本选取和保存方法以及测试推断阶段的步骤则完全不变。
特征回放的方法。该方法主要是用在级联的知识蒸馏框架中,出于缓解新旧任务数据的不平衡的目的,通过保存旧任务类别的特征向量用于训练特征校正网络。并且在训练好新模型后,通过Feature Adaptation方法将旧任务类别的特征向量映射到新模型所对应的特征空间。
实施例1:
本发明的一种基于校正新旧任务类别混淆的类增量学习方法,包括如下步骤:
步骤(1):训练特征校正网络(FCN):使用新任务的图片和保存的旧任务图片通过旧模型提取特征向量。然后将提取的特征向量输入FCN通过特征校正损失函数和知识蒸馏损失函数进行训练。
使用特征校正损失函数LFC校正旧模型的知识,LFC表示为
上式是使用图片数据计算的损失,表示在第t个任务,所有的图片数据(包括存储的旧任务的图片数据以及新任务的图片数据)及其标签;δ为示性函数,σ为softmax函数,m和n分别表示已学过的类别总数和新任务的类别数,表示第t个任务要训练的FCN,表示第t-1个任务训练好的旧模型的特征提取网络,其中θ表示其网络参数。通过将旧模型的输出作为锚点,利用知识蒸馏损失LAD作为校正的约束,LAD表示为
L=LFC+LAD (3)
步骤(2):训练好FCN后,将旧模型的特征提取网络与FCN组合成一个新模型称为特征校正后的教师网络(FCTM)。相比于旧模型,FCTM对于新旧任务类别的混淆已经得到有效改善。在训练新模型时候采用不同的基于知识蒸馏的类增量学习方法在学习新任务同时将旧任务的知识从FCTM迁移到新模型。传统的基于知识蒸馏的类增量学习方法使用两个损失函数分别为分类交叉熵LCE和知识蒸馏损失LKD,比如iCaRL方法使用二分类交叉熵方法计算这两个损失函数,计算如下:
Loverall=LCE+LKD (6)
对于其他基于知识蒸馏的类增量学习方法如果还有其他的训练步骤,则按照其原有训练步骤训练。比如BiC在训练好新模型后,又训练了一个偏差校正网络,则我们在步骤(2)中按照BiC的训练流程进行训练。
步骤(3):在训练好新模型后,需根据基于知识蒸馏的类增量学习方法中原有的样本选取方法去掉超出存储限制的旧任务图片样本和选取当前任务需要保存的图片样本进行保存。
实施例2:
实施例2是在实施例1的基础上加入了特征回放方法。具体包括如下步骤:
步骤(1):使用新任务的数据以及保存的少量旧任务数据来训练一个特征校正网络(Feature Calibration Network,FCN),以生成一个校正后的教师网络(FeatureCalibrated Teacher Model,FCTM)。如图1所示,使用特征校正损失函数LFC校正旧模型的知识,LFC表示为
第一项是使用图片数据计算的损失,表示在第t个任务,所有的图片数据(包括存储的旧任务的图片数据以及新任务的图片数据)及其标签;第二项是使用旧任务类别的特征向量计算的损失,表示在第t个任务,保存的所有旧任务类别的特征向量数据及其标签,δ为示性函数,σ为sofftmax函数,m和n分别表示已学过的类别总数和新任务的类别数,表示第t个任务要训练的FCN,表示第t-1个任务训练好的旧模型的特征提取网络,其中θ表示其网络参数。通过将旧模型的输出作为锚点,利用知识蒸馏损失LAD作为校正的约束,LAD表示为
L=LFC+LAD (3)
步骤(2):训练好FCN后,将旧模型的特征提取网络与FCN组合成一个新模型称为特征校正后的教师网络(FCTM)。相比于旧模型,FCTM对于新旧任务类别的混淆已经得到有效改善。在训练新模型时候采用不同的基于知识蒸馏的类增量学习方法在学习新任务同时将旧任务的知识从FCTM迁移到新模型。传统的基于知识蒸馏的类增量学习方法使用两个损失函数分别为分类交叉熵LCE和知识蒸馏损失LKD,比如iCaRL方法使用二分类交叉熵方法计算这两个损失函数,计算如下:
Loverall=LCE+LKD (6)
对于其他基于知识蒸馏的类增量学习方法如果还有其他的训练步骤,则按照其原有训练步骤训练。比如BiC在训练好新模型后,又训练了一个偏差校正网络,则我们在步骤(2)中按照BiC的训练流程进行训练。
步骤(3):根据基于知识蒸馏的类增量学习方法中原有的样本选取方法去掉超出存储限制的旧任务的特征向量数据和选取当前任务需要保存的特征向量数据进行保存,并且在每一次学习完新任务后,把保存的旧任务类别的特征向量通过Feature Adaptation方法映射到新模型所对应的特征空间。
综上,相比于一般的基于知识蒸馏的类增量学习方法,级联的知识蒸馏框架多了步骤(1)训练特征校正网络与步骤(3)选取类别特征向量以及特征映射过程。在该框架运用到一般的基于知识蒸馏的类增量学习方法时,只需要在步骤(2)中将原用于进行知识迁移的旧模型换成FCTM即可。其他训练步骤、图片或特征向量的样本选取和保存方法以及测试推断阶段的步骤则完全不变。
可以理解,本发明是通过一些实施例进行描述的,本领域技术人员知悉的,在不脱离本发明的精神和范围的情况下,可以对这些特征和实施例进行各种改变或等效替换。另外,在本发明的教导下,可以对这些特征和实施例进行修改以适应具体的情况及材料而不会脱离本发明的精神和范围。因此,本发明不受此处所公开的具体实施例的限制,所有落入本申请的权利要求范围内的实施例都属于本发明所保护的范围内。
Claims (6)
1.一种基于校正新旧任务类别混淆的类增量学习方法,其特征在于,包括如下步骤:
步骤1:训练特征校正网络FCN:使用新任务的图片和保存的旧任务图片通过旧模型提取特征向量;然后将提取的特征向量输入FCN通过特征校正损失函数和知识蒸馏损失函数进行训练;
步骤2:训练好FCN后,将旧模型的特征提取网络与FCN组合成一个新模型称为特征校正后的教师网络FCTM;在训练新模型时候采用不同的基于知识蒸馏的类增量学习方法在学习新任务同时将旧任务的知识从FCTM迁移到新模型;
步骤3:在训练好新模型后,需根据基于知识蒸馏的类增量学习方法中原有的样本选取方法去掉超出存储限制的旧任务图片样本和选取当前任务需要保存的图片样本进行保存。
2.根据权利要求1所述的基于校正新旧任务类别混淆的类增量学习方法,其特征在于,所述步骤1使用特征校正损失函数LFC校正旧模型的知识,LFC表示为
上式是使用图片数据计算的损失,表示在第t个任务,所有的图片数据及其标签;包括存储的旧任务的图片数据以及新任务的图片数据,δ为示性函数,σ为softmax函数,m和n分别表示已学过的类别总数和新任务的类别数,表示第t个任务要训练的FCN,表示第t-1个任务训练好的旧模型的特征提取网络,其中θ表示其网络参数;通过将旧模型的输出作为锚点,利用知识蒸馏损失LAD作为校正的约束,LAD表示为
L=LFC+LAD。 (3)
4.根据权利要求1所述的基于校正新旧任务类别混淆的类增量学习方法,其特征在于,所述步骤2包括按照基于知识蒸馏的类增量学习方法原有训练步骤训练。
5.根据权利要求1所述的基于校正新旧任务类别混淆的类增量学习方法,其特征在于,所述步骤1包括特征回放方法,具体包括如下步骤:
第一项是使用图片数据计算的损失,表示在第t个任务,所有的图片数据及其标签,包括存储的旧任务的图片数据以及新任务的图片数据;第二项是使用旧任务类别的特征向量计算的损失,表示在第t个任务,保存的所有旧任务类别的特征向量数据及其标签,δ为示性函数,σ为softmax函数,m和n分别表示已学过的类别总数和新任务的类别数,表示第t个任务要训练的FCN,表示第t-1个任务训练好的旧模型的特征提取网络,其中θ表示其网络参数,通过将旧模型的输出作为锚点,利用知识蒸馏损失LAD作为校正的约束,LAD表示为
L=LFC+LAD。 (3)
6.根据权利要求5所述的基于校正新旧任务类别混淆的类增量学习方法,其特征在于,所述步骤3根据基于知识蒸馏的类增量学习方法中原有的样本选取方法去掉超出存储限制的旧任务的特征向量数据和选取当前任务需要保存的特征向量数据进行保存,并且在每一次学习完新任务后,把保存的旧任务类别的特征向量通过Feature Adaptation方法映射到新模型所对应的特征空间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210560371.XA CN114882337A (zh) | 2022-05-23 | 2022-05-23 | 一种基于校正新旧任务类别混淆的类增量学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210560371.XA CN114882337A (zh) | 2022-05-23 | 2022-05-23 | 一种基于校正新旧任务类别混淆的类增量学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114882337A true CN114882337A (zh) | 2022-08-09 |
Family
ID=82677350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210560371.XA Pending CN114882337A (zh) | 2022-05-23 | 2022-05-23 | 一种基于校正新旧任务类别混淆的类增量学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114882337A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116089883A (zh) * | 2023-01-30 | 2023-05-09 | 北京邮电大学 | 用于提高已有类别增量学习新旧类别区分度的训练方法 |
CN116110022A (zh) * | 2022-12-10 | 2023-05-12 | 河南工业大学 | 基于响应知识蒸馏的轻量化交通标志检测方法及系统 |
-
2022
- 2022-05-23 CN CN202210560371.XA patent/CN114882337A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116110022A (zh) * | 2022-12-10 | 2023-05-12 | 河南工业大学 | 基于响应知识蒸馏的轻量化交通标志检测方法及系统 |
CN116110022B (zh) * | 2022-12-10 | 2023-09-05 | 河南工业大学 | 基于响应知识蒸馏的轻量化交通标志检测方法及系统 |
CN116089883A (zh) * | 2023-01-30 | 2023-05-09 | 北京邮电大学 | 用于提高已有类别增量学习新旧类别区分度的训练方法 |
CN116089883B (zh) * | 2023-01-30 | 2023-12-19 | 北京邮电大学 | 用于提高已有类别增量学习新旧类别区分度的训练方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9619749B2 (en) | Neural network and method of neural network training | |
CN114882337A (zh) | 一种基于校正新旧任务类别混淆的类增量学习方法 | |
CN109816032B (zh) | 基于生成式对抗网络的无偏映射零样本分类方法和装置 | |
CN112036276B (zh) | 一种人工智能视频问答方法 | |
CN112115967B (zh) | 一种基于数据保护的图像增量学习方法 | |
CN112949929B (zh) | 一种基于协同嵌入增强题目表示的知识追踪方法及系统 | |
CN113486665B (zh) | 隐私保护文本命名实体识别方法、装置、设备及存储介质 | |
CN111931807A (zh) | 一种基于特征空间组合的小样本类增量学习方法 | |
CN114387486A (zh) | 基于持续学习的图像分类方法以及装置 | |
CN115546196A (zh) | 一种基于知识蒸馏的轻量级遥感影像变化检测方法 | |
CN115439715A (zh) | 基于反标签学习的半监督少样本图像分类学习方法及系统 | |
CN116229170A (zh) | 基于任务迁移的联邦无监督图像分类模型训练方法、分类方法及设备 | |
CN114386482A (zh) | 一种基于半监督增量学习的图片分类系统及分类方法 | |
CN111640087A (zh) | 一种基于sar深度全卷积神经网络的影像变化检测方法 | |
Yu et al. | Foundation model drives weakly incremental learning for semantic segmentation | |
CN114330554A (zh) | 一种面向智能安防的视觉深度模型知识重组方法 | |
CN116611517A (zh) | 融合图嵌入和注意力的知识追踪方法 | |
CN115661450A (zh) | 一种基于对比知识蒸馏的类别增量语义分割方法 | |
CN116681128A (zh) | 一种带噪多标签数据的神经网络模型训练方法和装置 | |
Guo et al. | Semantic image segmentation based on SegNetWithCRFs | |
CN114120447A (zh) | 一种基于原型对比学习的行为识别方法及系统、存储介质 | |
CN114882595A (zh) | 一种武装人员行为识别方法和系统 | |
CN112711667B (zh) | 一种基于多向语义的知识图谱复杂关系推理方法 | |
CN114911879A (zh) | 一种基于图注意力网络的刑事案件知识图谱关系推理方法 | |
CN114971066A (zh) | 融合遗忘因素和学习能力的知识追踪方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |