CN116628510A - 一种自训练可迭代的人工智能模型训练方法 - Google Patents
一种自训练可迭代的人工智能模型训练方法 Download PDFInfo
- Publication number
- CN116628510A CN116628510A CN202310911416.8A CN202310911416A CN116628510A CN 116628510 A CN116628510 A CN 116628510A CN 202310911416 A CN202310911416 A CN 202310911416A CN 116628510 A CN116628510 A CN 116628510A
- Authority
- CN
- China
- Prior art keywords
- model
- training
- samples
- data
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 159
- 238000000034 method Methods 0.000 title claims abstract description 52
- 239000013598 vector Substances 0.000 claims description 36
- 238000004422 calculation algorithm Methods 0.000 claims description 21
- 238000003066 decision tree Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 17
- 238000012706 support-vector machine Methods 0.000 claims description 14
- 238000013473 artificial intelligence Methods 0.000 claims description 13
- 238000007637 random forest analysis Methods 0.000 claims description 10
- 238000009826 distribution Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 8
- 238000011156 evaluation Methods 0.000 claims description 7
- 238000002360 preparation method Methods 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000004140 cleaning Methods 0.000 claims description 3
- 230000005284 excitation Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 4
- 238000013508 migration Methods 0.000 description 4
- 230000005012 migration Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000012804 iterative process Methods 0.000 description 3
- 238000013140 knowledge distillation Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及智能模型技术领域,具体公开了一种自训练可迭代的人工智能模型训练方法,包括初始化人工智能模型、数据准备、知识重构、增量学习循环以及模型的迭代和调优,本发明通过在迭代过程中保留已有人工智能模型的知识,将新数据与原始人工智能模型进行有机融合,避免遗忘和信息丢失,同时通过知识蒸馏的方式将教师模型的知识传递给学生模型,以提高人工智能模型的性能和泛化能力,充分利用未标记的数据,降低标记数据的需求,提高模型的训练效率,解决了现有人工智能模型训练方法生成的标签包含噪声,只使用未标记数据和模型生成的标签来训练模型容易遗忘之前已经学到的知识,训练过程效率低下且计算资源消耗较大的不足。
Description
技术领域
本发明涉及智能模型技术领域,更具体地说,本发明涉及一种自训练可迭代的人工智能模型训练方法。
背景技术
在人工智能领域,模型的训练是关键任务之一,传统的模型训练方法中常用的是通过使用标记数据进行有监督学习,每个参与训练的样本中都需要人工标注对应标签,标记数据的获取成本高昂且耗时费力,限制了人工智能模型训练的规模和效率。生成式自训练是一种半监督学习方法,通过使用模型对未标记数据进行预测并生成标签,然后将这些标签与未标记数据一起添加到训练集中,从而扩展训练数据集,这种方法能够有效利用未标记数据,降低标记数据的需求,提升人工智能模型性能。但是现有的生成式自训练方法存在不足,生成的标签包含噪声,这些噪声标签会影响模型的性能,导致模型的泛化能力下降,在传统的生成式自训练方法中,每次迭代时,只使用未标记数据和模型生成的标签来训练模型,而不使用之前已标记的数据,容易遗忘之前已经学到的知识,限制了模型的稳定性和持续学习的能力,而且随着迭代次数的增加,生成式自训练方法会产生大量的中间模型,导致训练过程效率低下且计算资源消耗较大。为了解决上述问题,现提供一种技术方案。
发明内容
为了克服现有技术的上述缺陷,本发明提供一种自训练可迭代的人工智能模型训练方法,引入增量学习的思想,通过在迭代过程中保留已有人工智能模型的知识,将新数据与原始人工智能模型进行有机融合,避免遗忘和信息丢失,同时通过知识蒸馏的方式将教师模型的知识传递给学生模型,以提高人工智能模型的性能和泛化能力,充分利用未标记的数据,降低标记数据的需求,提高模型的训练效率,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:本发明提供了一种自训练可迭代的人工智能模型训练方法,包括以下步骤:
步骤一,初始化人工智能模型:使用支持向量机算法训练一个初始人工智能模型,得到初始的模型参数和权重;
步骤二,数据准备:准备带有生成标签的未标记数据集,这些生成标签通过初始人工智能模型对未标记数据进行预测获得;
步骤三,知识重构:将初始模型作为教师模型,将生成的标签作为目标标签,使用未标记数据集作为输入,利用变分自动编码器的内在可重构特性,通过知识重构策略引导编码器的训练,对齐编码器关于历史任务数据的输出,训练一个学生模型,在知识重构过程中,通过迭代最小化教师模型与学生模型之间的交叉熵损失,让激励条件编码器将任务的真实数据编码为符合高斯分布的隐变量,通过条件解码器重构出和任务真实数据一致的样本;
步骤四,增量学习循环:从未标记的数据集中选择一批数据样本,使用学生模型对这些样本进行预测,得到生成的标签,将这些样本与生成的标签添加到训练集中,使用增量随机森林算法对训练集进行更新,调整模型参数和权重;
步骤五,重复步骤四,直到达到停止条件。
作为本发明进一步的方案,步骤一的实现过程包括:
步骤S1,数据准备:采集训练数据集,训练数据集包括输入数据以及对应的输出标签,训练数据为,其中,为训练数据集的输入特征向量,/>为训练数据集的输入特征向量对应的标签,对训练数据进行清洗、预处理和标准化;
步骤S2,特征向量转换:对不在设定形式的输入特征向量使用核函数方法将原始特征映射到高维特征空间;
步骤S3,支持向量机模型训练:在训练数据集上使用线性支持向量机算法训练一个初始模型,模型的权重向量为,偏置顶为/>,寻找一个超平面,将不同类别的样本分隔,最大化训练样本到超平面的间隔,通过序列最小优化算法实现;
步骤S4,模型的评估:使用训练好的支持向量机模型对测试集进行预测,评估模型性能。
作为本发明进一步的方案,在步骤三中,教师模型的参数为,学生模型的参数为/>,使用教师模型的参数/>,将未标记的数据集作为输入,通过变分自动编码器将数据映射到潜在空间中,变分自动编码器的输出为均值向量和方差向量,变分自动编码器的训练目标为最小化教师模型与学生模型之间的交叉熵损失,编码器的损失函数的公式为:
;
式中:为学生模型的均值向量,/>为教师模型与学生模型之间的交叉熵损失,/>为训练样本的序号,N为训练样本的数量,/>为均值向量,/>为方向向量。
作为本发明进一步的方案,在步骤三中,使用解码器,将学生模型的潜在变量作为输入,通过解码器生成与任务数据一致的样本,解码器的训练目标是最小化任务重构损失,知识重构损失函数的公式为:
;
式中:为解码器的知识重构损失,C为训练任务的类别数,j为类别的编号,为教师模型对样本/>属于j类别的生成标签,/>为学生模型对样本/>属于j类别的预测概率。
作为本发明进一步的方案,在步骤三中,在整个知识重构过程中,同归迭代最小化编码器的Kullback Leibler(KL)散度损失和解码器的任务重构损失训练学生模型的编码器,通过随机梯度下降的反向传播算法和优化器,更新学生模型和编码器的参数,整个知识重构过程的总体损失为:
;
式中:为整体损失函数,/>为知识重构项的权重超参数,且/>。
作为本发明进一步的方案,在随机梯度下降的反向传播算法中,进行动态调整学习率和自训练阈值调整,再次进行模型训练和评估,动态调整学习率:
;
;
其中,为更新的学习率,/>为初始学习率,/>为更新的动量,/>是初始动量,为动量衰减系数,g为梯度,P为学习率衰减系数,t为迭代次数;
自训练阈值获取的公式为:
,
其中,为自训练阈值,/>为/>函数,用于取返回/>的最大值,/>为模型正确预测为正例的样本数除以实际正例的样本数,/>为模型错误预测为正例的样本数除以实际负例的样本数。
作为本发明进一步的方案,在步骤四中,将未标记的数据集包含未标记的样本,未标记的数据集为,未标记的样本为/>,/>,…,,从/>中选择一批样本,选中样本集为/>,选中样本集中包含,/>,…,/>,其中,k为选中样本数据集中的样本数量,使用步骤三训练好的学生模型对选中样本进行预测,获得生成的标签,生成的标签为/>,将这批样本与生成的标签添加到训练集中,得到更新后的训练集,更新后的训练集为/>,更新后的训练集获取方式为:
;
式中:为更新后的训练集合,/>为标记好的输入特征向量,为标记好的输入特征向量对应的标签,
为已标记的训练集合,
为使用步骤三训练好的学生模型对选中样本进行预测,获得生成标签的选中样本数据集。
作为本发明进一步的方案,在步骤四中,进行增量学习后需要对模型参数和权重进行更新,首先选取一个空的随机森林模型,其中包含一组决策树,从更新后的训练中,使用Bagging策略进行有放回抽取的方式,随机抽取样本的子集构建每个决策树的训练集,对于每棵决策树使用抽样得到的子集进行训练,在每个节点上,根据基尼系数划分样本,重复划分过程,构建出完整的决策树,将每棵决策树的预测结果进行集成,对于分类任务,通过概率平均的方式获得最终的预测结果,使用验证集或测试集对更新后的增量随机森林模型进行评估,计算模型评估指标。
本发明一种自训练可迭代的人工智能模型训练方法的技术效果和优点:引入增量学习的思想,通过在迭代过程中保留已有人工智能模型的知识,将新数据与原始人工智能模型进行有机融合,避免遗忘和信息丢失,同时通过知识蒸馏的方式将教师模型的知识传递给学生模型,以提高人工智能模型的性能和泛化能力,充分利用未标记的数据,降低标记数据的需求,提高模型的训练效率。
附图说明
图1为本发明一种自训练可迭代的人工智能模型训练方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1给出了本发明一种自训练可迭代的人工智能模型训练方法的流程图,具体包括以下步骤:
步骤一,初始化人工智能模型:使用支持向量机算法训练一个初始人工智能模型,得到初始的模型参数和权重;
步骤二,数据准备:准备带有生成标签的未标记数据集,这些生成标签通过初始人工智能模型对未标记数据进行预测获得;
步骤三,知识重构:将初始模型作为教师模型,将生成的标签作为目标标签,使用未标记数据集作为输入,利用变分自动编码器的内在可重构特性,通过知识重构策略引导编码器的训练,对齐编码器关于历史任务数据的输出,训练一个学生模型,在知识重构过程中,通过迭代最小化教师模型与学生模型之间的交叉熵损失,让激励条件编码器将任务的真实数据编码为符合高斯分布的隐变量,通过条件解码器重构出和任务真实数据一致的样本;
步骤四,增量学习循环:从未标记的数据集中选择一批数据样本,使用学生模型对这些样本进行预测,得到生成的标签,将这些样本与生成的标签添加到训练集中,使用增量随机森林算法对训练集进行更新,调整模型参数和权重;
步骤五,重复步骤四,直到达到停止条件。
本发明一种自训练可迭代的人工智能模型训练方法,引入增量学习的思想,通过在迭代过程中保留已有人工智能模型的知识,将新数据与原始人工智能模型进行有机融合,避免遗忘和信息丢失,同时通过知识蒸馏的方式将教师模型的知识传递给学生模型,以提高人工智能模型的性能和泛化能力,充分利用未标记的数据,降低标记数据的需求,提高模型的训练效率。
需要说明的是,步骤一的实现过程包括:
步骤S1,数据准备:采集训练数据集,训练数据集包括输入数据以及对应的输出标签,训练数据为,其中,为训练数据集的输入特征向量,/>为训练数据集的输入特征向量对应的标签,对训练数据进行清洗、预处理和标准化;
步骤S2,特征向量转换:对不在设定形式的输入特征向量使用核函数方法将原始特征映射到高维特征空间;
步骤S3,支持向量机模型训练:在训练数据集上使用线性支持向量机算法训练一个初始模型,模型的权重向量为,偏置顶为/>,寻找一个超平面,将不同类别的样本分隔,最大化训练样本到超平面的间隔,通过序列最小优化算法实现;
步骤S4,模型的评估:使用训练好的支持向量机模型对测试集进行预测,评估模型性能。
通过数据准备步骤,对训练数据集进行清洗、预处理和标准化,能够提高数据的质量和一致性,消除数据中的噪声、异常值或缺失值,使数据更加可靠和一致,从而改善模型的训练效果;使用核函数方法将原始特征映射到高维特征空间,帮助模型更好地学习非线性关系,帮助扩展特征空间,使得模型更好地捕捉数据中的复杂关系,提高模型的表达能力和预测性能;通过支持向量机算法在训练数据集上训练初始模型,得到一个基于最大间隔的超平面来分隔不同类别的样本,提高了模型的泛化能力,使得模型在新的未见样本上有较好的分类性能;使用测试集对训练好的支持向量机模型进行评估,客观地衡量模型的性能和准确度,能够对模型进行验证和比较,确定其在实际应用中的可行性和效果。
具体地,在步骤三中,教师模型的参数为,学生模型的参数为/>,使用教师模型的参数/>,将未标记的数据集作为输入,通过变分自动编码器将数据映射到潜在空间中,变分自动编码器的输出为均值向量和方差向量,变分自动编码器的训练目标为最小化教师模型与学生模型之间的交叉熵损失,编码器的损失函数的公式为:
;
式中:为学生模型的均值向量,/>为教师模型与学生模型之间的交叉熵损失,/>为训练样本的序号,N为训练样本的数量,/>为均值向量,/>为方向向量。
需要说明的是,通过使用教师模型的参数和知识,能够将教师模型的知识迁移到学生模型中,编码器的训练目标是在潜在空间中对齐教师模型关于历史任务数据的输出,使得学生模型能够重构出与任务真实数据一致的样本,这种知识重构过程能够帮助学生模型学习到教师模型的特征表示和数据分布,从而提高学生模型的性能和泛化能力;变分自动编码器(Variational Autoencoder,VAE)具有内在的可重构特性和概率建模能力,通过最小化教师模型与学生模型之间的交叉熵损失,编码器能够学习到样本的潜在表示,并且生成符合高斯分布的隐变量,使得解码器能够重构出与任务真实数据一致的样本,能够提供更好的数据生成和重构能力,进一步提升模型的性能;通过使用编码器将数据映射到潜在空间,并结合最小化交叉熵损失的训练目标,能够获得更丰富和有信息量的数据表示,学生模型能够从潜在空间中学习到更抽象、更有判别力的特征表示,有助于提高模型的表示能力和泛化能力。
进一步地,在步骤三中,使用解码器,将学生模型的潜在变量作为输入,通过解码器生成与任务数据一致的样本,解码器的训练目标是最小化任务重构损失,知识重构损失函数的公式为:
;
式中:为解码器的知识重构损失,C为训练任务的类别数,j为类别的编号,为教师模型对样本/>属于j类别的生成标签,/>为学生模型对样本/>属于j类别的预测概率。
需要说明的是,识迁移能够帮助学生模型在生成样本时更好地模拟教师模型的行为,提高学生模型的生成能力和样本一致性;解码器的训练目标是最小化任务重构损失,通过将学生模型生成的样本与任务数据一致进行比较,提升了学生模型对于任务的理解和学习能力,解码器通过生成与任务数据一致的样本,帮助学生模型更好地适应任务的特征和数据分布;通过最小化知识重构损失,能够约束学生模型的生成能力,使其生成的样本更加稳定和一致,有助于提高模型的鲁棒性,减少由于数据噪声或变化引起的样本生成偏差,增强模型在实际应用中的可靠性;通过对教师模型生成标签分布和样本生成能力的学习,学生模型更好地掌握了任务数据的统计特征和潜在结构,有助于提升学生模型的泛化能力,使其能够更好地适应新的未见样本,提高模型的预测性能和可迁移性。
进一步地,在步骤三中,在整个知识重构过程中,同归迭代最小化编码器的Kullback Leibler(KL)散度损失和解码器的任务重构损失训练学生模型的编码器,通过随机梯度下降的反向传播算法和优化器,更新学生模型和编码器的参数,整个知识重构过程的总体损失为:
;
式中:为整体损失函数,/>为知识重构项的权重超参数,且/>。
整体损失函数将KL散度损失和任务重构损失相结合,并通过超参数λ来调整两者之间的权衡关系,λ的设置能够控制知识重构项在整体损失中的相对重要性,通过合理的λ设置,平衡模型在知识迁移和任务重构两个方面的学习目标,从而达到更好的整体模型性能;通过整体损失函数的最小化,能够同时优化学生模型的编码器和解码器,编码器通过KL散度损失来对齐教师模型关于历史任务数据的输出,学习到更好的特征表示,解码器通过任务重构损失来重构任务数据,提高学生模型在任务上的学习能力,整体损失函数的综合优化能够使学生模型在知识重构过程中得到更全面和均衡的训练;通过调节超参数λ的值,能够灵活地控制知识重构项在整体损失中的权重,允许根据具体任务和数据集的特点,有选择地强调知识迁移或任务重构的重要性。通过适当的调节λ,能够在不同场景下获得最佳的知识重构效果;将KL散度损失和任务重构损失合并为整体损失函数,避免了优化过程中过度关注单一目标而导致偏颇的问题,综合考虑两个损失项提供了更全面的训练信号,使得学生模型能够更好地从教师模型中迁移知识,并在任务上进行准确的重构。
在随机梯度下降的反向传播算法中,进行动态调整学习率和自训练阈值调整,再次进行模型训练和评估,动态调整学习率:
;
;
其中,为更新的学习率,/>为初始学习率,/>为更新的动量,/>是初始动量,为动量衰减系数,g为梯度,P为学习率衰减系数,t为迭代次数;
自训练阈值获取的公式为:
,
其中,为自训练阈值,/>为/>函数,用于取返回/>的最大值,/>为模型正确预测为正例的样本数除以实际正例的样本数,/>为模型错误预测为正例的样本数除以实际负例的样本数。
动态调整学习率能够帮助优化算法更好地收敛到最优解,并提高模型的稳定性,通过逐渐降低学习率,能够在接近最优解时减小参数的更新步幅,避免参数在最优解周围震荡或跳过最优解的情况;动态调整学习率能够在训练初期使用较大的学习率来快速接近全局最优解,在训练后期逐渐减小学习率以细化参数调整,提高了模型的收敛速度,加快训练过程;动量项能够增加梯度更新的方向性,有助于在参数空间中跨越平坦区域或局部极小值点。通过动态调整动量衰减系数,平衡了历史梯度和当前梯度的贡献,提高参数更新的效率和方向性;通过计算TPR和FPR,自训练阈值能够自适应地确定分类器的阈值,使得模型在预测正例和负例时取得平衡,有助于提高模型在不同类别上的预测性能,并减少误分类。
具体地,在步骤四中,将未标记的数据集包含未标记的样本,未标记的数据集为,未标记的样本为/>,/>,…,/>,从中选择一批样本,选中样本集为/>,选中样本集中包含/>,,…,/>,其中,k为选中样本数据集中的样本数量,使用步骤三训练好的学生模型对选中样本进行预测,获得生成的标签,生成的标签为/>,将这批样本与生成的标签添加到训练集中,得到更新后的训练集,更新后的训练集为/>,更新后的训练集获取方式为:
;
式中:为更新后的训练集合,/>为标记好的输入特征向量,为标记好的输入特征向量对应的标签,
为已标记的训练集合,
为使用步骤三训练好的学生模型对选中样本进行预测,获得生成标签的选中样本数据集。
未标记的样本集中包含了大量未经标记的数据,利用学生模型生成的标签将这些未标记样本添加到训练集中,扩充了标记数据的规模,增加了训练集的样本数量,使得模型更好地学习数据的特征和分布,提高模型的泛化能力和性能;通过使用学生模型对未标记样本进行预测,能够将模型的预测能力应用于新的未见数据,将生成的标签添加到训练集中,相当于将学生模型的预测能力和知识迁移到这些样本上,帮助学生模型更好地学习数据的特征和类别,提高了模型的鲁棒性,使其在面对未见数据时具有更好的泛化能力;通过不断将未标记样本添加到训练集中并进行模型训练,能够持续优化学生模型,这种增量学习的方式有效利用了新的数据来更新模型参数和权重,逐步改进模型的性能,随着训练的进行,学生模型能够逐渐适应新的数据分布,并提高在当前任务上的预测准确度;通过利用学生模型生成的标签,能够减少对大量未标记样本进行人工标注的成本和工作量,这对于大规模的数据集特别有益,避免了耗费大量时间和资源进行手动标注的过程,同时也提高了标注的效率和准确性。
具体地,在步骤四中,进行增量学习后需要对模型参数和权重进行更新,首先选取一个空的随机森林模型,其中包含一组决策树,从更新后的训练中,使用Bagging策略进行有放回抽取的方式,随机抽取样本的子集构建每个决策树的训练集,对于每棵决策树使用抽样得到的子集进行训练,在每个节点上,根据基尼系数划分样本,重复划分过程,构建出完整的决策树,将每棵决策树的预测结果进行集成,对于分类任务,通过概率平均的方式获得最终的预测结果,使用验证集或测试集对更新后的增量随机森林模型进行评估,计算模型评估指标。
使用增量学习方法更新模型,避免了重新训练整个模型的时间和计算成本,通过增量学习,能够新数据更新模型,而无需从头开始训练,节省了大量的时间和计算资源;通过随机森林算法的集成学习,将多个决策树的预测结果进行集成,提高了型的鲁棒性和泛化能力,决策树之间的集成降低了模型的方差,并减少过拟合的风险,提高模型的预测性能;使用Bagging策略进行有放回抽样,随机选择样本的子集来构建每个决策树的训练集,增加了模型的多样性,降低模型对于训练数据的敏感性,提高模型的鲁棒性和泛化能力;通过基尼系数对样本进行划分,逐步构建完整的决策树,基尼系数的选择能够最大程度地降低节点中的混乱程度,使得决策树能够更好地区分不同类别的样本,提高模型的判别能力;将每棵决策树的预测结果进行集成,对于分类任务,通过概率平均的方式获得最终的预测结果,使用验证集或测试集对更新后的增量随机森林模型进行评估,计算模型评估指标,能够及时检查模型的性能并进行调优。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
最后:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种自训练可迭代的人工智能模型训练方法,包括以下步骤:
步骤一,初始化人工智能模型:使用支持向量机算法训练一个初始人工智能模型,得到初始的模型参数和权重;
步骤二,数据准备:准备带有生成标签的未标记数据集,这些生成标签通过初始人工智能模型对未标记数据进行预测获得;
步骤三,知识重构:将初始模型作为教师模型,将生成的标签作为目标标签,使用未标记数据集作为输入,利用变分自动编码器的内在可重构特性,通过知识重构策略引导编码器的训练,对齐编码器关于历史任务数据的输出,训练一个学生模型,在知识重构过程中,通过迭代最小化教师模型与学生模型之间的交叉熵损失,让激励条件编码器将任务的真实数据编码为符合高斯分布的隐变量,通过条件解码器重构出和任务真实数据一致的样本;
步骤四,增量学习循环:从未标记的数据集中选择一批数据样本,使用学生模型对这些样本进行预测,得到生成的标签,将这些样本与生成的标签添加到训练集中,使用增量随机森林算法对训练集进行更新,调整模型参数和权重;
步骤五,重复步骤四,直到达到停止条件。
2.根据权利要求1所述的一种自训练可迭代的人工智能模型训练方法,其特征在于,步骤一的实现过程包括:
步骤S1,数据准备:采集训练数据集,训练数据集包括输入数据以及对应的输出标签,训练数据为,其中,,为训练数据集的输入特征向量,/>,为训练数据集的输入特征向量对应的标签,对训练数据进行清洗、预处理和标准化;
步骤S2,特征向量转换:对不在设定形式的输入特征向量使用核函数方法将原始特征映射到高维特征空间;
步骤S3,支持向量机模型训练:在训练数据集上使用线性支持向量机算法训练一个初始模型,模型的权重向量为,偏置顶为/>,寻找一个超平面,将不同类别的样本分隔,最大化训练样本到超平面的间隔,通过序列最小优化算法实现;
步骤S4,模型的评估:使用训练好的支持向量机模型对测试集进行预测,评估模型性能。
3.根据权利要求1所述的一种自训练可迭代的人工智能模型训练方法,其特征在于,在步骤三中,教师模型的参数为,学生模型的参数为/>,使用教师模型的参数,将未标记的数据集作为输入,通过变分自动编码器将数据映射到潜在空间中,变分自动编码器的输出为均值向量和方差向量,变分自动编码器的训练目标为最小化教师模型与学生模型之间的交叉熵损失,编码器的损失函数的公式为:
;
式中:为学生模型的均值向量,/>为教师模型与学生模型之间的交叉熵损失,/>为训练样本的序号,N为训练样本的数量,/>为均值向量,/>为方向向量。
4.根据权利要求3所述的一种自训练可迭代的人工智能模型训练方法,其特征在于,在步骤三中,使用解码器,将学生模型的潜在变量作为输入,通过解码器生成与任务数据一致的样本,解码器的训练目标是最小化任务重构损失,知识重构损失函数的公式为:
;
式中:为解码器的知识重构损失,C为训练任务的类别数,j为类别的编号,为教师模型对样本/>属于j类别的生成标签,/>为学生模型对样本/>属于j类别的预测概率。
5.根据权利要求4所述的一种自训练可迭代的人工智能模型训练方法,其特征在于,在步骤三中,在整个知识重构过程中,同归迭代最小化编码器的Kullback Leibler(KL)散度损失和解码器的任务重构损失训练学生模型的编码器,通过随机梯度下降的反向传播算法和优化器,更新学生模型和编码器的参数,整个知识重构过程的总体损失为:
;
式中:为整体损失函数,/>为知识重构项的权重超参数,且/>。
6.根据权利要求5所述的一种自训练可迭代的人工智能模型训练方法,其特征在于,在随机梯度下降的反向传播算法中,进行动态调整学习率和自训练阈值调整,再次进行模型训练和评估,动态调整学习率:
;
;
其中,为更新的学习率,/>为初始学习率,/>为更新的动量,/>是初始动量,/>为动量衰减系数,g为梯度,P为学习率衰减系数,t为迭代次数;
自训练阈值获取的公式为:
,
其中,为自训练阈值,/>为/>函数,用于取返回/>的最大值,/>为模型正确预测为正例的样本数除以实际正例的样本数,/>为模型错误预测为正例的样本数除以实际负例的样本数。
7.根据权利要求6所述的一种自训练可迭代的人工智能模型训练方法,其特征在于,在步骤四中,将未标记的数据集包含未标记的样本,未标记的数据集为,未标记的样本为,/>,…,/>,从/>中选择一批样本,选中样本集为/>,选中样本集中包含/>,/>,…,/>,其中,k为选中样本数据集中的样本数量,使用步骤三训练好的学生模型对选中样本进行预测,获得生成的标签,生成的标签为/>,将这批样本与生成的标签添加到训练集中,得到更新后的训练集,更新后的训练集为/>,更新后的训练集获取方式为:
;
式中:为更新后的训练集合,/>为标记好的输入特征向量,/>为标记好的输入特征向量对应的标签,
为已标记的训练集合,
为使用步骤三训练好的学生模型对选中样本进行预测,获得生成标签的选中样本数据集。
8.根据权利要求7所述的一种自训练可迭代的人工智能模型训练方法,其特征在于,在步骤四中,进行增量学习后需要对模型参数和权重进行更新,首先选取一个空的随机森林模型,其中包含一组决策树,从更新后的训练中,使用Bagging策略进行有放回抽取的方式,随机抽取样本的子集构建每个决策树的训练集,对于每棵决策树使用抽样得到的子集进行训练,在每个节点上,根据基尼系数划分样本,重复划分过程,构建出完整的决策树,将每棵决策树的预测结果进行集成,对于分类任务,通过概率平均的方式获得最终的预测结果,使用验证集或测试集对更新后的增量随机森林模型进行评估,计算模型评估指标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310911416.8A CN116628510A (zh) | 2023-07-25 | 2023-07-25 | 一种自训练可迭代的人工智能模型训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310911416.8A CN116628510A (zh) | 2023-07-25 | 2023-07-25 | 一种自训练可迭代的人工智能模型训练方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116628510A true CN116628510A (zh) | 2023-08-22 |
Family
ID=87597670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310911416.8A Pending CN116628510A (zh) | 2023-07-25 | 2023-07-25 | 一种自训练可迭代的人工智能模型训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116628510A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117273068A (zh) * | 2023-09-28 | 2023-12-22 | 东南大学 | 一种基于可线性扩展学习基因的模型初始化方法 |
CN117349899A (zh) * | 2023-12-06 | 2024-01-05 | 湖北省楚天云有限公司 | 基于遗忘模型的敏感数据处理方法、系统及存储介质 |
CN117596433A (zh) * | 2024-01-19 | 2024-02-23 | 自然语义(青岛)科技有限公司 | 一种基于时间轴微调的国际中文教学视听课件编辑系统 |
CN117892799A (zh) * | 2024-03-15 | 2024-04-16 | 中国科学技术大学 | 以多层次任务为导向的金融智能分析模型训练方法及系统 |
CN117892799B (zh) * | 2024-03-15 | 2024-06-04 | 中国科学技术大学 | 以多层次任务为导向的金融智能分析模型训练方法及系统 |
-
2023
- 2023-07-25 CN CN202310911416.8A patent/CN116628510A/zh active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117273068A (zh) * | 2023-09-28 | 2023-12-22 | 东南大学 | 一种基于可线性扩展学习基因的模型初始化方法 |
CN117273068B (zh) * | 2023-09-28 | 2024-04-16 | 东南大学 | 一种基于可线性扩展学习基因的模型初始化方法 |
CN117349899A (zh) * | 2023-12-06 | 2024-01-05 | 湖北省楚天云有限公司 | 基于遗忘模型的敏感数据处理方法、系统及存储介质 |
CN117349899B (zh) * | 2023-12-06 | 2024-04-05 | 湖北省楚天云有限公司 | 基于遗忘模型的敏感数据处理方法、系统及存储介质 |
CN117596433A (zh) * | 2024-01-19 | 2024-02-23 | 自然语义(青岛)科技有限公司 | 一种基于时间轴微调的国际中文教学视听课件编辑系统 |
CN117596433B (zh) * | 2024-01-19 | 2024-04-05 | 自然语义(青岛)科技有限公司 | 一种基于时间轴微调的国际中文教学视听课件编辑系统 |
CN117892799A (zh) * | 2024-03-15 | 2024-04-16 | 中国科学技术大学 | 以多层次任务为导向的金融智能分析模型训练方法及系统 |
CN117892799B (zh) * | 2024-03-15 | 2024-06-04 | 中国科学技术大学 | 以多层次任务为导向的金融智能分析模型训练方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116628510A (zh) | 一种自训练可迭代的人工智能模型训练方法 | |
CN109142171B (zh) | 基于特征扩张的融合神经网络的城市pm10浓度预测方法 | |
Dorado-Moreno et al. | Multi-task learning for the prediction of wind power ramp events with deep neural networks | |
CN111667098B (zh) | 一种基于多模型组合优化的风力电站输出功率预测方法 | |
CN110674323B (zh) | 基于虚拟标签回归的无监督跨模态哈希检索方法及系统 | |
CN113190699A (zh) | 一种基于类别级语义哈希的遥感图像检索方法及装置 | |
CN109697289A (zh) | 一种改进的用于命名实体识别的主动学习方法 | |
CN113326969A (zh) | 基于改进鲸鱼算法优化elm的短期风速预测方法及系统 | |
Liu et al. | Heating load forecasting for combined heat and power plants via strand-based LSTM | |
CN110363349A (zh) | 一种基于ascs的lstm神经网络水文预测方法及系统 | |
CN113762716B (zh) | 基于深度学习和注意力的台区运行状态评估方法及系统 | |
CN114462718A (zh) | 基于时间滑动窗口的cnn-gru风电功率预测方法 | |
Li et al. | Deep spatio-temporal wind power forecasting | |
CN116644970A (zh) | 一种基于vmd分解和叠层深度学习的光伏功率预测方法 | |
CN114548591A (zh) | 一种基于混合深度学习模型和Stacking的时序数据预测方法及系统 | |
CN115659254A (zh) | 一种双模态特征融合的配电网电能质量扰动分析方法 | |
CN116245259B (zh) | 基于深度特征选择的光伏发电预测方法、装置和电子设备 | |
CN112836876A (zh) | 一种基于深度学习的配电网线路负荷预测方法 | |
CN117390550A (zh) | 考虑排放训练集的低碳园区碳排放动态预测方法及系统 | |
CN109545372B (zh) | 一种基于距离贪心策略的病人生理数据特征选择方法 | |
CN116565876A (zh) | 一种鲁棒强化学习的配网潮流优化方法及计算机可读介质 | |
CN115796327A (zh) | 一种基于vmd和iwoa-f-gru模型的风电功率区间预测方法 | |
CN113762591A (zh) | 一种基于gru和多核svm对抗学习的短期电量预测方法及系统 | |
CN111563413A (zh) | 一种基于混合双模型的年龄预测方法 | |
CN113537539B (zh) | 一种基于注意力机制的多时间步供热用气量预测模型 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20230822 |