CN117540828A - 作训科目推荐模型训练方法、装置、电子设备和存储介质 - Google Patents
作训科目推荐模型训练方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN117540828A CN117540828A CN202410033227.XA CN202410033227A CN117540828A CN 117540828 A CN117540828 A CN 117540828A CN 202410033227 A CN202410033227 A CN 202410033227A CN 117540828 A CN117540828 A CN 117540828A
- Authority
- CN
- China
- Prior art keywords
- training
- subject
- model
- recommendation model
- training subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 451
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000000605 extraction Methods 0.000 claims abstract description 28
- 239000011159 matrix material Substances 0.000 claims abstract description 16
- QVFWZNCVPCJQOP-UHFFFAOYSA-N chloralodol Chemical compound CC(O)(C)CC(C)OC(O)C(Cl)(Cl)Cl QVFWZNCVPCJQOP-UHFFFAOYSA-N 0.000 claims abstract description 14
- 230000003993 interaction Effects 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 53
- 238000004590 computer program Methods 0.000 claims description 18
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 230000003044 adaptive effect Effects 0.000 claims description 5
- 230000003542 behavioural effect Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000007547 defect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 102100033814 Alanine aminotransferase 2 Human genes 0.000 description 1
- 101710096000 Alanine aminotransferase 2 Proteins 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及一种作训科目推荐模型训练方法、装置、电子设备和存储介质。该方法包括:获取作训数据训练样本集;作训数据包括参训人员和作训科目;基于多个参训人员与多个作训科目之间的交叉特征矩阵,构建表征参训人员与作训科目交互关系的二分图;将二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果;依据第一损失函数迭代更新作训科目推荐模型的模型参数,直至达到预设的迭代终止条件,以获得经训练的作训科目推荐模型;其中第一损失函数由一致性损失函数和交叉熵损失函数确定;利用低秩自适应LoRA算法对作训科目推荐模型的模型参数进行微调。本申请能够得到提高作训科目推荐准确度,提升个性化作训科目推荐模型性能。
Description
技术领域
本申请涉及个性化推荐技术领域,尤其涉及一种作训科目推荐模型训练方法、装置、电子设备和存储介质。
背景技术
在推进新一轮信息化革命的进程中,对作训科目的推荐方式提出了崭新而迫切的要求。过往的训练方法在尊重个体差异性方面尚存不足,难以精准地构建个性化的训练计划。在作训领域引入推荐系统的应用,运用推荐算法对训练数据进行深入分析,从而塑造具有针对性的训练方案,必将为提升整体作战能力提供科学而有力的支撑。
但是现有技术方案中,由于作训科目和参训人员之间具有复杂的关系,且推荐模型结构复杂、参数多,在性能优化和推荐准确性方面可能存在一定的局限性。如何克服上述缺陷,得到更高的作训科目推荐准确度,提升训练个性化推荐模型性能,是需要解决的技术问题。
发明内容
本申请意在提供一种作训科目推荐模型训练方法、装置、电子设备和存储介质,以解决现有技术中存在的不足,本申请要解决的技术问题通过以下技术方案来实现。
本实施例第一方面提出了一种作训科目推荐模型训练方法,包括:
获取作训数据训练样本集;所述作训数据包括参训人员数据和作训科目数据;
基于多个参训人员与多个作训科目之间的交叉特征矩阵,构建表征参训人员与作训科目交互关系的二分图;
将所述二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果;
依据第一损失函数迭代更新所述作训科目推荐模型的模型参数,直至达到预设的迭代终止条件,以获得经训练的所述作训科目推荐模型;其中所述第一损失函数由一致性损失函数和交叉熵损失函数确定。
进一步地,所述方法还包括:利用低秩自适应LoRA算法对所述作训科目推荐模型的模型参数进行微调。
进一步地,所述参训人员数据包括行为模式和/或兴趣偏好;和/或,
所述作训科目数据包括作训科目类别、作训科目内容和/或难度;和/或,
所述二分图的节点表示参训人员和作训科目,节点之间的边表示参训人员参与作训科目,边的权重表示参训人员参与作训科目所获得的分数。
进一步地,所述作训科目推荐模型基于双塔结构的图卷积神经网络进行构建,包括参训人员塔子网络和作训科目塔子网络;所述参训人员塔子网络被配置为提取参训人员特征;所述作训科目塔子网络被配置为提取作训科目特征。
进一步地,将所述二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果,包括:
依据所述二分图,分别提取参训人员和作训科目的图嵌入特征;
将参训人员和作训科目的图嵌入特征分别输入至所述作训科目推荐模型的所述参训人员塔子网络和所述作训科目塔子网络,获得对应的参训人员增强特征和作训科目增强特征;
依据参训人员增强特征和作训科目增强特征的相似性,获得作训科目推荐结果,并确定所述一致性损失函数;所述一致性损失函数包括JS散度。
进一步地,将所述二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果,还包括:利用Dropout算法对所述作训科目推荐结果进行自一致性学习。
本实施例第二方面提出了一种作训科目推荐模型训练装置,包括:
作训数据训练样本集获取模块,被配置为获取作训数据训练样本集;所述作训数据包括参训人员数据和作训科目数据;
二分图构建模块,被配置为基于多个参训人员与多个作训科目之间的交叉特征矩阵,构建表征参训人员与作训科目交互关系的二分图;
作训科目推荐模块,被配置为将所述二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果;
模型训练模块,被配置为依据第一损失函数迭代更新所述作训科目推荐模型的模型参数,直至达到预设的迭代终止条件,以获得经训练的所述作训科目推荐模型;其中所述第一损失函数由一致性损失函数和交叉熵损失函数确定。
进一步地,所述装置还包括:
模型参数微调模块,被配置为利用低秩自适应LoRA算法对所述作训科目推荐模型的模型参数进行微调。
本实施例第三方面提出了一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,所述处理器在执行所述计算机程序时,实现如第一方面所述方法的步骤。
本实施例第四方面提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述方法的步骤。
本申请实施例包括以下优点:
本申请实施例提供的作训科目训练模型训练方法,首先获取作训数据训练样本集;作训数据包括参训人员和作训科目;基于多个参训人员与多个作训科目之间的交叉特征矩阵,构建表征参训人员与作训科目交互关系的二分图;将二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果;依据第一损失函数迭代更新作训科目推荐模型的模型参数,直至达到预设的迭代终止条件,以获得经训练的作训科目推荐模型;其中第一损失函数由一致性损失函数和交叉熵损失函数确定;利用低秩自适应LoRA算法对作训科目推荐模型的模型参数进行微调。本申请通过提供具有针对性的作训科目推荐方案,优化作训科目推荐模型性能,进一步提高了作训科目推荐准确度,有效提升参训人员的训练效果,具有推广价值和应用前景。
附图说明
图1是本申请实施例的一种作训科目训练模型训练方法流程示意图之一;
图2是本申请实施例的一种作训科目训练模型训练方法中二分图示意图;
图3是本申请实施例的作训科目训练模型结构示意图;
图4是本申请实施例的一种作训科目训练模型训练方法流程示意图之二;
图5是本申请实施例的一种作训科目训练模型训练方法流程示意图之三;
图6是本申请实施例的一种作训科目训练模型训练装置结构示意图之一;
图7是本申请实施例的一种作训科目训练模型训练装置结构示意图之二;
图8是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如背景技术所述,在推进新一轮作训信息化革命的进程中,对作训科目及作训方式提出了崭新而迫切的要求。过往的作训方式在尊重个体差异性方面尚存不足,难以精准地构建个性化的作训计划。在作训领域引入推荐系统的应用,运用推荐算法对作训数据进行深入分析,从而塑造具有针对性的作训方案,必将为提升整体作战能力提供科学而有力的支撑。因此,深入研究和广泛应用个性化作训科目推荐方案,具备重要的理论意义和实践价值。
发明人经过检索发现,在作训领域的推荐系统已经展现出多方面的应用潜力。现有技术已提出了基于深度神经网络和Doc2Vec技术的战场态势智能推送算法,充分利用用户与态势信息的历史交互信息,以揭示二者之间的密切联系,是混合推荐模型在战场态势智能推送领域的典型应用范例。还有现有技术提出作训文本信息智能推荐技术,依据作训文本内容,构建了作训用户角色的层次特征模型,以实现作训信息的智能化推送。现有技术还提出基于深度学习的混合推荐模型Cross-DeepFM,该模型融合了深度残差神经网络、深度交叉网络和因子分解机等技术,经过在真实作训数据集上的验证,相对于主流推荐模型,呈现出更高的推荐准确度,实现了作训个性化推荐。
对于Cross-DeepFM作训混合推荐模型,其应用过程组成部分包括数据采集、数据预处理和特征提取、推荐模型设计、模型训练和模型评估与应用。数据采集,着重于搜集推荐模型所需的原始数据,采集了某作训院校4个季度的学员作训成绩,以及参训人员和作训科目信息,以构建作训数据集。数据预处理和特征提取,针对原始数据中存在的冗余、缺失与异常等数据异常情形,进行修正和处理。经过one-hot编码和归一化等步骤,数据得以整理至符合模型训练需求的格式。推荐模型设计,为提高推荐效果,克服传统推荐模型面临的数据稀疏和冷启动问题,在DeepFM模型结构的基础上,提出了一种结合深度残差网络、深度交叉网络和因子分解机的混合推荐模型。模型训练,每轮训练输入一个批次的数据,根据设定好的损失函数计算损失值,应用误差反向传播算法计算梯度,并利用梯度下降算法更新模型参数,循环迭代至模型收敛。模型评估与应用,选定评估指标,在构建的作训数据集上测试模型性能,并与因子分解机、深度因子分解机和深度交叉网络等模型进行对比,并最终通过结合多个模型输出结果完成作训推荐任务。该现有技术基于DeepFM模型,结合深度残差网络、深度交叉网络和因子分解机来设计一种混合作训科目推荐模型,为不同的参训人员生成个性化的训练方案。
然而,上述现有技术现有技术Cross-DeepFM训练推荐模型存在以下缺点和问题。首先,未能建模训练中的复杂关系。在作训场景中,存在作训科目多样化和参训人员差异化情况,这导致两者之间往往存在复杂的关系。传统的推荐模型可能无法有效地捕捉和建模这些复杂关系。其次,特征提取能力不足。传统的推荐模型可能无法充分提取参训人员和作训科目的特征,导致推荐结果不准确或过于一致。第三,训练与推理阶段不一致问题。传统的推荐模型为了解决过拟合问题往往采用Dropout算法,而仅在训练阶段使用Dropout算法会引起训练与推理阶段不一致问题,进而影响模型的泛化能力。第四,高参数量问题。由于神经网络层数加深,以及多个模型相结合导致模型参数量大幅度提高。虽然模型能取得不错的效果,但对硬件需要较高,模型的实用性、可推广性较低。
现有技术的这些缺点和问题的产生主要包括以下原因。首先,Cross-DeepFM模型基于DeepFM模型构建,未使用能够表达参训人员和作训科目之间关系的数据结构来有效的捕捉和建模这些复杂关系。其次,作训数据的稀疏性导致模型难以充分捕捉到它们之间的关系和特征表示,进而造成模型特征提取能力不足,并且现有的推荐模型可能只关注参训人员的作训科目的局部信息,缺乏对全局上下文的充分考虑,也可能导致特征提取能力不足。第三,现有推荐模型具有较大的参数量,尤其在处理小规模数据时容易出现过拟合。解决过拟合问题采用Dropout算法,但是仅在训练阶段使用Dropout算法会导致训练与推理阶段不一致,影响模型的泛化能力。最后,由于深度学习模型参数量不断增加,对硬件的需求越来越高,导致高参数量的模型无法有效推广,极大的限制了其发展应用。
综上所述,针对这些问题,本申请提出了在构建参训人员-作训科目二分图的基础上,基于双塔结构的图卷积神经网络结合自一致性学习、LoRA算法的优化方案,以解决建模复杂关系、模型特征提取能力不足和训练与推理阶段不一致问题、参数量高等问题,从而提升作训科目推荐的性能和实用性。
实施例一:
本申请实施例的作训科目推荐模型训练方法的技术思路是在获得作训数据预处理得到样本数据,二分图构建形成图结构,提取属性特征矩阵;使用双塔结构的图卷积神经网络采用多层结构提取参训人员和训练科目的表征,增强特征提取能力;通过自一致性学习算法优化模型输出;通过LoRA算法优化模型参数量。
如图1所示,为本申请实施例的一种作训科目推荐模型训练方法流程示意图。所述方法包括:
S101:获取作训数据训练样本集;所述作训数据包括参训人员数据和作训科目数据。
S102:基于多个参训人员与多个作训科目之间的交叉特征矩阵,构建表征参训人员与作训科目交互关系的二分图。
S103:将所述二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果。
S104:依据第一损失函数迭代更新所述作训科目推荐模型的模型参数,直至达到预设的迭代终止条件,以获得经训练的所述作训科目推荐模型;其中所述第一损失函数由一致性损失函数和交叉熵损失函数确定。
在一些实施例中,所述参训人员数据包括行为模式和/或兴趣偏好。
在一些实施例中,所述作训科目数据包括作训科目类别、作训科目内容和/或难度。
在一些实施例中,基于多个参训人员与多个作训科目之间的交叉特征矩阵,构建表征参训人员与作训科目交互关系的二分图。如图2所示,所述二分图的节点表示参训人员和作训科目,节点之间的边表示参训人员参与作训科目,边的权重表示参训人员参与作训科目所获得的分数。需要说明的是,二分图又称作二部图,是图论中的一种特殊模型,它由两个互不相交的实体集以及两个实体集之间的关系组成。在现实生活中,不仅要考虑同类型实体间的关系,还要考虑不同类型实体间的关系,因此,二分图理论被广泛应用于聚类、匿名数据、、图像分类等领域。
在一些实施例中,如图3所示,所述作训科目推荐模型基于双塔结构的图卷积神经网络进行构建,包括参训人员塔子网络和作训科目塔子网络;所述参训人员塔子网络被配置为提取参训人员特征;所述作训科目塔子网络被配置为提取作训科目特征。
具体地,由于二分图本身也是图结构的一种,图结构的特殊性例如局部连接,所以卷积神经网络的权重共享、多层叠加等特点作用,在图上同样有效,但仅限于提取欧几里得空间数据的特征方面,在处理非欧几里得空间数据的效果并不尽如人意。所以卷积神经网络只能处理一维的文本信息或者二维信息,而对于图结构,卷积神经网络很难适用。为了解决这一问题,提出了多种图神经网络GNN模型,如图卷积神经网络、图注意力神经网络、图的空域网络和图生成网络等。图神经网络GNN利用图上的边来表示结点间的依存关系,并通过图的拓扑结构进行传播,对邻居结点进行加权求和来更新结点的隐藏状态。捕获每个结点的隐藏状态,该隐藏状态涉及到某些结点的某些邻居结点的信息,采用迭代法来更新图上所有结点,从而使每个结点都能获取到其他结点的信息。
具体地,引入双塔结构可以有效增强模型的特征提取能力。双塔结构由两个独立的塔组成,用于学习参训人员和作训科目的表征。每个塔都具有自己的参数和权重,以捕捉参训人员和作训科目的不同特征。通过双塔结构,模型能够从两个不同的视角对参训人员和作训科目进行建模,从而更全面地捕捉它们的特征表示。一方面,双塔结构专注于参训人员的行为模式、兴趣偏好等个性化特征,另一方面则专注于作训科目的属性、内容、难度等特征。这种双塔结构使得模型能够更好地捕捉不同领域的特征,从而提高了模型的表达能力和特征提取能力。此外,利用双塔结构,模型可以更深层次的挖掘参训人员和作训科目之间的复杂关系,更好地理解参训人员和作训科目的特征表示,提高推荐系统的准确性和个性化程度。通过增强特征提取能力,双塔结构在本申请中发挥了关键作用,使得模型能够更好地理解参训人员和作训科目的特征,从而提供更精准和个性化的作训科目推荐。
在一些实施例中,将所述二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果,如图4所示,包括:
S411:依据所述二分图,分别提取参训人员和作训科目的图嵌入特征。
S412:将参训人员和作训科目的图嵌入特征分别输入至所述作训科目推荐模型的所述参训人员塔子网络和所述作训科目塔子网络,获得对应的参训人员增强特征和作训科目增强特征。
S413:依据参训人员增强特征和作训科目增强特征的相似性,获得作训科目推荐结果,并确定所述一致性损失函数;所述一致性损失函数包括JS散度。
S414:利用Dropout算法对所述作训科目推荐结果进行自一致性学习。
需要说明的是,图嵌入是图表征学习的重要组成部分,是图论中的一个概念,也是常用的一种使维数降维的方法,图嵌入的目的是将高维的图结构嵌入到低维的向量空间中。
此外,本实施例中利用了自一致性学习算法,以解决训练与推理阶段不一致问题。自一致性学习算法通过对模型输出的一致性进行约束,使模型更具备泛化性能,从而减轻过拟合的现象。自一致性学习算法通过设计一致性损失函数来实现。该损失函数鼓励模型在不同的输入条件下产生一致的输出。具体而言,利用Dropout算法随机舍弃部分神经元,引入一些噪声或扰动,然后利用自一致性学习算法约束模型的输出,使其在训练和推理阶段保持一致。这样,模型需要学会对输入的微小变化保持鲁棒性,从而提高了模型的泛化能力。自一致性学习算法有两个主要作用。首先,它通过相似性算法约束模型的输出,避免模型在训练阶段和推理阶段存在不一致的问题。其次,自一致性学习利用Dropout算法,引入扰动来增强模型的鲁棒性,使其对输入的微小变化具有更好的稳定性,减少了过拟合的风险。因此,通过引入自一致性学习算法,本申请能够优化模型输出,缓解训练与推理阶段不一致问题,提高推荐系统的泛化能力和性能。
在一些实施例中,如图5所示,为本申请实施例的一种作训科目推荐模型训练方法的另一种实现方式流程示意图,所述方法还包括:
S105:利用低秩自适应LoRA算法对所述作训科目推荐模型的模型参数进行微调。
需要说明的是,低秩自适应LoRA算法可以冻结预训练模型权重,并将可训练的秩分解矩阵注入到模型架构的每个层中,从而大大减少下游任务的可训练参数数量。LoRA可以共享预训练模型,从而大大降低存储要求和任务切换开销;通过只优化注入的、更小的低秩矩阵,使训练更加高效,并在使用自适应优化器时将硬件门槛大大降低,不需要计算大多数参数的梯度或维护优化器状态,只需要优化注入的、更小的低秩矩阵。因此,LoRA算法与完全微调的模型相比,不会引入推理延迟。现有应用中,LoRA算法在RoBERTa、DeBERTa、GPT-2 和 GPT-3 上的模型质量上与微调相当或更好,尽管它具有更少的可训练参数、更高的训练吞吐量,并且与适配器不同,没有额外的推理延迟。
本申请实施例提供的作训科目训练模型训练方法,首先获取作训数据训练样本集;作训数据包括参训人员和作训科目;基于多个参训人员与多个作训科目之间的交叉特征矩阵,构建表征参训人员与作训科目交互关系的二分图;将二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果;依据第一损失函数迭代更新作训科目推荐模型的模型参数,直至达到预设的迭代终止条件,以获得经训练的作训科目推荐模型;其中第一损失函数由一致性损失函数和交叉熵损失函数确定;利用低秩自适应LoRA算法对作训科目推荐模型的模型参数进行微调。本申请实施例采用二分图建模作训过程中的复杂关系,双塔结构和自一致性学习算法的引入增强了模型的特征提取能力和泛化能力,解决了特征提取不足和过拟合的问题,提高了推荐系统的准确性和个性化程度;LoRA算法的应用进一步优化了模型的参数量,提升了系统实用性,能够得到提高作训科目推荐准确度,提升个性化作训科目推荐模型性能。
实施例二:
图6是本申请实施例提供的一种作训科目推荐模型训练装置的示意图。如图6所示,该作训科目推荐模型训练装置包括:
作训数据训练样本集获取模块601,被配置为获取作训数据训练样本集;所述作训数据包括参训人员数据和作训科目数据;
二分图构建模块602,被配置为基于多个参训人员与多个作训科目之间的交叉特征矩阵,构建表征参训人员与作训科目交互关系的二分图;
作训科目推荐模块603,被配置为将所述二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果;
模型训练模块604,被配置为依据第一损失函数迭代更新所述作训科目推荐模型的模型参数,直至达到预设的迭代终止条件,以获得经训练的所述作训科目推荐模型;其中所述第一损失函数由一致性损失函数和交叉熵损失函数确定。
如图7所示,本申请实施例的作训科目推荐模型训练装置的另一种实现方式,还包括:
模型参数微调模块605,被配置为利用低秩自适应LoRA算法对所述作训科目推荐模型的模型参数进行微调。
应理解,本说明书实施例的一种作训科目推荐模型训练装置还可执行图1至图5中作训科目推荐模型训练装置执行的方法,并实现作训科目推荐模型训练装置在图1至图5所示实例的功能,在此不再赘述。同时,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
实施例三:
图8是本申请实施例提供的电子设备8的示意图。如图8所示,该实施例的电子设备8包括:处理器801、存储器802以及存储在该存储器802中并且可在处理器801上运行的计算机程序803。处理器801执行计算机程序803时实现上述各个方法实施例中的步骤。或者,处理器801执行计算机程序803时实现上述各装置实施例中各模块/单元的功能。
电子设备8可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备8可以包括但不仅限于处理器801和存储器802。本领域技术人员可以理解,图8仅仅是电子设备8的示例,并不构成对电子设备8的限定,可以包括比图示更多或更少的部件,或者不同的部件。
存储器802可以是电子设备8的内部存储单元,例如,电子设备8的硬盘或内存。存储器802也可以是电子设备8的外部存储设备,例如,电子设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器802还可以既包括电子设备8的内部存储单元也包括外部存储设备。存储器802用于存储计算机程序以及电子设备所需的其它程序和数据。
处理器801可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器801从非易失性存储器中读取对应的计算机程序到内存中然后运行,在逻辑层面上形成共享资源访问控制装置。处理器,执行存储器所存放的程序,并具体用于执行以下操作:
获取作训数据训练样本集;所述作训数据包括参训人员数据和作训科目数据;
基于多个参训人员与多个作训科目之间的交叉特征矩阵,构建表征参训人员与作训科目交互关系的二分图;
将所述二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果;
依据第一损失函数迭代更新所述作训科目推荐模型的模型参数,直至达到预设的迭代终止条件,以获得经训练的所述作训科目推荐模型;其中所述第一损失函数由一致性损失函数和交叉熵损失函数确定。
上述如本说明书图1至图5所示实施例揭示的作训科目推荐模型训练方法可以应用于处理器801中,或者由处理器801实现。处理器801可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以实现或者执行本说明书实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本说明书实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
当然,除了软件实现方式之外,本说明书实施例的电子设备并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
实施例四:
本说明书实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,该指令当被包括多个应用程序的便携式电子设备执行时,能够使该便携式电子设备执行图1至图5所示实施例的作训科目推荐模型训练方法,并具体用于执行以下方法:
获取作训数据训练样本集;所述作训数据包括参训人员数据和作训科目数据;
基于多个参训人员与多个作训科目之间的交叉特征矩阵,构建表征参训人员与作训科目交互关系的二分图;
将所述二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果;
依据第一损失函数迭代更新所述作训科目推荐模型的模型参数,直至达到预设的迭代终止条件,以获得经训练的所述作训科目推荐模型;其中所述第一损失函数由一致性损失函数和交叉熵损失函数确定。
总之,以上该仅为本说明书的较佳实施例而已,并非用于限定本说明书的保护范围。凡在本说明书的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本说明书的保护范围之内。
应该指出,上述详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语均具有与本申请所属技术领域的普通技术人员的通常理解所相同的含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式。此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的术语在适当情况下可以互换,以便这里描述的本申请的实施方式能够以除了在这里图示或描述的那些以外的顺序实施。
此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含。例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了便于描述,在这里可以使用空间相对术语,如“在……之上”、“在……上方”、“在……上表面”、“上面的”等,用来描述如在图中所示的一个器件或特征与其他器件或特征的空间位置关系。应当理解的是,空间相对术语旨在包含除了器件在图中所描述的方位之外的在使用或操作中的不同方位。例如,如果附图中的器件被倒置,则描述为“在其他器件或构造上方”或“在其他器件或构造之上”的器件之后将被定位为“在其他器件或构造下方”或“在其他器件或构造之下”。因而,示例性术语“在……上方”可以包括“在……上方”和“在……下方”两种方位。该器件也可以其他不同方式定位,如旋转90度或处于其他方位,并且对这里所使用的空间相对描述作出相应解释。
在上面详细的说明中,参考了附图,附图形成本文的一部分。在附图中,类似的符号典型地确定类似的部件,除非上下文以其他方式指明。在详细的说明书、附图及权利要求书中所描述的图示说明的实施方案不意味是限制性的。在不脱离本文所呈现的主题的精神或范围下,其他实施方案可以被使用,并且可以作其他改变。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种作训科目推荐模型训练方法,其特征在于,包括:
获取作训数据训练样本集;所述作训数据包括参训人员数据和作训科目数据;
基于多个参训人员与多个作训科目之间的交叉特征矩阵,构建表征参训人员与作训科目交互关系的二分图;
将所述二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果;
依据第一损失函数迭代更新所述作训科目推荐模型的模型参数,直至达到预设的迭代终止条件,以获得经训练的所述作训科目推荐模型;其中所述第一损失函数由一致性损失函数和交叉熵损失函数确定。
2.根据权利要求1所述的作训科目推荐模型训练方法,其特征在于,还包括:利用低秩自适应LoRA算法对所述作训科目推荐模型的模型参数进行微调。
3.根据权利要求1或2任一项所述的作训科目推荐模型训练方法,其特征在于,所述参训人员数据包括行为模式和/或兴趣偏好;和/或,
所述作训科目数据包括作训科目类别、作训科目内容和/或难度;和/或,
所述二分图的节点表示参训人员和作训科目,节点之间的边表示参训人员参与作训科目,边的权重表示参训人员参与作训科目所获得的分数。
4.根据权利要求1或2任一项所述的作训科目推荐模型训练方法,其特征在于,所述作训科目推荐模型基于双塔结构的图卷积神经网络进行构建,包括参训人员塔子网络和作训科目塔子网络;所述参训人员塔子网络被配置为提取参训人员特征;所述作训科目塔子网络被配置为提取作训科目特征。
5.根据权利要求4所述的作训科目推荐模型训练方法,其特征在于,将所述二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果,包括:
依据所述二分图,分别提取参训人员和作训科目的图嵌入特征;
将参训人员和作训科目的图嵌入特征分别输入至所述作训科目推荐模型的所述参训人员塔子网络和所述作训科目塔子网络,获得对应的参训人员增强特征和作训科目增强特征;
依据参训人员增强特征和作训科目增强特征的相似性,获得作训科目推荐结果,并确定所述一致性损失函数;所述一致性损失函数包括JS散度。
6.根据权利要求5所述的作训科目推荐模型训练方法,其特征在于,将所述二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果,还包括:利用Dropout算法对所述作训科目推荐结果进行自一致性学习。
7.一种作训科目推荐模型训练装置,其特征在于,包括:
作训数据训练样本集获取模块,被配置为获取作训数据训练样本集;所述作训数据包括参训人员数据和作训科目数据;
二分图构建模块,被配置为基于多个参训人员与多个作训科目之间的交叉特征矩阵,构建表征参训人员与作训科目交互关系的二分图;
作训科目推荐模块,被配置为将所述二分图输入至预设的作训科目推荐模型中进行特征提取,获得作训科目推荐结果;
模型训练模块,被配置为依据第一损失函数迭代更新所述作训科目推荐模型的模型参数,直至达到预设的迭代终止条件,以获得经训练的所述作训科目推荐模型;其中所述第一损失函数由一致性损失函数和交叉熵损失函数确定。
8.根据权利要求7所述的作训科目推荐模型训练装置,其特征在于,还包括:
模型参数微调模块,被配置为利用低秩自适应LoRA算法对所述作训科目推荐模型的模型参数进行微调。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器在执行所述计算机程序时,实现如权利要求1至6中任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410033227.XA CN117540828B (zh) | 2024-01-10 | 2024-01-10 | 作训科目推荐模型训练方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410033227.XA CN117540828B (zh) | 2024-01-10 | 2024-01-10 | 作训科目推荐模型训练方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117540828A true CN117540828A (zh) | 2024-02-09 |
CN117540828B CN117540828B (zh) | 2024-06-04 |
Family
ID=89792327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410033227.XA Active CN117540828B (zh) | 2024-01-10 | 2024-01-10 | 作训科目推荐模型训练方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117540828B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190391982A1 (en) * | 2018-06-21 | 2019-12-26 | Yandex Europe Ag | Method of and system for ranking search results using machine learning algorithm |
CN112597356A (zh) * | 2020-12-02 | 2021-04-02 | 京东数字科技控股股份有限公司 | 模型训练方法、个性化数据推荐方法、装置及电子设备 |
CN114443983A (zh) * | 2022-02-08 | 2022-05-06 | 阿里巴巴(中国)有限公司 | 模型训练、应用方法及计算机存储介质 |
CN115284288A (zh) * | 2022-08-09 | 2022-11-04 | 清华大学 | 多机器人在线任务分配和执行方法、装置及存储介质 |
WO2023000574A1 (zh) * | 2021-07-21 | 2023-01-26 | 浪潮(北京)电子信息产业有限公司 | 一种模型训练方法、装置、设备及可读存储介质 |
CN116244512A (zh) * | 2023-01-17 | 2023-06-09 | 航天物联网技术有限公司 | 一种基于图结构数据的军事体能训练智能推荐方法 |
CN116611497A (zh) * | 2023-07-20 | 2023-08-18 | 深圳须弥云图空间科技有限公司 | 一种点击率预估模型训练方法和装置 |
-
2024
- 2024-01-10 CN CN202410033227.XA patent/CN117540828B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190391982A1 (en) * | 2018-06-21 | 2019-12-26 | Yandex Europe Ag | Method of and system for ranking search results using machine learning algorithm |
CN112597356A (zh) * | 2020-12-02 | 2021-04-02 | 京东数字科技控股股份有限公司 | 模型训练方法、个性化数据推荐方法、装置及电子设备 |
WO2023000574A1 (zh) * | 2021-07-21 | 2023-01-26 | 浪潮(北京)电子信息产业有限公司 | 一种模型训练方法、装置、设备及可读存储介质 |
CN114443983A (zh) * | 2022-02-08 | 2022-05-06 | 阿里巴巴(中国)有限公司 | 模型训练、应用方法及计算机存储介质 |
CN115284288A (zh) * | 2022-08-09 | 2022-11-04 | 清华大学 | 多机器人在线任务分配和执行方法、装置及存储介质 |
CN116244512A (zh) * | 2023-01-17 | 2023-06-09 | 航天物联网技术有限公司 | 一种基于图结构数据的军事体能训练智能推荐方法 |
CN116611497A (zh) * | 2023-07-20 | 2023-08-18 | 深圳须弥云图空间科技有限公司 | 一种点击率预估模型训练方法和装置 |
Non-Patent Citations (3)
Title |
---|
吴冲华;滕宗平;李颖;徐洪群;: "炮兵指挥系统模拟训练评估模型及其实现方法", 火力与指挥控制, no. 08, 15 August 2011 (2011-08-15) * |
国海峰;刘泽乾;陈丹强;: "机载武器系统模拟训练仿真平台设计", 计算机测量与控制, no. 05, 25 May 2010 (2010-05-25) * |
高永强等: "基于Cross-DeepFM的军事训练推荐模型", 计算机工程与科学, vol. 44, no. 8, 31 August 2022 (2022-08-31), pages 1364 - 1371 * |
Also Published As
Publication number | Publication date |
---|---|
CN117540828B (zh) | 2024-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | Skeletonnet: A hybrid network with a skeleton-embedding process for multi-view image representation learning | |
El Mohadab et al. | Predicting rank for scientific research papers using supervised learning | |
CN113822315A (zh) | 属性图的处理方法、装置、电子设备及可读存储介质 | |
CN110993037A (zh) | 一种基于多视图分类模型的蛋白质活性预测装置 | |
Lim et al. | A convolutional decoder for point clouds using adaptive instance normalization | |
CN113837379A (zh) | 神经网络的训练方法及装置、计算机可读存储介质 | |
Song et al. | A novel automated approach for software effort estimation based on data augmentation | |
CN111639230B (zh) | 一种相似视频的筛选方法、装置、设备和存储介质 | |
Zhang et al. | Online modeling of esthetic communities using deep perception graph analytics | |
Zhou et al. | Multi-scale graph classification with shared graph neural network | |
Gashler et al. | Missing value imputation with unsupervised backpropagation | |
Wu et al. | Fusing hybrid attentive network with self-supervised dual-channel heterogeneous graph for knowledge tracing | |
CN117540828B (zh) | 作训科目推荐模型训练方法、装置、电子设备和存储介质 | |
CN116522232A (zh) | 文档分类方法、装置、设备及存储介质 | |
CN116467466A (zh) | 基于知识图谱的编码推荐方法、装置、设备及介质 | |
CN116978450A (zh) | 蛋白质数据的处理方法、装置、电子设备及存储介质 | |
Mishra et al. | Unsupervised functional link artificial neural networks for cluster Analysis | |
Yan | [Retracted] Audience Evaluation and Analysis of Symphony Performance Effects Based on the Genetic Neural Network Algorithm for the Multilayer Perceptron (GA‐MLP‐NN) | |
Zhu et al. | A Winner‐Take‐All Autoencoder Based Pieceswise Linear Model for Nonlinear Regression with Missing Data | |
Zhao et al. | RA-HGNN: Attribute completion of heterogeneous graph neural networks based on residual attention mechanism | |
CN112328879A (zh) | 新闻推荐方法、装置、终端设备及存储介质 | |
CN113205175A (zh) | 一种基于互信息最大化的多层属性网络表征学习方法 | |
Yang et al. | Multi-scale shape boltzmann machine: A shape model based on deep learning method | |
CN111091198A (zh) | 一种数据处理方法及装置 | |
Long | Qualitative spatial and temporal representation and reasoning: efficiency in time and space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |