CN117540024B - 一种分类模型的训练方法、装置、电子设备和存储介质 - Google Patents
一种分类模型的训练方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN117540024B CN117540024B CN202410029694.5A CN202410029694A CN117540024B CN 117540024 B CN117540024 B CN 117540024B CN 202410029694 A CN202410029694 A CN 202410029694A CN 117540024 B CN117540024 B CN 117540024B
- Authority
- CN
- China
- Prior art keywords
- text
- causal
- analysis
- sample
- causal analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013145 classification model Methods 0.000 title claims abstract description 175
- 238000012549 training Methods 0.000 title claims abstract description 140
- 238000000034 method Methods 0.000 title claims abstract description 100
- 238000003860 storage Methods 0.000 title claims abstract description 29
- 238000004458 analytical method Methods 0.000 claims abstract description 464
- 230000001364 causal effect Effects 0.000 claims abstract description 426
- 238000012163 sequencing technique Methods 0.000 claims abstract description 17
- 230000000875 corresponding effect Effects 0.000 claims description 318
- 230000015654 memory Effects 0.000 claims description 41
- 238000004590 computer program Methods 0.000 claims description 36
- 238000001514 detection method Methods 0.000 claims description 19
- 230000002596 correlated effect Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 21
- 238000010586 diagram Methods 0.000 description 28
- 230000000694 effects Effects 0.000 description 28
- 230000008569 process Effects 0.000 description 25
- 230000006870 function Effects 0.000 description 19
- 230000007935 neutral effect Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 13
- 238000010801 machine learning Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 12
- 238000009826 distribution Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000003058 natural language processing Methods 0.000 description 6
- 241000220225 Malus Species 0.000 description 5
- 241000220324 Pyrus Species 0.000 description 5
- 235000021016 apples Nutrition 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 235000021017 pears Nutrition 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000012047 cause and effect analysis Methods 0.000 description 4
- 230000008451 emotion Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 235000008429 bread Nutrition 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008909 emotion recognition Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 241000581835 Monodora junodii Species 0.000 description 1
- 241000070023 Phoenicopterus roseus Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/041—Abduction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/045—Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及计算机技术领域,尤其涉及人工智能技术领域,提供一种分类模型的训练方法、装置、电子设备和存储介质。方法包括:基于训练样本集对待训练的分类模型进行多轮训练;在一轮训练中,预测文本样本针对描述目标的立场;基于真实标签对应的一个因果分析的第二文本特征,结合相应文本样本的第一文本特征,生成相应的因果释义;基于文本样本对应的各因果分析集的第三文本特征集,对相应文本样本的各因果分析的正确性概率进行预测与排序,得到对应的预测排序结果;基于各预测立场、各因果释义和各预测排序结果,进行参数调整。由于本申请同时使模型进行文本样本本身以及因果分析的学习,因此可以提高模型的学习能力,进一步提高模型准确性。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及人工智能技术领域,提供一种分类模型的训练方法、装置、电子设备和存储介质。
背景技术
当前,人工智能模型逐渐被应用于各个领域,其中,分类模型得益于其广泛的适用性和普适性,可以在同义检测、情绪识别、文本分类等众多场景发挥作用,而为了使分类模型在应用中发挥更好的效果,模型训练不可或缺。
相关技术中,针对分类模型的训练主要是将所需要的文本、图片等作为样本输入模型,由分类模型获取需要区分的不同样本各自的特征,并学习这些特征与类别标签之间的对应关系,但仅学习这种表面的对应关系所达到的训练效果有限,当样本不足、泛化性差时,这些表面的对应关系甚至有可能是错误的,易导致在实际应用过程中,分类模型无法得出正确结论的情况。
例如,将针对A歌曲的评论作为样本,喜欢A歌曲和不喜欢A歌曲作为样本标签来对分类模型进行训练,假设喜欢A歌曲的评论中均出现了“红”字、“火”字,不喜欢A歌曲的评论中均出现了“悲”字,则分类模型会受到上述“红”、“火”、“悲”字在两个样本标签下的分布的影响,当一个表达喜欢A歌曲的评论中出现“悲”字时,例如“这首歌带着一点悲伤的感觉,很好听”,分类模型依旧会将其预测为表达不喜欢A歌曲的评论,显然,这种对应关系表征的是错误的因果关系,对后续模型在实际应用时的预测准确度有着极大影响。
综上,如何提高分类模型分类的准确性是亟待解决的。
发明内容
本申请实施例提供一种分类模型的训练方法、装置、电子设备和存储介质,用以提高分类模型分类的准确性。
本申请实施例提供的一种分类模型的训练方法,包括:
基于训练样本集对待训练的分类模型进行至少一轮训练;其中,每个训练样本包含:文本样本、至少一个样本标签及相应的因果分析集,所述至少一个样本标签至少包含真实标签,所述真实标签表征所述文本样本针对描述目标的真实立场,每个因果分析集包含至少一个因果分析,每个因果分析包括对应的样本标签与所述文本样本之间的因果论证;
其中,在一轮训练中,执行以下操作:
基于选取的各文本样本的第一文本特征,分别获得相应文本样本针对所述描述目标的预测立场;
分别基于各真实标签各自对应的一个因果分析的第二文本特征,结合相应的第一文本特征,生成相应真实标签对应的因果释义;
分别基于所述各文本样本各自对应的至少一个因果分析集的第三文本特征集,对相应文本样本对应的各因果分析的正确性概率进行预测与排序,得到所述各文本样本各自对应的预测排序结果;
基于各预测立场、各因果释义和各预测排序结果,进行参数调整。
本申请实施例提供的一种分类模型的训练装置,包括:
训练单元,用于基于训练样本集对待训练的分类模型进行至少一轮训练;其中,每个训练样本包含:文本样本、至少一个样本标签及相应的因果分析集,所述至少一个样本标签至少包含真实标签,所述真实标签表征所述文本样本针对描述目标的真实立场,每个因果分析集包含至少一个因果分析,每个因果分析包括对应的样本标签与所述文本样本之间的因果论证;
其中,在一轮训练中,执行以下操作:
基于选取的各文本样本的第一文本特征,分别获得相应文本样本针对所述描述目标的预测立场;
分别基于各真实标签各自对应的一个因果分析的第二文本特征,结合相应的第一文本特征,生成相应真实标签对应的因果释义;
分别基于所述各文本样本各自对应的至少一个因果分析集的第三文本特征集,对相应文本样本对应的各因果分析的正确性概率进行预测与排序,得到所述各文本样本各自对应的预测排序结果;
基于各预测立场、各因果释义和各预测排序结果,进行参数调整。
可选的,每个因果分析由至少一个分析令牌组成,所述因果分析的第二文本特征包含所述因果分析中各分析令牌的第二文本特征,每个因果释义表征相应的一个因果分析中的各个分析令牌的生成概率;所述训练单元具体用于通过如下方式依次得到每个因果释义中的各个分析令牌的生成概率:
若当前获取的生成概率为所述一个因果分析中的首个分析令牌的生成概率,则基于所述一个因果分析所对应的文本样本的第一文本特征,获取所述首个分析令牌的生成概率;
若当前获取的生成概率为所述一个因果分析中的非首个分析令牌的生成概率,则基于所述一个因果分析所对应的文本样本的第一文本特征,以及所述一个因果分析中,当前分析令牌之前的其它分析令牌所对应的第二文本特征,获取所述非首个分析令牌的生成概率。
可选的,每个因果分析由至少一个分析令牌组成,所述训练单元具体用于:
基于所述分类模型,分别对所述各文本样本各自对应的至少一个因果分析集中的各个因果分析进行语义特征提取,获得各因果分析集各自对应的第三文本特征集;每个第三文本特征集中包含相应因果分析集中各因果分析对应的第三文本特征;
分别基于各因果分析集各自对应的第三文本特征集,结合相应的第一文本特征,预测相应因果分析集中各因果分析各自包含的各个分析令牌的生成概率;
分别基于所述各因果分析集各自包含的各因果分析中,各个分析令牌的生成概率,对相应因果分析集对应的各因果分析的正确性概率进行预测与排序。
可选的,所述训练单元具体用于通过如下方式获得每个因果分析的正确性概率:
获取所述因果分析中,各个分析令牌所对应的生成概率的对数值;
基于各个对数值,与所述因果分析所包含的分析令牌的数量,得到所述因果分析的正确性概率,所述各个对数值与所述因果分析的正确性概率呈正相关,所述分析令牌的数量与所述因果分析的正确性概率呈负相关。
可选的,每个因果释义表征相应的一个因果分析中的各个分析令牌的生成概率,所述训练单元具体用于:
基于各检测结果与对应真实样本标签之间的差异获取立场差异损失;
获取各因果释义各自包含的各个分析令牌的生成概率,并基于各生成概率获取生成损失,所述生成概率与所述生成损失呈负相关;
基于各预测排序结果与相应的参考排序结果之间的差异获取排序差异损失;
基于所述立场差异损失、所述生成损失与所述排序差异损失对所述分类模型进行参数调整。
可选的,所述参考排序结果是将相应文本样本对应的各因果分析输入至预先训练好的排序模型中得到的。
可选的,所述各文本样本各自对应的第一文本特征包含:相应文本样本的整体特征,以及相应文本样本中,各文本令牌的上下文特征,所述训练单元具体用于:
基于所述分类模型对选取的各文本样本分别进行语义特征提取,获得各文本样本的第一文本特征;以及基于各第一文本特征中的各整体特征,分别获得相应文本样本针对所述描述目标的预测立场;
所述训练单元具体用于:
基于所述分类模型对所述各真实标签各自对应的一个因果分析分别进行语义特征提取,获得所述各真实标签各自对应的一个因果分析的第二文本特征;
分别基于各真实标签各自对应的一个因果分析的第二文本特征,结合相应的整体特征与相应各文本令牌的上下文特征,生成相应的真实标签对应的因果释义。
可选的,所述装置还包括:
应用单元,用于将待分类文本输入已训练的分类模型;
基于所述已训练的分类模型,获取所述待分类文本的第一文本特征,并基于所述第一文本特征,获得所述待分类文本针对所述描述目标的预测立场与因果释义。
本申请实施例提供的一种电子设备,包括处理器和存储器,其中,所述存储器存储有计算机程序,当所述计算机程序被所述处理器执行时,使得所述处理器执行上述任意一种分类模型的训练方法的步骤。
本申请实施例提供一种计算机可读存储介质,其包括计算机程序,当所述计算机程序在电子设备上运行时,所述计算机程序用于使所述电子设备执行上述任意一种分类模型的训练方法的步骤。
本申请实施例提供一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序存储在计算机可读存储介质中;当电子设备的处理器从计算机可读存储介质读取所述计算机程序时,所述处理器执行所述计算机程序,使得所述电子设备执行上述任意一种分类模型的训练方法的步骤。
本申请有益效果如下:
本申请实施例提供了一种分类模型的训练方法、装置、电子设备和存储介质,本申请的每个文本样本不是只对应一个样本标签,而是对应了真实标签在内的多个样本标签,多个样本标签各自对应有一个因果分析集,每个因果分析集中包含了预先生成的至少一个因果分析,反映了文本样本与样本标签之间的正确的因果关系,在模型训练过程中,本申请不仅仅利用文本样本自身的文本特征来对分类模型进行训练,还会将预先生成的因果分析输入到分类模型中,这其中,真实标签所对应的因果分析的正确性概率更大,更为合理,因此分类模型可以由此学习到联结文本样本与样本标签的正确的原因,也即,使得分类模型在后续应用过程中能够通过正确的途径辨别文本样本的立场,以此提高分类模型的准确率。
进一步的,相比于只学习文本样本本身,本申请在模型训练过程中进一步加入对因果分析的学习的方法,可以使模型发现更多的文本样本与样本标签之间容易忽略的规律,模型学习更为透彻,所需要的文本样本也就更少,节省了训练成本,提升了分类模型的训练效率。
而对于非真实标签所对应的因果分析,模型在训练过程中预测同一文本样本下,各因果分析的正确性概率,并基于所预测的正确性概率对因果分析进行排序,最后根据排序结果对模型调参,该过程可以使模型进一步学习分辨不同因果分析的合理性与不合理性,以使分类模型在后续过程中能更好的生成更合理的解释,进一步提高模型分类的准确性。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施例提供的一种分类模型的训练方法的应用场景示意图;
图2为本申请实施例提供的一种分类模型的训练方法的整体流程图;
图3为本申请实施例提供的一种基于大模型生成因果分析的逻辑示意图;
图4为本申请实施例提供的一种训练样本集的示意图;
图5为本申请实施例提供的一种获取预测立场的逻辑示意图;
图6为本申请实施例提供的一种生成因果释义的逻辑示意图;
图7为本申请实施例提供的一种生成各因果分析的正确性概率的逻辑示意图;
图8为本申请实施例提供的一种总损失的获取逻辑示意图;
图9为本申请实施例提供的一种大模型应用示意图;
图10为本申请实施例提供的一种分类模型实际应用时与客户端的交互流程图;
图11为本申请实施例提供的一种实验结果示意图;
图12为本申请实施例提供的一种分类模型的训练装置的组成结构示意图;
图13为本申请实施例提供的一种电子设备的一个硬件组成结构示意图;
图14为应用本申请实施例提供的另一种电子设备的一个硬件组成结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请技术方案的一部分实施例,而不是全部的实施例。基于本申请文件中记载的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请技术方案保护的范围。
下面对本申请实施例中涉及的部分概念进行介绍。
因果分析:表征文本样本与相应的样本标签之间的因果论证,假设某文本样本为针对一种面包的评价,则样本标签可以有正面评价、负面评价以及中立三种,每种样本标签都对应有至少一个因果分析,例如,正面评价所对应的因果分析阐述了该评价是对面包的正面评价的具体原因,因果分析由预先训练好的大模型生成。
因果释义:表征生成相应文本样本的真实标签所对应的一个因果分析的概率,或者说,生成这一个因果分析中各个分析令牌的概率。
令牌:文本中的较小单元,以实现对文本的拆分,令牌具体可以是一个字,一个单词等,可以基于实际情况灵活设定,本申请主要分为文本令牌与分析令牌,其中,文本令牌是文本样本中的较小单元,分析令牌是因果分析中的较小单元。
预训练模型(Pre-training model):也称基石模型、大模型,指具有大参量的深度神经网络(Deep neural network,DNN),在海量未标记的数据上对其进行训练,利用大参量DNN的函数近似能力使PTM在数据上提取共性特征,经微调(fine tune)、参数高效微调(PEFT)、prompt-tuning等技术,适用于下游任务。因此,预训练模型可以在小样本(Few-shot)或零样本(Zero-shot)场景下达到理想效果。PTM按照处理的数据模态可以分为语言模型(ELMO,BERT,GPT)、视觉模型(swin-transformer,ViT,V-MOE)、语音模型(VALL-E)、多模态模型(ViBERT,CLIP,Flamingo,Gato)等,其中多模态模型指建立两种或以上数据模态特征表示的模型。预训练模型是输出人工智能生成内容(AIGC)重要工具,也可以作为连接多个具体任务模型的通用接口。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理涉及自然语言,即人们日常使用的语言,与语言学研究密切;同时涉及计算机科学和数学学科,是人工智能领域模型训练的重要技术,预训练模型,即是从NLP领域的大语言模型(Large Language Model)发展而来。经过微调,大语言模型可以广泛应用于下游任务。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
本申请实施例涉及人工智能(Artificial Intelligence,AI)和机器学习技术(Machine Learning,ML),基于人工智能中的机器学习而设计。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。预训练模型是深度学习的最新发展成果,融合了以上技术。
人工智能技术主要包括计算机视觉技术、自然语言处理技术、以及机器学习/深度学习、自动驾驶、智慧交通等几大方向。随着人工智能技术研究和进步,人工智能在多个领域展开研究和应用,例如常见的智能家居、智能客服、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、机器人、智能医疗等,相信随着技术的发展,人工智能将在更多的领域得到应用,并发挥越来越重要的价值。本申请实施例中的分类模型的训练方法可应用到自动驾驶、医学影像识别、安全系统、图像处理、视频处理等领域,将人工智能与这些领域中的文本分类、图片分类等相结合,可以高效地区分不同文本内容、图片内容,提高分类效率。
此外,本申请实施例中的分类型就是采用机器学习或深度学习技术训练得到的。机器学习(Machine Learning,ML)则是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
基于上述技术训练得到分类模型后,即可应用该分类模型,对不同文本针对描述目标的立场、态度、情绪等进行区分。
下面对本申请实施例的设计思想进行简要介绍:
当前,人工智能模型逐渐被应用于各个领域,其中,分类模型得益于其广泛的适用性和普适性,可以在同义检测、情绪识别、文本分类等众多场景发挥作用,而为了使分类模型在应用中发挥更好的效果,模型训练不可或缺。
相关技术中,针对分类模型的训练主要是将所需要的文本、图片等作为样本输入模型,由分类模型获取需要区分的不同样本各自的特征,并学习这些特征与类别标签之间的对应关系,但仅学习这种表面的对应关系所达到的训练效果有限,其所训练出的模型稳定性、预测多样性较差,尤其当样本不足、泛化性差时,分类模型在训练中仅能学习到样本与标签之间一些表面肤浅甚至虚假的对应关系,未能真正掌握模型的输入与标签之间的正确因果关系,导致模型在实际应用过程中鲁棒性差,模型对分布域内的数据有较好的表现,但是对域外分布的数据的拟合效果较差,即监督数据在跨域设置中受限,针对输入无法得出正确结论。
例如,假设在区分苹果与梨的模型训练过程中,训练样本中的苹果都是红色的,梨都是绿色的,则模型会由于学习到分布域内数据的苹果和梨图片区别在于颜色特正不同,红色代表苹果,绿色代表梨,从而达到损失最小,但是对于域外数据,例如一个绿色的苹果,则会导致模型无法正确识别分类,这是由于用颜色来区分两种水果的逻辑有一定的适用性,但并非正确;即,模型所学习到的数据分布的统计特征,并非是输入的图片和标签之间的因果信息。
综上,如何提高分类模型分类的准确性是亟待解决的。
有基于此,本申请提供了一种分类模型的训练方法、装置、电子设备和存储介质,本申请在对分类模型进行训练的过程中,模型并不仅仅只学习每个文本样本的相应,还要进一步学习各个因果分析对应的特征,因果分析反映了文本样本与样本标签之间的因果关系,且这些因果分析中,有些对应了真实标签,是合理且正确的因果关系,有些则对应了虚假标签,是不合理的错误因果关系,分类模型可以学习真实标签所对应的因果分析,以此帮助模型进一步理解样本与标签之间正确的因果信息,使模型不再局限于样本表面的一些信息,而是可以能够进一步学习推理背后的因果信息,并探索到之前被模型忽略的,或者无法提供合理解释的未标记数据,减少对表面模式的依赖,以此提高分类模型的准确率。
进一步的,相比于只学习文本样本本身,本申请所提出的方法使模型在训练过程中的学习更为透彻,所需要的文本样本也就更少,节省了训练成本,提升了分类模型的训练效率。
而对于非真实标签所对应的因果分析,模型在训练过程中预测同一文本样本下,各因果分析的正确性概率,并基于所预测的正确性概率对因果分析进行排序,最后根据排序结果对模型调参,该过程可以使模型进一步学习分辨不同因果分析的合理性与不合理性,以使分类模型在后续过程中能更好的生成更合理的解释,进一步提高模型分类的准确性。
以下结合说明书附图对本申请的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本申请,并不用于限定本申请,并且在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
如图1所示,其为本申请实施例的应用场景示意图。该应用场景图中包括两个终端设备110和一个服务器120。
在本申请实施例中,终端设备110包括但不限于手机、平板电脑、笔记本电脑、台式电脑、电子书阅读器、智能语音交互设备、智能家电、车载终端等设备;终端设备上可以安装有分类模型训练相关的客户端,该客户端可以是软件(例如浏览器、模型训练软件等),也可以是网页、小程序等,服务器120则是与软件或是网页、小程序等相对应的后台服务器,或者是专门用于进行分类模型训练的服务器,本申请不做具体限定。服务器120可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
需要说明的是,本申请各实施例中的分类模型的训练方法可以由电子设备执行,该电子设备可以为终端设备110或者服务器120,即,该方法可以由终端设备110或者服务器120单独执行,也可以由终端设备110和服务器120共同执行。比如由服务器120为执行主体时,服务器120基于训练样本集对待训练的分类模型进行至少一轮训练,在每个训练样本中不仅包含文本样本和文本样本的真实标签,还包含虚假标签,且每个样本标签都对应有一个至少一个因果分析,阐述相应样本标签与文本样本构成因果关系的原因;在每轮训练中,服务器120将选取的训练样本中的各文本样本输入到分类模型,分类模型对其进行特征提取得到各文本样本各自对应的第一文本特征,并基于第一文本特征预测各文本样本针对描述目标的预测立场。
之后,服务器120将每个文本样本对应的真实标签下的因果分析输入分类模型,分类模型得到因果分析的第二文本特征,并根据上述第二文本特征和相应文本样本的第一文本特征生成相应真实标签对应的因果释义。
服务器120进一步基于分类模型,获取每个文本样本对应的全部因果分析的第三文本特征集,分类模型基于第三文本特征集对相应文本样本对应的各因果分析的正确性概率进行预测与排序,得到各文本样本各自对应的预测排序结果。
最后,服务器120基于得到的各预测立场、各因果释义和各预测排序结果,对分类模型进行参数调整;在分类模型训练结束后,可以将其投入实际应用场景,例如,开发一个相应的立场检测应用程序A,某对象B在终端设备110上的应用程序A中上传一段文本以及该文本的描述目标,终端设备110将该文本以及描述目标发送至服务器120,服务器120将文本输入到分类模型中,分类模型对其进行立场检测,输出其对描述目标的态度/立场以及描述文本之所以表述了该态度/立场的具体原因。服务器120将分类模型的输出结果再发送至终端设备110展示。
在一种可选的实施方式中,终端设备110与服务器120之间可以通过通信网络进行通信。
在一种可选的实施方式中,通信网络是有线网络或无线网络。
需要说明的是,图1所示只是举例说明,实际上终端设备和服务器的数量不受限制,在本申请实施例中不做具体限定。
本申请实施例中,当服务器的数量为多个时,多个服务器可组成为一区块链,而服务器为区块链上的节点;如本申请实施例所公开的分类模型的训练方法,其中所涉及的训练数据可保存于区块链上,例如,文本样本、因果分析、立场差异损失、生成损失、排序差异损失等。
此外,本申请实施例可应用于各种场景,不仅包括文本分类场景,还包括但不限于云技术、人工智能、智慧交通、辅助驾驶等场景。
下面结合上述描述的应用场景,参考附图来描述本申请示例性实施方式提供的分类模型的训练方法,需要注意的是,上述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施方式在此方面不受任何限制。
参阅图2所示,为本申请实施例提供的一种分类模型的训练方法的实施流程图,该方法的具体实施流程如下:
S201:服务器基于训练样本集对待训练的分类模型进行至少一轮训练。
其中,每个训练样本包含:文本样本、至少一个样本标签及相应的因果分析集,至少一个样本标签至少包含真实标签,真实标签表征文本样本针对描述目标的真实立场,每个因果分析集包含至少一个因果分析,每个因果分析包括对应的样本标签与文本样本之间的因果论证。
本申请主要考虑一个定义在紧集X和标签空间Y= {1,……,C}上的C类文本分类任务。在空间Z=X×Y上对数据点进行独立同分布(英文:independent and identicallydistributed,i.i.d)采样为{xi,yi}~z。在训练过程中,对每个文本样本构造一个或多个不同的因果分析,后续还可以基于训练好的排序模型对每个因果分析进行打分,得到相应排名分数(该步骤的具体过程将在后续展开介绍,此处不再赘述)。即对于每个例子{xi,yi},其均对应有至少一个因果分析以及因果分析各自对应的排名分数。
假设文本样本为一段与学生参加课外活动话题相关的文本,其内容为:参加课外活动是学生全面发展的重要组成部分,课外活动可以培养学生的领导能力、提高团队合作精神、发展创造力和解决问题的能力;此外,课外活动也为学生提供了与不同背景和兴趣爱好的同学们交流的机会,促进了他们的社交能力和人际关系的建立;不同的课外活动还能拓宽学生的眼界,使其更好地应对未来的挑战,百利而无一害。该文本样本对应的样本标签可以有三个,分别为赞同课外活动立场,反对课外活动立场,中立(中立立场),其中,赞同课外活动立场为该文本样本对应的真实标签,反映真实立场,也即,该文本样本针对学生参加课外活动这一事件的真实立场为赞同立场;而反对课外活动立场与中立为该文本样本的虚假标签,反映虚假立场;真实标签一定包含在文本样本对应的至少一个样本标签中。
进一步假设该文本样本对应了三个样本标签,即赞同课外活动立场、反对课外活动立场与中立,每个样本标签都各自对应有一个因果分析集,每个因果分析集中包含有至少一个因果分析;赞同样本标签所对应的因果分析集中,各个因果分析描述了上述文本样本针对参加课外活动这一事件持赞同立场的具体原因;反对样本标签所对应的因果分析集中,各个因果分析描述了上述文本样本针对参加课外活动这一事件持反对立场的具体原因;中立样本标签所对应的因果分析集中,各个因果分析描述了上述文本样本针对参加课外活动这一事件持中立立场的具体原因。
上述中,每个因果分析都是基于预先训练好的大模型得到的,也即,可以将预先训练好的大模型作为教师模型,为每个样本标签生成对应的因果分析集;后续分类模型通过蒸馏大模型的因果知识,也即上述因果分析集,证明自身推断的合理性。
进一步的,每个因果分析集中的各个因果分析可以由同一个大模型生成,也可以访问不同的大语言模型获取不同的因果分析;假设大模型为对话生成式模型,可以将文本样本与提示模板拼接输入至对话生成式模型中,以使对话生成式模型输出相应的因果分析。提示模板中包含了样本标签以及描述目标,可以根据具体的应用场景与任务进行具体设计,不同场景不同任务下的模板略有不同,例如,提示模板可以为:该文本对于{描述目标}的立场为{样本标签},请在50字以内解释原因。
如图3所示,为本申请实施例提供的一种基于大模型生成因果分析的逻辑示意图,将上述模板带入上述样本文本对应的场景中,得到三个样本标签各自对应的提示内容,三个提示内容分别为:该文本对于参加课外活动的立场为赞同立场,请在50字以内解释原因;该文本对于参加课外活动的立场为反对立场,请在50字以内解释原因;该文本对于参加课外活动的立场为中立立场,请在50字以内解释原因。
将三个提示容分别与上述文本样本拼接输入至对话生成式模型,对话生成式模型分别输出三个因果分析集,赞同样本标签对应的因果分析集为:该文本对于参加课外活动的立场为赞同立场,主要原因有:(1)该文本称参加课外活动是百利而无一害的;(2)该文本列举了参加课外活动的诸多好处等多个与赞同样本标签对应的因果分析……;反对样本标签对应的因果分析集为:该文本对于参加课外活动的立场为反对立场,主要原因有:(1)因果分析11;(2)因果分析12……;中立样本标签对应的因果分析集为:该文本对于参加课外活动的立场为中立场,主要原因有:(1)因果分析21;(2)因果分析22……。
此外,采用大模型来生成因果分析的方法可以消除人工成本,生成效率更高。
需要说明的是,上述中主要是以立场检测场景为例进行说明的,该场景下的分类模型为立场检测模型,立场检测模型主要用于识别给定文本对描述目标的立场为赞成、反对或者中立;除此之外,本申请该可以应用于其他场景执行其他任务,如自然语言推理(英文:Recognizing Textual Entailment,RTE)任务,同义检测(英文:Microsoft ResearchParaphrase Corpus,MRPC)任务,类别情绪分类(英文:Multi-Aspect Multi-SentimentAnalysis,MAMS)任务,支持检测任务,相关性分类(英文:Cross-Language EvaluationForum,CLEF)任务等。
其中,RTE任务用于预测文本与前提条件是否蕴含于、矛盾于、无关于前提条件;MRPC任务需要识别两个待识别文本是否同义;MAMS任务旨在识别评论对目标类别(如食品、员工等)的情绪为正面、负面或者中性;支持检测任务用于检测一个评论回复的立场为同意、不同意或者中立;CLEF任务用于检测科学文献是否与给定主题相关。
当分类任务为RTE任务时,文本样本为预测文本与前提条件文本,样本标签包括蕴含、矛盾与无关,因果分析集中的各个因果分析用于阐述相应的预测文本与前提条件文本的关系为蕴含/矛盾/无关的具体原因;当分类任务为MRPC任务时,文本样本为两个待识别文本,样本标签包括同义与不同义,因果分析集中的各个因果分析用于阐述相应的两个待识别文本同义/不同义的具体原因;当分类任务为MAMS任务时,文本样本为评论文本,样本标签包括正面、负面与中性,因果分析集中的各个因果分析用于阐述相应的评论文本对目标类别的情绪为正面/负面/中性的具体原因;当分类任务为支持检测任务时,文本样本为观点文本下的评论回复,观点文本可以作为描述目标,样本标签包括同意、不同意与中立,因果分析集中的各个因果分析用于阐述相应的评论回复对观点文本表达同意/不同意/中立看法的具体原因;当分类任务为CLEF任务时,文本样本为科学文献,样本标签包括相关与不相关,因果分析集中的各个因果分析用于阐述相应的科学文献与给定主题相关/不相关的具体原因。
为了方便描述,接下来本申请依旧主要以立场检测任务以及相应分类模型为例进行展开说明。
可以理解的是,在本申请的具体实施方式中,涉及到文本样本等相关数据,当本申请以上实施例运用到具体产品或技术中时,需要获得文本作者的许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
以具体场景为例,假设现需要一个可以检测话题“多经历逆境是好事”下,各方针对该话题的观点是同意/不同意/中立的分类模型,则服务器首先获取训练样本集,如图4所示,为本申请实施例提供的一种训练样本集的示意图,训练样本集中包含训练样本1、训练样本2、训练样本3……多个训练样本,每个训练样本包含一个针对“多经历逆境是好事”话题的观点文本样本、至少一个样本标签及相应的因果分析集,至少一个样本标签至少包含真实标签,如训练样本1中包含针对“多经历逆境是好事”话题的观点文本样本1,其对应有三个样本标签,分别为同意、不同意与中立,其中,不同意为真实标签,每个样本标签对应一个因果分析集,其中,同意样本标签对应因果分析集A,不同意样本标签对应因果分析集B,中立样本标签对应因果分析集C。
基于上述训练样本集对待训练的分类模型进行至少一轮训练。
分类模型往往需要经过多轮迭代训练来调整模型参数,其中,在一轮训练中,服务器在训练样本集中选取部分训练样本作为分类模型的输入,并执行操作S2011~ S2014:
S2011:服务器基于选取的各文本样本的第一文本特征,分别获得相应文本样本针对描述目标的预测立场。
本申请中的分类模型以双向编码器作为主干网络,服务器将选取的各文本样本输入至待训练的分类模型中,基于分类模型中的双向编码器对选取的各文本样本分别进行语义特征提取,获得各文本样本各自对应的第一文本特征;各文本样本各自对应的第一文本特征包含:相应文本样本的整体特征,以及相应文本样本中,各文本令牌的上下文特征。
具体地,文本令牌是将文本样本拆分成了更小的单位,例如,一个文本令牌可以为一个单词,或者一个文字,其具体含义可以根据具体情况进行设定。服务器在将各个文本样本输入至分类模型之前,首先在各个文本样本前添加一个特殊标记,例如[CLS],特殊标记自身不存在任何含义;服务器将添加特殊标记后的文本样本输入至分类模型中,分类模型的输出公式如下:
上述中,表示第i个文本样本,/>代表第i个文本样本中的第j个文本令牌的上下文特征,其具体包含了第j个文本令牌自身的文本特征,位于第j个文本令牌之前的文本令牌的文本特征,以及位于第j个文本令牌之后的文本令牌的文本特征, Encoder为编码器。
接下来以文本样本为例展开说明,由公式可以看出,分类模型可以输出文本样本中所有文本令牌的上下文特征,以及特殊标记[CLS]的上下文特征,由于特殊标记[CLS]自身不存在任何含义且位于文本样本之前,因此其对应的上下文特征只包含在其之后的所有文本令牌的文本特征,因此,可以将特殊标记[CLS]视为文本样本的第0个文本令牌,且将其对应的上下文特征/>作为文本样本/>对应的整体特征。
之后,服务器可以基于各第一文本特征中的各整体特征,分别获得相应文本样本针对描述目标的预测立场。
也即,将此前编码器输出的特殊标记[CLS]所对应的上下文特征作为文本样本所对应的整体特征,输入到分类模型的分类层中,分类层主要由线性层和softmax函数组成,用于将高维的数据转换为低维并归一化,输出预测立场;其具体公示如下:
其中,为线性层的输出,/>表示分类模型输出的预测立场,其具体内容是文本样本/>针对描述目标的立场为各个样本标签的概率,或者说在标签空间Y上的概率分布,假设样本标签有赞同立场、反对立场与中立立场,则/>表示文本样本/>针对描述目标的立场分别为赞同立场、反对立场与中立立场的概率。
沿用S201中的假设,假设服务器在第一轮训练中将训练样本1-训练样本20作为分类模型的输入,且观点文本样本中一个字对应一个文本令牌,如图5所示,为本申请实施例提供的一种获取预测立场的逻辑示意图,以训练样本1为例,服务器将训练样本1中的观点文本样本1前添加特殊标记[CLS],并将其输入至分类模型,分类模型中的编码器对观点文本样本1进行语义特征提取,得到观点文本样本1所对应的整体特征和观点文本样本1中,每个字对应的上下文特征,将观点文本样本1的整体特征输入分类层,分类层输出观点文本样本1所对应的预测立场,也即分类模型所预测的观点文本样本1同意/不同意/中立“多经历逆境是好事”这一观点的概率。
然而,仅基于双向编码器,分类模型不足以学习到文本样本与样本标签之间的正确因果关系,因此,服务器还需要进一步通过单向解码器来学习因果分析,生成因果释义,该过程中,服务器执行S2012。
S2012:服务器分别基于各真实标签各自对应的一个因果分析的第二文本特征,结合相应的第一文本特征,生成相应真实标签对应的因果释义。
上述中,每个因果分析由至少一个分析令牌组成,一个因果分析的第二文本特征包含该因果分析中各分析令牌的第二文本特征,而每个因果释义表征的是相应的一个因果分析中,各个分析令牌的生成概率;分析令牌也是将因果分析拆分成了更小的单位,一个分析令牌同样可以为一个单词,或者一个文字,其具体含义可以根据具体情况进行设定。
对于每个文本样本,服务器先只获取其所对应的真实标签的一个因果分析,若某个文本样本的真实标签所对应的因果分析集α中仅包含一个因果分析,则直接选取这一个因果分析;若因果分析集α中包含多个因果分析,则可以在其中随机选取一个因果分析,或者,采用预先训练好的排序模型,输出因果分析集α中的各个因果分析的排名分数,排名分数是基于各因果分析的正确性概率,也即各因果分析的合理程度而得到的,因果分析的正确性概率越高,表明其越合理,相应的排名分数也越高,之后,服务器按照排名分数对因果分析集α中的各个因果分析进行降序排序,并选取排在首位的因果分析。
上述中的排序模型也可以为对话生成式模型,通过向其输入文本样本,描述目标,样本标签以及因果分析来获取排名分数,提示词可以为:这篇文本针对{描述目标}的立场为{样本标签},具体原因如下,请为下述四条原因(因果分析)的合理性进行打分。
需要说明的是,这里所提及的因果分析的正确性概率是由预先训练好的排序模型所认为的正确性概率,由于排序模型已经训练好,因此,可以将该正确性概率视为相应因果分析对应的真实正确性概率,而在后续S2013与S2014中还存在一个由分类模型所预测输出的正确性概率,可以称其为预测正确性概率,两者是由不同的模型输出的,并非同一个。
需要说明的是,上述选取因果分析的方法仅仅只是举例说明,本申请不做具体限定。
如S2011中提到的,第一文本特征包含两部分,一部分是相应文本样本的整体特征,其通过特殊标记[CLS]所对应的上下文特征得到;另一部分为相应文本样本中,各文本令牌的上下文特征。在生成因果释义的过程中所需要的第一文本特征包含了整体特征与各文本令牌的上下文特征两部分;一种可选的因果释义的生成方式为,服务器基于分类模型对各真实标签各自对应的一个因果分析分别进行语义特征提取,获得各真实标签各自对应的一个因果分析的第二文本特征;之后,服务器分别基于各真实标签各自对应的一个因果分析的第二文本特征,结合相应的整体特征与相应各文本令牌的上下文特征,生成相应的真实标签对应的因果释义。
此外,每个因果释义中,各个分析令牌的生成概率是由首到尾依次生成的,单向解码器需要基于一个分析令牌之前的所有分析令牌,来输出这一个分析令牌的生成概率。
可选的,每个分析令牌的生成概率可以通过如下方式得到:
若当前获取的生成概率为一个因果分析中的首个分析令牌的生成概率,服务器则基于一个因果分析所对应的文本样本的第一文本特征,获取首个分析令牌的生成概率;若当前获取的生成概率为一个因果分析中的非首个分析令牌的生成概率,则基于一个因果分析所对应的文本样本的第一文本特征,以及一个因果分析中,当前分析令牌之前的其它分析令牌所对应的第二文本特征,获取非首个分析令牌的生成概率。
假设服务器获取到的因果分析,是基于上述中的预先训练好的排序模型得到的,即基于排序模型分别对真实标签的因果分析集中的各因果分析进行降序排序,选取排序首位的因果分析;依旧以文本样本为例,分析令牌的生成概率所对应的具体公示如下:
上述中,argmax函数用于确认排名分数最大的因果分析的位置,进一步确定排名分数最大的因果分析/>,该过程的目的与上述中的降序排序目的相同,或者说,该过程也可以同过降序排序实现,也即,将真实标签的各因果分析按照排名分数进行降序排序,之后获取排序首位的因果分析;argmax函数获取排名分数最大的因果分析的方法,与降序排序获取排名分数最大的因果分析的方法可以互相替换,二者择一即可。
表示因果分析/>中第t个分析令牌,s表示排名分数;单向解码器的输入为以及/>,其中,/>为文本样本/>对应的第一文本特征,其包含了文本样本/>的整体特征/>,以及文本样本中各文本令牌的上下文特征;/>则表示因果分析/>中第t个分析令牌之前的分析令牌,单向解码器可以基于此获取第t个分析令牌之前的分析令牌的第二文本特征,结合第一文本特征,输出第t个分析令牌的生成概率/>。
这种通过预先训练好的排序模型来选择一个最佳因果分析,并使分类模型尝试生成该最佳因果分析的过程可以通过教师强制训练来完成。
需要说明的是,真实标签所对应的因果分析,相较于其他标签所对应的因果分析一定是真实正确性概率更大,更合理的,因此,真实标签所对应的各因果分析的排名分数均大于其它标签所对应的各因果分析的排名分数。
沿用S2011中的假设,依旧以训练样本1为例,如图6所示,为本申请实施例提供的一种生成因果释义的逻辑示意图,服务器在观点文本样本1的真实标签,也即不同意样本标签所对应的因果分析集B中,基于预先训练好的排序模型,选取出一个最合理的因果分析,并将该因果分析输入至分类模型,获取该因果分析中各个分析令牌所对应的第二文本特征,最后,分类模型的解码器基于上述第二文本特征,以及在S2011中获取到的观点文本样本1对应的整体特征,和观点文本样本1中,每个字对应的上下文特征,输出对应的因果释义。
S2013:服务器分别基于各文本样本各自对应的至少一个因果分析集的第三文本特征集,对相应文本样本对应的各因果分析的正确性概率进行预测与排序,得到各文本样本各自对应的预测排序结果。
上述中,一个文本样本对应多少个样本标签,则该文本样本就对应有多少个因果分析集,每个第三文本特征集中包含相应因果分析集中各因果分析对应的第三文本特征,每个文本样本所对应的第三文本特征集的数量,由每个文本样本所对应的因果分析集的数量决定,假设一个文本样本对应有三个样本标签,则其对应有三个因果分析集,相应的,其也对应有三个第三文本特征集。也即该过程中不仅包含有真实标签对应的因果分析的第三文本特征,还有其他标签对应的因果分析的第三文本特征。
该过程中,一个因果分析的正确性概率可以基于其所包含的各个分析令牌的生成概率得到,一种可选的实施方式为:服务器基于分类模型,分别对各文本样本各自对应的至少一个因果分析集中的各个因果分析进行语义特征提取,获得各因果分析集各自对应的第三文本特征集; 分别基于各因果分析集各自对应的第三文本特征集,结合相应的第一文本特征,预测相应因果分析集中各因果分析各自包含的各个分析令牌的生成概率;分别基于各因果分析集各自包含的各因果分析中,各个分析令牌的生成概率,对相应因果分析集对应的各因果分析的正确性概率进行预测与排序。
需要注意的是,上述因果分析的正确性概率是由分类模型所输出的预测正确性概率。
而每个分析令牌的生成概率与S2012相同,均是将该分析令牌之前的所有分析令牌作为输入,得到对应的第三文本特征,之后结合相应文本样本的第一本文特征,来输出该分析令牌的生成概率,若该分析令牌为相应因果分析中的首位分析令牌,则只基于相应文本样本的第一本文特征,来输出该分析令牌的生成概率,以文本样本为例,分析令牌的生成概率的具体公式如下:
上述中,为文本样本/>所对应的全部的因果分析中,第k个因果分析,/>表示因果分析/>的第t个分析令牌,/>为文本样本/>对应的第一文本特征,其包含了文本样本的整体特征/>,以及文本样本中各文本令牌的上下文特征;/>表示因果分析/>中第t个分析令牌之前的分析令牌,/>表示因果分析/>中第t个分析令牌的生成概率。
进一步的,分类模型可以基于一个因果分析中,各个分析令牌所对应的生成概率的对数值,以及该因果分析所包含的分析令牌的数量,来预测该因果分析的正确性概率,上述各个对数值与因果分析的正确性概率呈正相关,分析令牌的数量与因果分析的正确性概率呈负相关。
基于上述方法,分类模型所预测的正确性概率的计算公式可以如下:
其中,为分类模型所预测的因果分析/>对应的正确性概率,/>为因果分析/>的长度,其由因果分析/>所包含的分析令牌的数量决定,/>表示因果分析中第t个分析令牌的生成概率,将因果分析/>的全部分析令牌的生成概率的对数值之和,与因果分析/>的长度的比值,作为分类模型预测的因果分析/>所对应的正确性概率。
最后,对于一个文本样本,服务器可以基于分类模型所预测的该文本样本对应的各因果分析的正确性概率来对各因果分析进行排序,得到预测排序结果。
沿用S2012中的假设,依旧以训练样本1为例,如图7所示,为本申请实施例提供的一种生成各因果分析的正确性概率的逻辑示意图,服务器获取观点文本样本1所对应的三个样本标签下的全部因果分析,基于分类模型得到三个第三文本特征集,三个第三文本特征集分别与三个样本标签各自的因果分析集一一对应,即因果分析集A与第三文本特征集A对应,因果分析集B与第三文本特征集B对应,因果分析集C与第三文本特征集C对应;之后,服务器分别基于第三文本特征集A、第三文本特征集B、第三文本特征集C,结合观点文本样本1所对应的第一文本特征,也即观点文本样本1中每个字对应的上下文特征,以及观点文本样本1对应的整体特征,预测各因果分析各自包含的各个分析令牌的生成概率。
最后,分类模型基于各因果分析各自包含的各个分析令牌的生成概率,预测各因果分析的正确性概率,并基于正确性概率对观点文本样本1所对应的全部因果分析进行排序。
S2014:服务器基于各预测立场、各因果释义和各预测排序结果,进行参数调整。
在得到分类模型针对各个文本样本分别输出的各预测立场、各因果释义和各预测排序结果后,服务器可以基于上述数据获取损失函数。
一种可选的实施方式为,服务器基于各检测结果与对应真实样本标签之间的差异获取立场差异损失;获取各因果释义各自包含的各个分析令牌的生成概率,并基于各生成概率获取生成损失,生成概率与生成损失呈负相关;基于各预测排序结果与相应的参考排序结果之间的差异获取排序差异损失;最后,服务器基于立场差异损失、生成损失与排序差异损失对分类模型进行参数调整。
上述中,立场差异损失可以基于交叉熵损失进行计算,依旧以文本样本为例,其对应的公式如下:
其中,代表文本样本/>对应的真实标签,也即在标签空间Y上的真实分布,反映文本样本/>针对描述目标的真实立场,/>则为分类模型所预测的文本样本针对描述目标的预测立场。
生成损失由文本样本所对应的因果释义中,各个分析令牌的生成概率的对数和获得,生成概率与生成损失呈负相关;因果释义是由分类模型针对文本样本/>的真实标签所生成的,其基于文本样本/>的真实标签对应的一个因果分析,以及文本样本/>的第一文本特征得到,生成损失对应的公式如下:
其中,表示文本样本/>所对应的因果释义中,第t个分析令牌的生成概率,或者说相应因果分析中的第t个分析令牌所对应的生成概率。
排序差异损失用于训练单向解码器对合理和不合理的因果分析进行排序的能力,参考排序结果是将相应文本样本对应的各因果分析输入至预先训练好的排序模型中得到的,该排序模型可以与S2012中的排序模型为同一个,排序模型输出文本样本所对应的全部因果分析的排名分数并进行排序,排名损失可表示为:
其中,与/>分别表示第m个与第n个因果分析所对应的排名分数,且/></>,排名分数是排序模型基于各因果分析的正确性概率,也即各因果分析的合理程度而得到的,而/>与/>分别表示分类模型所预测的第m个与第n个因果分析/>与/>所对应的正确性概率。
最后,服务器可以将立场差异损失、生成损失与排序差异损失合为一个总损失,并基于总损失对分类模型进行参数调整,总损失的具体公式如下:
其中,与/>分别为/>与/>所对应的权重。
沿用S2013中的假设,如图8所示,为本申请实施例提供的一种总损失的获取逻辑示意图,在本轮模型训练过程中,共获取了20个训练样本,服务器根据观点文本样本1~20各自对应的预测立场,与观点文本样本1~20各自对应的真实标签之间的差异,获取立场差异损失,具体地,观点文本样本1对应的预测立场与观点文本样本1对应的真实标签比较,观点文本样本2对应的预测立场与观点文本样本2对应的真实标签比较……以此类推。
服务器基于观点文本样本1~20各自对应的因果释义得到生成损失。
服务器基于观点文本样本1~20各自对应的因果分析的预测排序结果,与观点文本样本1~20各自对应的因果分析参考排序结果之间的差异,获取排序差异损失,具体地,观点文本样本1对应的全部因果分析的预测排序结果,与观点文本样本1对应的全部因果分析的参考排序结果比较,观点文本样本2对应的全部因果分析的预测排序结果,与观点文本样本2对应的全部因果分析的参考排序结果比较……以此类推。
最后,服务器基于立场差异损失、生成损失与排序差异损失得到总损失,并基于总损失对分类模型调参。
综上,本申请所提出的训练方法,首先基于模型的应用环境,获取文本数据与描述目标,并获取各文本数据各自针对描述目标的真实立场。
对于每一个文本数据,为其设定至少一个样本标签,且样本标签中一定包含有能够描述真实立场的真实标签,基于提示模板将文本数据、描述目标和样本标签拼接输入到预先训练好的大模型当中,大模型输出该文本数据的各个样本标签所对应的因果分析集,服务器还可以把一个文本数据所对应的全部因果分析输入预先训练好的排序模型,使其输出该文本数据下,所有因果分析各自对应的排名分数,基于排名分数对该文本数据下的各因果分析进行排序。
将文本数据作为文本样本输入分类模型,分类模型基于文本样本的第一文本特征,输出预测立场;将该文本样本的真实标签所对应的一个因果分析输入分类模型,分类模型基于文本样本的第一文本特征,结合上述一个因果分析对应的第二文本特征,输出相应的因果释义;将该文本样本对应的全部因果分析各自的第三文本特征,结合文本样本的第一文本特征,预测文本样本所对应的各个因果分析各自的正确性概率,并基于正确性概率对该文本样本所对应的全部因果分析进行排序得到预测排序结果。
最后,可以基于预测立场、因果释义与预测排序结果生成总损失,基于总损失对分类模型进行参数调整。
在整个过程中,主要有两个过程需要依靠预先训练好的大模型/排序模型,如图9所示,为本申请实施例提供的一种大模型应用示意图,在训练样本的构造阶段,需要将文本样本、描述目标以及样本标签输入至预先训练好的大模型,尤其输出相应样本标签对应的因果分析集,在针对分类模型的解码器进行训练之前,需要将一个文本样本所对应的全部因果分析输入预先训练好的排序模型,以此输出各因果分析的排名分数。
利用训练样本对分类模型进行训练,分类模型的编码器输出预测立场,解码器输出因果释义以及预测排序结果。
进一步的,上述中的预测立场可以与真实标签对比得到立场差异损失、由因果释义得到生成损失,而将预测排序结果与排序模型根据排名分数得到的参考排序结果对比可以得到排序差异损失。
训练好的分类模型可以部署到具体的应用场景,对待分类文本进行立场预测,即,服务器将待分类文本输入已训练的分类模型;已训练的分类模型的编码器输出立场预测结果,解码器输出相应的原因解释,也即待分类文本针对描述目标的预测立场与因果释义。
具体地,依旧假设待分类文本为针对参加课外活动的相关描述,如图10所示,为本申请实施例提供的一种分类模型实际应用时与客户端的交互流程图,对象Q将待检测的大量文本以及文本的描述目标上传至终端设备,其中,描述目标为“参加课外活动”。终端设备将上述内容发送给服务器,服务器将文本输入至已训练的分类模型,已训练的分类模型可以对其进行特征提取,得到各文本相对应的第一文本特征,分类模型的编码器根据各文本相对应的第一文本特征,输出各文本相对应的立场预测结果,解码器则根据各文本相对应的第一文本特征输出原因解释。
例如,编码器输出文本1的立场为赞同,相应的,解码器输出文本1针对描述目标的立场为赞同的具体原因,编码器输出文本2的立场为中立,相应的,解码器输出文本2针对描述目标的立场为中立的具体原因,编码器输出文本3的立场为赞同,相应的,解码器输出文本3针对描述目标的立场为赞同的具体原因……以此类推。服务器将各文本对应的立场预测结果以及相应的原因解释发送至客户端展示。
此外,本申请所提出的分类模型的训练方法不仅适用于分类模型为文本分类模型的情况,对于需要对图片进行分类(如区分苹果与梨等),对视频进行分类(如区分电视剧与动画片等)等场景下,同样可以采用本申请所提出的方法对相应的分类模型进行训练,即,不仅将图片/视频本身作为样本输入至分类模型的编码器进行学习,同时将因果分析输入分类模型的解码器进行学习,以此使得分类模型能够更好的理解图片/视频样本与样本标签的关系,以提高分类模型的准确性。
为了检测本申请所提出的训练方法的效果,本申请还对6个不同的文本分类任务进行了实验,六个文本分类任务分别为:自然语言推理任务,同义检测任务,类别情绪分类任务,立场检测任务,支持检测任务以及相关性分类任务。
在实验中,使用双向编码器-单向解码器语言模型,例如,该模型可以为Huggingface官方发布的预训练FLAN-T5-Large模型等。令所有模型使用Adam优化器在单个图形处理器(英文:graphics processing unit,GPU)上进行训练,GPU型号可以为TeslaV100,并将学习率设置为1e-4,使用线性调度,所有任务的批次大小都设置为1,即每次只训练一个样本,基于Macro-F1评价指标对所有任务的性能进行评估。报告的结果取9个实验结果的平均值。
如图11所示,为本申请实施例提供的一种实验结果示意图,Sequence Pair模型,可以简称SeqPair模型在上述6个任务下的性能评估分数分别为:82.14、84.66、76.44、74.56、63.53、72.11;Sequence Connection模型,可以简称SeqCon模型在上述6个任务下的性能评估分数分别为:83.11、84.74、76.23、75.45、65.71、71.39;Supervised ContrastiveLearning模型,可以简称SupCon模型在上述6个任务下的性能评估分数分别为:83.44、85.56、77.89、76.65、65.99、72.24;本申请的EXTC模型在上述6个任务下的性能评估分数分别为:85.44、86.39、78.56、78.44、67.89、73.22;显然,本申请的EXTC模型的实验结果优于其他模型。与其他模型相比,EXTC模型性能更好。本方法较其他基线系统均提升了约1%的平均macro-F1分数。实验结果充分展示了本方法的有效性。
综上,本申请所提出的分类模型训练方法可以使分类模型充分并正确的学习到样本标签与样本之间的关系,可以让分类模型准确地理解文本的含义,学习到更多的潜在特征分布,以此提高分类模型的泛化能力,在实际应用时达到更好的泛化性,以及提高分类的准确率。且该方法可以减少训练时所需要的样本数量,利用较少的数据能够达到更好的模型效果,一定程度上可以降低训练所需要的成本。且该训练方法能够提高分类模型的可解释性,使分类模型在对输入进行分类预测时有所依据。
基于相同的发明构思,本申请实施例还提供一种分类模型的训练装置。如图12所示,其为分类模型的训练装置的结构示意图,可以包括:
训练单元1201,用于基于训练样本集对待训练的分类模型进行至少一轮训练;其中,每个训练样本包含:文本样本、至少一个样本标签及相应的因果分析集,至少一个样本标签至少包含真实标签,真实标签表征文本样本针对描述目标的真实立场,每个因果分析集包含至少一个因果分析,每个因果分析包括对应的样本标签与文本样本之间的因果论证;
其中,训练单元1201包括:获取模块12011、生成模块12012、预测模块12013与调整模块12014;在一轮训练中,执行以下操作:
获取模块12011,用于基于选取的各文本样本的第一文本特征,分别获得相应文本样本针对描述目标的预测立场;
生成模块12012,用于分别基于各真实标签各自对应的一个因果分析的第二文本特征,结合相应的第一文本特征,生成相应真实标签对应的因果释义;
预测模块12013,用于分别基于各文本样本各自对应的至少一个因果分析集的第三文本特征集,对相应文本样本对应的各因果分析的正确性概率进行预测与排序,得到各文本样本各自对应的预测排序结果;
调整模块12014,用于基于各预测立场、各因果释义和各预测排序结果,进行参数调整。
可选的,每个因果分析由至少一个分析令牌组成,因果分析的第二文本特征包含因果分析中各分析令牌的第二文本特征,每个因果释义表征相应的一个因果分析中的各个分析令牌的生成概率;生成模块12012具体用于通过如下方式依次得到每个因果释义中的各个分析令牌的生成概率:
若当前获取的生成概率为一个因果分析中的首个分析令牌的生成概率,则基于一个因果分析所对应的文本样本的第一文本特征,获取首个分析令牌的生成概率;
若当前获取的生成概率为一个因果分析中的非首个分析令牌的生成概率,则基于一个因果分析所对应的文本样本的第一文本特征,以及一个因果分析中,当前分析令牌之前的其它分析令牌所对应的第二文本特征,获取非首个分析令牌的生成概率。
可选的,每个因果分析由至少一个分析令牌组成,预测模块12013具体用于:
基于分类模型,分别对各文本样本各自对应的至少一个因果分析集中的各个因果分析进行语义特征提取,获得各因果分析集各自对应的第三文本特征集;每个第三文本特征集中包含相应因果分析集中各因果分析对应的第三文本特征;
分别基于各因果分析集各自对应的第三文本特征集,结合相应的第一文本特征,预测相应因果分析集中各因果分析各自包含的各个分析令牌的生成概率;
分别基于各因果分析集各自包含的各因果分析中,各个分析令牌的生成概率,对相应因果分析集对应的各因果分析的正确性概率进行预测与排序。
可选的,预测模块12013具体用于通过如下方式获得每个因果分析的正确性概率:
获取因果分析中,各个分析令牌所对应的生成概率的对数值;
基于各个对数值,与因果分析所包含的分析令牌的数量,得到因果分析的正确性概率,各个对数值与因果分析的正确性概率呈正相关,分析令牌的数量与因果分析的正确性概率呈负相关。
可选的,每个因果释义表征相应的一个因果分析中的各个分析令牌的生成概率,调整模块12014具体用于:
基于各检测结果与对应真实样本标签之间的差异获取立场差异损失;
获取各因果释义各自包含的各个分析令牌的生成概率,并基于各生成概率获取生成损失,生成概率与生成损失呈负相关;
基于各预测排序结果与相应的参考排序结果之间的差异获取排序差异损失;
基于立场差异损失、生成损失与排序差异损失对分类模型进行参数调整。
可选的,参考排序结果是将相应文本样本对应的各因果分析输入至预先训练好的排序模型中得到的。
可选的,各文本样本各自对应的第一文本特征包含:相应文本样本的整体特征,以及相应文本样本中,各文本令牌的上下文特征,获取模块12011具体用于:
基于分类模型对选取的各文本样本分别进行语义特征提取,获得各文本样本的第一文本特征;以及基于各第一文本特征中的各整体特征,分别获得相应文本样本针对描述目标的预测立场;
生成模块12012具体用于:
基于分类模型对各真实标签各自对应的一个因果分析分别进行语义特征提取,获得各真实标签各自对应的一个因果分析的第二文本特征;
分别基于各真实标签各自对应的一个因果分析的第二文本特征,结合相应的整体特征与相应各文本令牌的上下文特征,生成相应的真实标签对应的因果释义。
可选的,装置还包括:
应用单元1202,用于将待分类文本输入已训练的分类模型;
基于已训练的分类模型,获取待分类文本的第一文本特征,并基于第一文本特征,获得待分类文本针对描述目标的预测立场与因果释义。
为了描述的方便,以上各部分按照功能划分为各模块(或单元)分别描述。当然,在实施本申请时可以把各模块(或单元)的功能在同一个或多个软件或硬件中实现。
本申请实施例中,术语“模块”或“单元”是指有预定功能的计算机程序或计算机程序的一部分,并与其他相关部分一起工作以实现预定目标,并且可以通过使用软件、硬件(如处理电路或存储器)或其组合来全部或部分实现。同样的,一个处理器(或多个处理器或存储器)可以用来实现一个或多个模块或单元。此外,每个模块或单元都可以是包含该模块或单元功能的整体模块或单元的一部分。
在介绍了本申请示例性实施方式的分类模型的训练方法和装置之后,接下来,介绍根据本申请的另一示例性实施方式的电子设备。
所属技术领域的技术人员能够理解,本申请的各个方面可以实现为系统、方法或程序产品。因此,本申请的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
与上述方法实施例基于同一发明构思,本申请实施例中还提供了一种电子设备。在一种实施例中,该电子设备可以是服务器,如图1所示的服务器120。在该实施例中,电子设备的结构可以如图13所示,包括存储器1301,通讯模块1303以及一个或多个处理器1302。
存储器1301,用于存储处理器1302执行的计算机程序。存储器1301可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统,以及运行即时通讯功能所需的程序等;存储数据区可存储各种即时通讯信息和操作指令集等。
存储器1301可以是易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM);存储器1301也可以是非易失性存储器(non-volatilememory),例如只读存储器,快闪存储器(flash memory),硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD);或者存储器1301是能够用于携带或存储具有指令或数据结构形式的期望的计算机程序并能够由计算机存取的任何其他介质,但不限于此。存储器1301可以是上述存储器的组合。
处理器1302,可以包括一个或多个中央处理单元(central processing unit,CPU)或者为数字处理单元等等。处理器1302,用于调用存储器1301中存储的计算机程序时实现上述分类模型的训练方法。
通讯模块1303用于与终端设备和其他服务器进行通信。
本申请实施例中不限定上述存储器1301、通讯模块1303和处理器1302之间的具体连接介质。本申请实施例在图13中以存储器1301和处理器1302之间通过总线1304连接,总线1304在图13中以粗线描述,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。总线1304可以分为地址总线、数据总线、控制总线等。为便于描述,图13中仅用一条粗线描述,但并不描述仅有一根总线或一种类型的总线。
存储器1301中存储有计算机存储介质,计算机存储介质中存储有计算机可执行指令,计算机可执行指令用于实现本申请实施例的分类模型的训练方法。处理器1302用于执行上述的分类模型的训练方法,如图2所示。
在另一种实施例中,电子设备也可以是其他电子设备,如图1所示的终端设备110。在该实施例中,电子设备的结构可以如图14所示,包括:通信组件1410、存储器1420、显示单元1430、摄像头1440、传感器1450、音频电路1460、蓝牙模块1470、处理器1480等部件。
通信组件1410用于与服务器进行通信。在一些实施例中,可以包括电路无线保真(Wireless Fidelity,WiFi)模块,WiFi模块属于短距离无线传输技术,电子设备通过WiFi模块可以帮助对象(如用户)收发信息。
存储器1420可用于存储软件程序及数据。处理器1480通过运行存储在存储器1420的软件程序或数据,从而执行终端设备110的各种功能以及数据处理。存储器1420可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。存储器1420存储有使得终端设备110能运行的操作系统。本申请中存储器1420可以存储操作系统及各种应用程序,还可以存储执行本申请实施例分类模型的训练方法的计算机程序。
显示单元1430还可用于显示由对象输入的信息或提供给对象的信息以及终端设备110的各种菜单的图形对象界面(graphical user interface,GUI)。具体地,显示单元1430可以包括设置在终端设备110正面的显示屏1432。其中,显示屏1432可以采用液晶显示器、发光二极管等形式来配置。显示单元1430可以用于显示本申请实施例中的分类模型的训练界面等。
显示单元1430还可用于接收输入的数字或字符信息,产生与终端设备110的对象设置以及功能控制有关的信号输入,具体地,显示单元1430可以包括设置在终端设备110正面的触控屏1431,可收集对象在其上或附近的触摸操作,例如点击按钮,拖动滚动框等。
其中,触控屏1431可以覆盖在显示屏1432之上,也可以将触控屏1431与显示屏1432集成而实现终端设备110的输入和输出功能,集成后可以简称触摸显示屏。本申请中显示单元1430可以显示应用程序以及对应的操作步骤。
摄像头1440可用于捕获静态图像,对象可以将摄像头1440拍摄的图像通过应用发布。摄像头1440可以是一个,也可以是多个。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给处理器1480转换成数字图像信号。
终端设备还可以包括至少一种传感器1450,比如加速度传感器1451、距离传感器1452、指纹传感器1453、温度传感器1454。终端设备还可配置有陀螺仪、气压计、湿度计、温度计、红外线传感器、光传感器、运动传感器等其他传感器。
音频电路1460、扬声器1461、传声器1462可提供对象与终端设备110之间的音频接口。音频电路1460可将接收到的音频数据转换后的电信号,传输到扬声器1461,由扬声器1461转换为声音信号输出。终端设备110还可配置音量按钮,用于调节声音信号的音量。另一方面,传声器1462将收集的声音信号转换为电信号,由音频电路1460接收后转换为音频数据,再将音频数据输出至通信组件1410以发送给比如另一终端设备110,或者将音频数据输出至存储器1420以便进一步处理。
蓝牙模块1470用于通过蓝牙协议来与其他具有蓝牙模块的蓝牙设备进行信息交互。例如,终端设备可以通过蓝牙模块1470与同样具备蓝牙模块的可穿戴电子设备(例如智能手表)建立蓝牙连接,从而进行数据交互。
处理器1480是终端设备的控制中心,利用各种接口和线路连接整个终端的各个部分,通过运行或执行存储在存储器1420内的软件程序,以及调用存储在存储器1420内的数据,执行终端设备的各种功能和处理数据。在一些实施例中,处理器1480可包括一个或多个处理单元;处理器1480还可以集成应用处理器和基带处理器,其中,应用处理器主要处理操作系统、对象界面和应用程序等,基带处理器主要处理无线通信。可以理解的是,上述基带处理器也可以不集成到处理器1480中。本申请中处理器1480可以运行操作系统、应用程序、对象界面显示及触控响应,以及本申请实施例的分类模型的训练方法。另外,处理器1480与显示单元1430耦接。
在一些可能的实施方式中,本申请提供的分类模型的训练方法的各个方面还可以实现为一种程序产品的形式,其包括计算机程序,当程序产品在电子设备上运行时,计算机程序用于使电子设备执行本说明书上述描述的根据本申请各种示例性实施方式的分类模型的训练方法中的步骤,例如,电子设备可以执行如图2中所示的步骤。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
本申请的实施方式的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括计算机程序,并可以在电子设备上运行。然而,本申请的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被命令执行系统、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读计算机程序。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由命令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的计算机程序可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本申请操作的计算机程序,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。计算机程序可以完全地在对象电子设备上执行、部分地在对象电子设备上执行、作为一个独立的软件包执行、部分在对象电子设备上部分在远程电子设备上执行、或者完全在远程电子设备或服务器上执行。在涉及远程电子设备的情形中,远程电子设备可以通过任意种类的网络包括局域网(LAN)或广域网(WAN)连接到对象电子设备,或者,可以连接到外部电子设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了装置的若干单元或子单元,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。
此外,尽管在附图中以特定顺序描述了本申请方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用计算机程序的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序命令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序命令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的命令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序命令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的命令产生包括命令装置的制造品,该命令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序命令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的命令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (12)
1.一种分类模型的训练方法,其特征在于,所述方法包括:
基于训练样本集对待训练的分类模型进行至少一轮训练;其中,每个训练样本包含:文本样本、至少一个样本标签及相应的因果分析集,所述至少一个样本标签至少包含真实标签,所述真实标签表征所述文本样本针对描述目标的真实立场,每个因果分析集包含至少一个因果分析,每个因果分析包括对应的样本标签与所述文本样本之间的因果论证;
其中,在一轮训练中,执行以下操作:
基于选取的各文本样本的第一文本特征中的整体特征,分别获得相应文本样本针对所述描述目标的预测立场;
基于所述分类模型对各真实标签各自对应的一个因果分析分别进行语义特征提取,获得所述各真实标签各自对应的一个因果分析的第二文本特征;
分别基于各真实标签各自对应的一个因果分析的第二文本特征,结合相应的第一文本特征中的整体特征与各上下文特征,生成相应的真实标签对应的因果释义;所述各上下文特征为与相应第一文本特征对应的文本样本中,各文本令牌的上下文特征;
分别基于所述各文本样本各自对应的至少一个因果分析集的第三文本特征集,对相应文本样本对应的各因果分析的正确性概率进行预测与排序,得到所述各文本样本各自对应的预测排序结果;
基于各预测立场、各因果释义和各预测排序结果,进行参数调整。
2.如权利要求1所述的方法,其特征在于,每个因果分析由至少一个分析令牌组成,所述因果分析的第二文本特征包含所述因果分析中各分析令牌的第二文本特征,每个因果释义表征相应的一个因果分析中的各个分析令牌的生成概率;每个因果释义中的各个分析令牌的生成概率是通过如下方式依次得到的:
若当前获取的生成概率为所述一个因果分析中的首个分析令牌的生成概率,则基于所述一个因果分析所对应的文本样本的第一文本特征,获取所述首个分析令牌的生成概率;
若当前获取的生成概率为所述一个因果分析中的非首个分析令牌的生成概率,则基于所述一个因果分析所对应的文本样本的第一文本特征,以及所述一个因果分析中,当前分析令牌之前的其它分析令牌所对应的第二文本特征,获取所述非首个分析令牌的生成概率。
3.如权利要求1所述的方法,其特征在于,每个因果分析由至少一个分析令牌组成,所述分别基于所述各文本样本各自对应的至少一个因果分析集的第三文本特征集,对相应文本样本对应的各因果分析的正确性概率进行预测与排序,包括:
基于所述分类模型,分别对所述各文本样本各自对应的至少一个因果分析集中的各个因果分析进行语义特征提取,获得各因果分析集各自对应的第三文本特征集;每个第三文本特征集中包含相应因果分析集中各因果分析对应的第三文本特征;
分别基于各因果分析集各自对应的第三文本特征集,结合相应的第一文本特征,预测相应因果分析集中各因果分析各自包含的各个分析令牌的生成概率;
分别基于所述各因果分析集各自包含的各因果分析中,各个分析令牌的生成概率,对相应因果分析集对应的各因果分析的正确性概率进行预测与排序。
4.如权利要求3所述的方法,其特征在于,每个因果分析的正确性概率是通过如下方式获得的:
获取所述因果分析中,各个分析令牌所对应的生成概率的对数值;
基于各个对数值,与所述因果分析所包含的分析令牌的数量,得到所述因果分析的正确性概率,所述各个对数值与所述因果分析的正确性概率呈正相关,所述分析令牌的数量与所述因果分析的正确性概率呈负相关。
5.如权利要求1~4任一项所述的方法,其特征在于,每个因果释义表征相应的一个因果分析中的各个分析令牌的生成概率,所述基于各预测立场、各因果释义和各预测排序结果,进行参数调整,包括:
基于各检测结果与对应真实样本标签之间的差异获取立场差异损失;
获取各因果释义各自包含的各个分析令牌的生成概率,并基于各生成概率获取生成损失,所述生成概率与所述生成损失呈负相关;
基于各预测排序结果与相应的参考排序结果之间的差异获取排序差异损失;
基于所述立场差异损失、所述生成损失与所述排序差异损失对所述分类模型进行参数调整。
6.如权利要求5所述的方法,其特征在于,所述参考排序结果是将相应文本样本对应的各因果分析输入至预先训练好的排序模型中得到的。
7.如权利要求1所述的方法,其特征在于,所述基于选取的各文本样本的第一文本特征中的整体特征,分别获得相应文本样本针对所述描述目标的预测立场,包括:
基于所述分类模型对选取的各文本样本分别进行语义特征提取,获得各文本样本的第一文本特征;以及基于各第一文本特征中的各整体特征,分别获得相应文本样本针对所述描述目标的预测立场。
8.如权利要求1~4、6~7任一项所述的方法,其特征在于,所述方法还包括:
将待分类文本输入已训练的分类模型;
基于所述已训练的分类模型,获取所述待分类文本的第一文本特征,并基于所述第一文本特征,获得所述待分类文本针对所述描述目标的预测立场与因果释义。
9.一种分类模型的训练装置,其特征在于,包括:
训练单元,用于基于训练样本集对待训练的分类模型进行至少一轮训练;其中,每个训练样本包含:文本样本、至少一个样本标签及相应的因果分析集,所述至少一个样本标签至少包含真实标签,所述真实标签表征所述文本样本针对描述目标的真实立场,每个因果分析集包含至少一个因果分析,每个因果分析包括对应的样本标签与所述文本样本之间的因果论证;
其中,在一轮训练中,执行以下操作:
基于选取的各文本样本的第一文本特征中的整体特征,分别获得相应文本样本针对所述描述目标的预测立场;
基于所述分类模型对各真实标签各自对应的一个因果分析分别进行语义特征提取,获得所述各真实标签各自对应的一个因果分析的第二文本特征;
分别基于各真实标签各自对应的一个因果分析的第二文本特征,结合相应的第一文本特征中的整体特征与各上下文特征,生成相应的真实标签对应的因果释义;所述各上下文特征为与相应第一文本特征对应的文本样本中,各文本令牌的上下文特征;
分别基于所述各文本样本各自对应的至少一个因果分析集的第三文本特征集,对相应文本样本对应的各因果分析的正确性概率进行预测与排序,得到所述各文本样本各自对应的预测排序结果;
基于各预测立场、各因果释义和各预测排序结果,进行参数调整。
10.一种电子设备,其特征在于,其包括处理器和存储器,其中,所述存储器存储有计算机程序,当所述计算机程序被所述处理器执行时,使得所述处理器执行权利要求1~8中任一所述方法的步骤。
11.一种计算机可读存储介质,其特征在于,其包括计算机程序,当所述计算机程序在电子设备上运行时,所述计算机程序用于使所述电子设备执行权利要求1~8中任一所述方法的步骤。
12.一种计算机程序产品,其特征在于,包括计算机程序,所述计算机程序存储在计算机可读存储介质中;当电子设备的处理器从所述计算机可读存储介质读取所述计算机程序时,所述处理器执行所述计算机程序,使得所述电子设备执行权利要求1~8中任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410029694.5A CN117540024B (zh) | 2024-01-09 | 2024-01-09 | 一种分类模型的训练方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410029694.5A CN117540024B (zh) | 2024-01-09 | 2024-01-09 | 一种分类模型的训练方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117540024A CN117540024A (zh) | 2024-02-09 |
CN117540024B true CN117540024B (zh) | 2024-03-19 |
Family
ID=89794253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410029694.5A Active CN117540024B (zh) | 2024-01-09 | 2024-01-09 | 一种分类模型的训练方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117540024B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114005446A (zh) * | 2021-11-01 | 2022-02-01 | 科大讯飞股份有限公司 | 情感分析方法、相关设备及可读存储介质 |
CN114238593A (zh) * | 2021-11-25 | 2022-03-25 | 蚂蚁财富(上海)金融信息服务有限公司 | 数据处理方法、装置、电子设备及计算机存储介质 |
CN114416943A (zh) * | 2021-12-29 | 2022-04-29 | 北京百度网讯科技有限公司 | 对话模型的训练方法、装置、电子设备及存储介质 |
CN115936075A (zh) * | 2023-01-03 | 2023-04-07 | 北京工业大学 | 在电商评论场景下的一种基于生成对抗网络的文本对抗样本防御方法 |
CN116090425A (zh) * | 2022-11-28 | 2023-05-09 | 清华大学 | 一种基于词替换的文本生成方法、系统及存储介质 |
CN116861258A (zh) * | 2023-08-31 | 2023-10-10 | 腾讯科技(深圳)有限公司 | 模型处理方法、装置、设备及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2369505A1 (en) * | 2010-03-26 | 2011-09-28 | British Telecommunications public limited company | Text classifier system |
US10261947B2 (en) * | 2015-01-29 | 2019-04-16 | Affectomatics Ltd. | Determining a cause of inaccuracy in predicted affective response |
US10839154B2 (en) * | 2017-05-10 | 2020-11-17 | Oracle International Corporation | Enabling chatbots by detecting and supporting affective argumentation |
-
2024
- 2024-01-09 CN CN202410029694.5A patent/CN117540024B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114005446A (zh) * | 2021-11-01 | 2022-02-01 | 科大讯飞股份有限公司 | 情感分析方法、相关设备及可读存储介质 |
CN114238593A (zh) * | 2021-11-25 | 2022-03-25 | 蚂蚁财富(上海)金融信息服务有限公司 | 数据处理方法、装置、电子设备及计算机存储介质 |
CN114416943A (zh) * | 2021-12-29 | 2022-04-29 | 北京百度网讯科技有限公司 | 对话模型的训练方法、装置、电子设备及存储介质 |
CN116090425A (zh) * | 2022-11-28 | 2023-05-09 | 清华大学 | 一种基于词替换的文本生成方法、系统及存储介质 |
CN115936075A (zh) * | 2023-01-03 | 2023-04-07 | 北京工业大学 | 在电商评论场景下的一种基于生成对抗网络的文本对抗样本防御方法 |
CN116861258A (zh) * | 2023-08-31 | 2023-10-10 | 腾讯科技(深圳)有限公司 | 模型处理方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117540024A (zh) | 2024-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111666416B (zh) | 用于生成语义匹配模型的方法和装置 | |
CN112231569B (zh) | 新闻推荐方法、装置、计算机设备及存储介质 | |
CN113704460B (zh) | 一种文本分类方法、装置、电子设备和存储介质 | |
WO2021136131A1 (zh) | 一种信息推荐方法以及相关设备 | |
WO2020073533A1 (zh) | 自动问答方法及装置 | |
CN114707513A (zh) | 一种文本语义识别方法、装置、电子设备和存储介质 | |
CN114238690A (zh) | 视频分类的方法、装置及存储介质 | |
CN113010702A (zh) | 多媒体信息的互动处理方法、装置、电子设备及存储介质 | |
Li et al. | Intention understanding in human–robot interaction based on visual-NLP semantics | |
CN113705191A (zh) | 样本语句的生成方法、装置、设备及存储介质 | |
CN112069781A (zh) | 一种评语生成方法、装置、终端设备及存储介质 | |
CN115270807A (zh) | 网络用户的情感倾向判定方法、装置、设备及存储介质 | |
CN113919361A (zh) | 一种文本分类方法和装置 | |
CN117540024B (zh) | 一种分类模型的训练方法、装置、电子设备和存储介质 | |
CN114419514B (zh) | 一种数据处理方法、装置、计算机设备及存储介质 | |
CN116958852A (zh) | 视频与文本的匹配方法、装置、电子设备和存储介质 | |
CN113378826B (zh) | 一种数据处理方法、装置、设备及存储介质 | |
CN112861474B (zh) | 一种信息标注方法、装置、设备及计算机可读存储介质 | |
CN113392640B (zh) | 一种标题确定方法、装置、设备及存储介质 | |
CN114282094A (zh) | 一种资源排序方法、装置、电子设备和存储介质 | |
CN114970494A (zh) | 一种评论生成方法、装置、电子设备和存储介质 | |
Baek et al. | Implementation of a Virtual Assistant System Based on Deep Multi-modal Data Integration | |
Shrestha | A transformer-based deep learning model for evaluation of accessibility of image descriptions | |
CN117711001B (zh) | 图像处理方法、装置、设备和介质 | |
CN116911374B (zh) | 文本对抗样本的生成方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |