CN116821336A - 一种用户标签生成模型的训练方法、装置及存储介质 - Google Patents
一种用户标签生成模型的训练方法、装置及存储介质 Download PDFInfo
- Publication number
- CN116821336A CN116821336A CN202310662516.1A CN202310662516A CN116821336A CN 116821336 A CN116821336 A CN 116821336A CN 202310662516 A CN202310662516 A CN 202310662516A CN 116821336 A CN116821336 A CN 116821336A
- Authority
- CN
- China
- Prior art keywords
- training
- model
- user
- user tag
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000012163 sequencing technique Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 description 27
- NGBFQHCMQULJNZ-UHFFFAOYSA-N Torsemide Chemical compound CC(C)NC(=O)NS(=O)(=O)C1=CN=CC=C1NC1=CC=CC(C)=C1 NGBFQHCMQULJNZ-UHFFFAOYSA-N 0.000 description 16
- 239000003814 drug Substances 0.000 description 16
- 229960005461 torasemide Drugs 0.000 description 16
- 230000001575 pathological effect Effects 0.000 description 11
- 210000004696 endometrium Anatomy 0.000 description 10
- 206010020718 hyperplasia Diseases 0.000 description 10
- 238000001356 surgical procedure Methods 0.000 description 10
- 229940079593 drug Drugs 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 210000000265 leukocyte Anatomy 0.000 description 5
- 238000005457 optimization Methods 0.000 description 4
- HPJKCIUCZWXJDR-UHFFFAOYSA-N letrozole Chemical compound C1=CC(C#N)=CC=C1C(N1N=CN=C1)C1=CC=C(C#N)C=C1 HPJKCIUCZWXJDR-UHFFFAOYSA-N 0.000 description 3
- 229960003881 letrozole Drugs 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- NKANXQFJJICGDU-QPLCGJKRSA-N Tamoxifen Chemical compound C=1C=CC=CC=1C(/CC)=C(C=1C=CC(OCCN(C)C)=CC=1)/C1=CC=CC=C1 NKANXQFJJICGDU-QPLCGJKRSA-N 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 206010043554 thrombocytopenia Diseases 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 229960001603 tamoxifen Drugs 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
一种用户标签生成模型的训练方法、装置及存储介质,包括:获取训练数据,在训练数据中设置用户标签生成任务占位符,并作为模型的第一输入;随机获取训练数据与预测用户标签进行随机组合,并设置文本分类任务占位符后作为模型的第二输入;获取所有第二输出,并根据预设评分标准对每个第二输出进行评分得到每个第二输出的对应分值;根据每个第二输出的分值进行排序,更新模型权重,得到用户标签生成模型。本发明通过在预训练阶段生成预测用户标签,再通过第二训练阶段对文本分类类别进行评分,得到的用户标签生成模型能够准确地生成用户标签。
Description
技术领域
本发明涉及计算机技术领域,特别是一种用户标签生成模型的训练方法及应用该方法的训练装置及计算机可读存储介质。
背景技术
用户标签是一种用于描述用户特征和行为的识别标志,可以用于区分和分类用户,以便更好地为用户提供个性化的服务和产品。在线上运营人员与用户交流、用户在群组聊天的过程中,用户的属性会在会话中逐渐体现出来。
例如:
用户A:“你多大岁数了,医生有开过来曲唑片吗?”
用户B:“55,来曲唑片副作用大吗?”
上述会话内容中,用户A先提出问题(年龄以及用药情况),用户B接着回复上文用户A关于年龄以及用药情况的问题。但是,用户B的用户标签“年龄55岁”,需要结合用户A上文的提问才能获得。根据现有的用户标签生成模型的训练方法得到的模型只能针对某一用户发送的单句话进行处理,无法处理上下文信息,这会导致无法准确生成每个用户标签。为方便理解,可参考以下另一会话例子:
用户C:“我前段时间血小板、白细胞低。”
用户D:“我跟你情况一样。”
根据上述会话内容,现有的用户标签生成模型的训练方法得到的模型只能找到用户A的标签:血小板、白细胞低,而难以发现用户B的标签,
导致无法准确生成每个用户标签。
在上述用户A、B间的会话中,用户B的回答中还提到了药品关键字“来曲唑片”,但是对于该关键词用户A仅仅是提问相关副作用,并没有使用该药品,不应该归于用户A的用户标签中。因此,在模型训练时还应当考虑此类情况,否则也会导致无法准确生成用户标签。
可见,现有的用户标签生成模型还存在无法准确生成用户标签的问题。
发明内容
本发明的主要目的在于提供了一种用户标签生成模型的训练方法、装置及存储介质,旨在解决现有的用户标签生成模型还存在无法准确生成用户标签的技术问题。
为实现上述目的,本发明提供了一种用户标签生成模型的训练方法,其包括以下步骤:S1、预训练阶段:获取训练数据,在训练数据中设置用户标签生成任务占位符,并作为模型的第一输入;用户标签生成任务占位符用于执行用户标签生成任务,以生成预测用户标签;S2、第一训练阶段:随机获取训练数据与预测用户标签,进行随机组合,并设置文本分类任务占位符后作为模型的第二输入;文本分类任务占位符用于执行文本分类任务,以生成多个文本分类类别,作为模型的第二输出;S3、第二训练阶段:获取所有第二输出,并根据预设评分标准对每个第二输出进行评分,得到每个第二输出的对应分值;根据每个第二输出的分值进行排序,并更新模型权重,得到用户标签生成模型。
可选的,训练数据具体为:通过获取用户聊天数据中的文本内容得到的文本数据集,包含多个文本数据。
可选的,预训练阶段具体步骤如下:S10、获取文本数据集,并对其中的每个文本数据设置对应的预设标签数据;S11、将每个文本数据以及其对应的预设标签数据进行字符串拼接,并设置用户标签生成任务占位符;S12、将步骤S11得到的结果作为模型的第一输入x1,且m1<n<m2,其中m1为文本数据的文本长度,m2为第一输入x1的文本长度,n为一随机数。
可选的,预训练阶段模型的损失函数计算公式具体如下:loss_1=classify_loss(one_hot(target1),y1);其中,loss_1表示第一损失函数,classify_loss为分类损失函数,target1为模型的第一期望输出,且target1的文本长度为x1+a,a为文本数据对应的预设标签数据的文本长度,one_hot表示将target1根据预设字典进行独热编码,y1表示模型的第一输出;y1=GEN(x1),y1具体为一个b*1的向量,b表示预设字典大小,向量中每个元素的值表示对应字典中单词出现的概率,GEN表示用户标签生成任务。
可选的,第一训练阶段的损失函数计算公式具体如下:loss_2=classify_loss(target2,y2),其中,loss_2表示第二损失函数,classify_loss为分类损失函数,y2表示模型的第二输出,target2为模型的第二期望输出;第二期望输出具体为:预测用户标签与训练数据完全无关,或者预测用户标签是根据训练数据得到的。
可选的,分类损失函数至少包括0-1损失、交叉熵损失其中之一。
可选的,第三训练阶段的损失函数计算公式具体如下:loss_3=rank_loss(y2_w);其中,loss_3表示第三损失函数,rank_loss表示排序损失,y2_w表示多个第二输出,且w∈N*,N*表示正整数集。
可选的,排序损失至少包括单点损失、配对损失、列表损失其中之一。
与所述用户标签生成模型的训练方法相对应的,本发明提供一种用户标签生成模型的训练装置,其包括:预训练模块,用于获取训练数据,在训练数据中设置用户标签生成任务占位符,并作为模型的第一输入;用户标签生成任务占位符用于执行用户标签生成任务,以生成预测用户标签;第一训练模块,用于随机获取训练数据与预测用户标签,进行随机组合,并设置文本分类任务占位符后作为模型的第二输入;文本分类任务占位符用于执行文本分类任务,以生成多个文本分类类别,作为模型的第二输出;第二训练模块,用于获取所有第二输出,并根据预设评分标准对每个第二输出进行评分,得到每个第二输出的对应分值;根据每个第二输出的分值进行排序,并更新模型权重,得到用户标签生成模型。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有用户标签生成模型的训练程序,所述用户标签生成模型的训练程序被处理器执行时实现如上文所述的用户标签生成模型的训练方法的步骤。
本发明的有益效果是:
(1)与现有技术相比,本发明通过在预训练阶段生成预测用户标签,第一训练阶段生成多个文本分类类别,再通过第二训练阶段对文本分类类别进行评分,得到的用户标签生成模型能够准确地生成用户标签;
(2)与现有技术相比,本发明通过第一损失函数计算公式计算第一损失函数,并且对第一期望输出的文本长度进行设置,通过比较模型的第一输出和第一期望输出来确定模型的性能,进而寻找优化方向,提高模型性能;
(3)与现有技术相比,本发明通过第一输出的向量中每个元素的值表示对应字典中单词出现的概率,因此可通过概率值作为权重,进行加权随机采样获取训练数据与预测用户标签进行随机组合,并设置文本分类任务占位符,实现通过一个文本,可以生成多个不同的第二输出,再结合第二训练阶段的评分操作对第二输出进行排序,并更新模型权重,即可避免模型识别到用户标签相关的关键字,但是该关键字并非属于用户标签的情况,进一步提高模型生成用户标签的准确性;
(4)与现有技术相比,本发明通过第二损失函数计算公式计算第二损失函数,比较模型的第二输出和第二期望来确定模型的性能,进而寻找优化方向,进一步提高了模型性能。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明用户标签生成模型的训练方法的流程简图;
图2为本发明用户标签生成模型的训练装置的简要框架图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明的一种用户标签生成模型的训练方法,其包括以下步骤:S1、预训练阶段:获取训练数据,在训练数据中设置用户标签生成任务占位符,并作为模型的第一输入;用户标签生成任务占位符用于执行用户标签生成任务,以生成预测用户标签;S2、第一训练阶段:随机获取训练数据与预测用户标签,进行随机组合,并设置文本分类任务占位符后作为模型的第二输入;文本分类任务占位符用于执行文本分类任务,以生成多个文本分类类别,作为模型的第二输出;S3、第二训练阶段:获取所有第二输出,并根据预设评分标准对每个第二输出进行评分,得到每个第二输出的对应分值;根据每个第二输出的分值进行排序,并更新模型权重,得到用户标签生成模型。
本发明通过在预训练阶段生成预测用户标签,第一训练阶段生成多个文本分类类别,再通过第二训练阶段对文本分类类别进行评分,得到的用户标签生成模型能够准确地生成用户标签。
针对背景技术中的两个对话例子,通过本发明的训练方法得到的模型,能够直接将群聊/单聊数据按时间顺序排序输入到模型中,并准确生成每个用户的标签。
例如:输入:“用户A:我前段时间血小板、白细胞低。”
则,输出:“用户A血小板低、白细胞低。”
或者,输入:“用户A:我前段时间血小板、白细胞低。用户B:我也是。”
则,输出:“用户A血小板低、白细胞低。用户B血小板低、白细胞低。”
在本实施例中,训练数据具体为:通过获取用户聊天数据中的文本内容得到的文本数据集,包含多个文本数据。
优选的,文本数据集中的所有用户聊天数据按时间顺序排序。
在本实施例中,预训练阶段具体步骤如下:S10、获取文本数据集,并对其中的每个文本数据设置对应的预设标签数据;S11、将每个文本数据以及其对应的预设标签数据进行字符串拼接,并设置用户标签生成任务占位符;S12、将步骤S11得到的结果作为模型的第一输入x1,且m1<n<m2,其中m1为文本数据的文本长度,m2为第一输入x1的文本长度,n为一随机数。
由于在预训练任务中,需要训练的是模型对于残缺输入文本的“续写”能力,例如对于训练数据“[gen]姐妹们好,吃托瑞米酚子宫内膜厚,做了宫腔镜手术,做病理增生,还能继续吃托瑞米酚吗?还是换药,换什么药?求指点[label]女性,用药为托瑞米酚,对应副作用子宫内膜厚,病理增生,手术情况:宫腔镜手术”,模型在通过训练方法的充分训练后,能够对截断标签内容进行续写。
例如:对于用户标签生成模型的输入:“[gen]姐妹们好,吃托瑞米酚子宫内膜厚,做了宫腔镜手术,做病理增生,还能继续吃托瑞米酚吗?还是换药,换什么药?求指点[label]”,用户标签生成模型能续写剩下内容:“女性,用药为托瑞米酚,对应副作用子宫内膜厚,病理增生,手术情况:宫腔镜手术”。
而在训练任务中,不需要对用户输入进行续写,输入“[gen]姐妹们好,吃托瑞米酚子宫内”,不需要生成“膜厚,做了宫腔镜手术,做病理增生,还能继续吃托瑞米酚吗?....”,因此可以设置m1,续写从大于m1的位置,也就是[label]位置开始。同时要求模型可以从[label]后的任意截断开始续写,因此设置一个随机数n对训练数据进行随机截断,以提高模型从任意位置生成文本的能力。
在本实施例中,[gen]表示用户标签生成任务占位符,[label1]表示右边内容是用户标签开始生成的内容。例如,第一输入x1=“[gen]姐妹们好,吃托瑞米酚子宫内膜厚,做了宫腔镜手术,做病理增生,还能继续吃托瑞米酚吗?还是换药,换什么药?求指点。[label1]性别:”。其中,[gen]表示用户标签生成任务占位符,[label1]表示右边内容是用户标签开始生成的内容。
在本实施例中,预训练阶段模型的损失函数计算公式具体如下:loss_1=classify_loss(one_hot(target1),y1);其中,loss_1表示第一损失函数,classify_loss为分类损失函数,target1为模型的第一期望输出,且target1的文本长度为x1+a,a为文本数据对应的预设标签数据的文本长度,one_hot表示将target1根据预设字典进行独热编码,y1表示模型的第一输出;y1=GEN(x1),y1具体为一个b*1的向量,b表示预设字典大小,向量中每个元素的值表示对应字典中单词出现的概率,GEN表示用户标签生成任务。
例如,对于第一输入x1=“[gen]姐妹们好,吃托瑞米酚子宫内膜厚,做了宫腔镜手术,做病理增生,还能继续吃托瑞米酚吗?还是换药,换什么药?求指点。[label1]性别:”。
第一期望输出target1=“[gen]姐妹们好,吃托瑞米酚子宫内膜厚,做了宫腔镜手术,做病理增生,还能继续吃托瑞米酚吗?还是换药,换什么药?求指点。[label1]性别:女”。由于target1的文本长度为x1+a,a为文本数据对应的预设标签数据的文本长度。因此在该例中,a=1。
当然,上述只是一种示例,并不构成对本发明的不当限定。
本发明第一训练阶段主要是针对模型对整个文本的理解能力进行训练,通过第一损失函数计算公式计算第一损失函数,并且对第一期望输出的文本长度进行设置,通过比较模型的第一输出和第一期望输出来确定模型的性能,进而寻找优化方向,提高模型性能。
在本实施例中,第一训练阶段的损失函数计算公式具体如下:loss_2=classify_loss(target2,y2),其中,loss_2表示第二损失函数,classify_loss为分类损失函数,y2表示模型的第二输出,target2为模型的第二期望输出;第二期望输出具体为:预测用户标签与训练数据完全无关,或者预测用户标签是根据训练数据得到的。
优选的,第二期望输出可通过1.0表示预测用户标签是根据训练数据得到的,通过0.0表示预测用户标签与训练数据完全无关。
例如,第二输入为:“[cla]姐妹们好,吃托瑞米酚子宫内膜厚,做了宫腔镜手术,做病理增生,还能继续吃托瑞米酚吗?还是换药,换什么药?求指点。[label2]女性,用药为托瑞米酚,对应副作用子宫内膜厚,病理增生,手术情况:宫腔镜手术”。其中,[cla]表示文本分类任务占位符,需要生成模型在接下来的预测中生成分类类别,[label2]表示右边内容是预测用户标签的内容。
此时,第二期望输出为:“target2=1.0”,表示预测用户标签是根据训练数据得到的。
或者,第二输入为:“[cla]姐妹们好,吃托瑞米酚子宫内膜厚,做了宫腔镜手术,做病理增生,还能继续吃托瑞米酚吗?还是换药,换什么药?求指点。[label2]男性,用药为他莫昔芬,手术情况:无。”
此时,第二期望输出为:“target2=0.0”,表示预测用户标签与训练数据完全无关。
当然,上述只是一种示例,并不构成对本发明的不当限定。
本发明通过第二损失函数计算公式计算第二损失函数,比较模型的第二输出和第二期望来确定模型的性能,进而寻找优化方向,进一步提高了模型性能。
优选的,分类损失函数至少包括0-1损失、交叉熵损失其中之一。
在第一训练阶段完成后,由于随机采样的原因,对于一个输入可以获得多个不同的第二输出,如表1所示:
表1
因此,在第二训练阶段,可以根据预设评分标准对每个第二输出进行评分,得到每个第二输出的对应分值,再根据预设评分标准对每个第二输出进行评分,得到每个第二输出的对应分值。
进一步的,得到每个第二输出的对应分值后,还将分值由高至低进行排序,分值越高表示对应的第二输出的质量越高。
本发明通过在预训练阶段生成预测用户标签,再通过第二训练阶段对文本分类类别进行评分、排序,得到的用户标签生成模型能够准确地生成用户标签。
优选的,预设评分标准根据实际需要选择函数进行或人工评分。类似的,排序根据实际需要选择函数进行或人工评分或训练一个输出分值的模型进行排序。
优选的,通过梯度下降的方法更新模型权重。
在本实施例中,第三训练阶段的损失函数计算公式具体如下:loss_3=rank_loss(y2_w);其中,loss_3表示第三损失函数,rank_loss表示排序损失,y2_w表示多个第二输出,且w∈N*,N*表示正整数集。
优选的,排序损失至少包括单点损失、配对损失、列表损失其中之一。
本发明通过第一输出的向量中每个元素的值表示对应字典中单词出现的概率,因此可通过概率值作为权重,进行加权随机采样获取训练数据与预测用户标签进行随机组合,并设置文本分类任务占位符,实现通过一个文本,可以生成多个不同的第二输出,再结合第二训练阶段的评分操作对第二输出进行排序,并更新模型权重,即可避免模型识别到用户标签相关的关键字,但是该关键字并非属于用户标签的情况,进一步提高模型生成用户标签的准确性。
如图2所示,本发明还对应提供一种用户标签生成模型的训练装置,其包括:预训练模块10,用于获取训练数据,在训练数据中设置用户标签生成任务占位符,并作为模型的第一输入;用户标签生成任务占位符用于执行用户标签生成任务,以生成预测用户标签;第一训练模块20,用于随机获取训练数据与预测用户标签,进行随机组合,并设置文本分类任务占位符后作为模型的第二输入;文本分类任务占位符用于执行文本分类任务,以生成多个文本分类类别,作为模型的第二输出;第二训练模块30,用于获取所有第二输出,并根据预设评分标准对每个第二输出进行评分,得到每个第二输出的对应分值;根据每个第二输出的分值进行排序,并更新模型权重,得到用户标签生成模型。
本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中的存储器中所包含的计算机可读存储介质;也可以是单独存在,未装配入设备中的计算机可读存储介质。该计算机可读存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现图1所示的用户标签生成模型的训练方法。所述计算机可读存储介质可以是只读存储器,磁盘或光盘等。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置实施例、设备实施例及存储介质实施例而言,由于其与方法实施例基本相似,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。
并且,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
上述说明示出并描述了本发明的优选实施例,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文发明构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。
Claims (10)
1.一种用户标签生成模型的训练方法,其特征在于,包括:
S1、预训练阶段:获取训练数据,在训练数据中设置用户标签生成任务占位符,并作为模型的第一输入;用户标签生成任务占位符用于执行用户标签生成任务,以生成预测用户标签;
S2、第一训练阶段:随机获取训练数据与预测用户标签,进行随机组合,并设置文本分类任务占位符后作为模型的第二输入;文本分类任务占位符用于执行文本分类任务,以生成多个文本分类类别,作为模型的第二输出;
S3、第二训练阶段:获取所有第二输出,并根据预设评分标准对每个第二输出进行评分,得到每个第二输出的对应分值;根据每个第二输出的分值进行排序,并更新模型权重,得到用户标签生成模型。
2.根据权利要求1所述的用户标签生成模型的训练方法,其特征在于:训练数据具体为:通过获取用户聊天数据中的文本内容得到的文本数据集,包含多个文本数据。
3.根据权利要求2所述的用户标签生成模型的训练方法,其特征在于:预训练阶段具体步骤如下:
S10、获取文本数据集,并对其中的每个文本数据设置对应的预设标签数据;
S11、将每个文本数据以及其对应的预设标签数据进行字符串拼接,并设置用户标签生成任务占位符;
S12、将步骤S11得到的结果作为模型的第一输入x1,且m1<n<m2,其中m1为文本数据的文本长度,m2为第一输入x1的文本长度,n为一随机数。
4.根据权利要求3所述的用户标签生成模型的训练方法,其特征在于:预训练阶段模型的损失函数计算公式具体如下:
loss_1=classify_loss(one_hot(target1),y1);
其中,loss_1表示第一损失函数,classify_loss为分类损失函数,target1为模型的第一期望输出,且target1的文本长度为x1+a,a为文本数据对应的预设标签数据的文本长度,one_hot表示将target1根据预设字典进行独热编码,y1表示模型的第一输出;
y1=GEN(x1),y1具体为一个b*1的向量,b表示预设字典大小,向量中每个元素的值表示对应字典中单词出现的概率,GEN表示用户标签生成任务。
5.根据权利要求1所述的用户标签生成模型的训练方法,其特征在于:第一训练阶段的损失函数计算公式具体如下:
loss_2=classify_loss(target2,y2),其中,loss_2表示第二损失函数,classify_loss为分类损失函数,y2表示模型的第二输出,target2为模型的第二期望输出;
第二期望输出具体为:预测用户标签与训练数据完全无关,或者预测用户标签是根据训练数据得到的。
6.根据权利要求4或5所述的用户标签生成模型的训练方法,其特征在于:分类损失函数至少包括0-1损失、交叉熵损失其中之一。
7.根据权利要求1所述的用户标签生成模型的训练方法,其特征在于:第三训练阶段的损失函数计算公式具体如下:
loss_3=rank_loss(y2_w);
其中,loss_3表示第三损失函数,rank_loss表示排序损失,y2_w表示多个第二输出,且w∈N*,N*表示正整数集。
8.根据权利要求7所述的用户标签生成模型的训练方法,其特征在于:排序损失至少包括单点损失、配对损失、列表损失其中之一。
9.一种用户标签生成模型的训练装置,其特征在于,包括:
预训练模块,用于获取训练数据,在训练数据中设置用户标签生成任务占位符,并作为模型的第一输入;用户标签生成任务占位符用于执行用户标签生成任务,以生成预测用户标签;
第一训练模块,用于随机获取训练数据与预测用户标签,进行随机组合,并设置文本分类任务占位符后作为模型的第二输入;文本分类任务占位符用于执行文本分类任务,以生成多个文本分类类别,作为模型的第二输出;
第二训练模块,用于获取所有第二输出,并根据预设评分标准对每个第二输出进行评分,得到每个第二输出的对应分值;根据每个第二输出的分值进行排序,并更新模型权重,得到用户标签生成模型。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有用户标签生成模型的训练程序,所述用户标签生成模型的训练程序被处理器执行时实现如权利要求1至8任一项所述的用户标签生成模型的训练方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310662516.1A CN116821336A (zh) | 2023-06-06 | 2023-06-06 | 一种用户标签生成模型的训练方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310662516.1A CN116821336A (zh) | 2023-06-06 | 2023-06-06 | 一种用户标签生成模型的训练方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116821336A true CN116821336A (zh) | 2023-09-29 |
Family
ID=88113740
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310662516.1A Pending CN116821336A (zh) | 2023-06-06 | 2023-06-06 | 一种用户标签生成模型的训练方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116821336A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117521604A (zh) * | 2023-12-04 | 2024-02-06 | 北京知呱呱科技有限公司 | 一种基于大模型的商标生成方法及系统 |
-
2023
- 2023-06-06 CN CN202310662516.1A patent/CN116821336A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117521604A (zh) * | 2023-12-04 | 2024-02-06 | 北京知呱呱科技有限公司 | 一种基于大模型的商标生成方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11537820B2 (en) | Method and system for generating and correcting classification models | |
US10068008B2 (en) | Spelling correction of email queries | |
US20180336193A1 (en) | Artificial Intelligence Based Method and Apparatus for Generating Article | |
CN109933785A (zh) | 用于实体关联的方法、装置、设备和介质 | |
WO2014208213A1 (ja) | ノン・ファクトイド型質問応答システムおよび方法 | |
US9678945B2 (en) | Automated reading comprehension | |
US10803850B2 (en) | Voice generation with predetermined emotion type | |
CN106503192A (zh) | 基于人工智能的命名实体识别方法及装置 | |
CN105917364B (zh) | 对问答论坛中讨论话题的排名 | |
CN109906450A (zh) | 用于通过相似性关联对电子信息排名的方法和装置 | |
JP6818706B2 (ja) | 情報提供装置、情報提供方法、およびプログラム | |
CN116821336A (zh) | 一种用户标签生成模型的训练方法、装置及存储介质 | |
JP2020091857A (ja) | 電子文書の分類 | |
JPWO2020208693A1 (ja) | 文書情報評価装置および文書情報評価方法並びに文書情報評価プログラム | |
CN111897938A (zh) | 结合rpa和ai的对话机器人回复方法、模型训练方法及装置 | |
CN105550217B (zh) | 场景音乐搜索方法及场景音乐搜索装置 | |
JP2021086580A (ja) | 文書情報評価装置および文書情報評価方法並びに文書情報評価プログラム | |
CN117236410A (zh) | 一种可信的电子文件大语言模型训练、推理方法和装置 | |
CN113571196A (zh) | 构建医疗训练样本的方法及装置、医疗文本的检索方法 | |
JP2021086592A (ja) | 文書情報評価装置および文書情報評価方法並びに文書情報評価プログラム | |
WO2019192122A1 (zh) | 文档主题参数提取方法、产品推荐方法、设备及存储介质 | |
Combs et al. | Integration of Computer Vision with Analogical Reasoning for Characterizing Unknowns | |
CN111274384A (zh) | 一种文本标注方法及其设备、计算机存储介质 | |
CN116414940A (zh) | 标准问题的确定方法、装置及相关设备 | |
CN113868424A (zh) | 文本主题的确定方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |