CN114357170A - 模型训练方法、分析方法、装置、设备及介质 - Google Patents
模型训练方法、分析方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114357170A CN114357170A CN202210005005.8A CN202210005005A CN114357170A CN 114357170 A CN114357170 A CN 114357170A CN 202210005005 A CN202210005005 A CN 202210005005A CN 114357170 A CN114357170 A CN 114357170A
- Authority
- CN
- China
- Prior art keywords
- user comment
- model
- texts
- training
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本公开提供了一种基于用户评论的模型训练方法,可以应用于人工智能技术领域。该基于用户评论的模型训练方法,包括:按照不同的倾向性情绪类型对第一目标数量的用户评论文本进行分类处理,得到含有分类标签的训练文本集,其中,训练文本集中包括多条具有分类标签的用户评论文本;将训练文本集中的用户评论文本输入至预训练的语言表征模型,以便输出每条用户评论文本的特征向量;将每条用户评论文本的特征向量输入逻辑回归模型,以便输出每条用户评论文本的分类结果;以及根据每条用户评论文本的分类结果和分类标签调整预训练的语言表征模型的模型参数。本公开还提供了一种基于用户评论的模型分析方法、装置、设备、存储介质和程序产品。
Description
技术领域
本公开涉及人工智能领域,具体涉及一种基于用户评论的模型训练方法、分析方法、装置、设备、介质和程序产品。
背景技术
随着科学技术的发展,网络成为了人们交流心得、表达看法的重要平台。当经济社会中出现大众关注的评论焦点时,往往包含着倾向性的言论观点,产生较强影响力的社会评论,对经济的发展也会带来一定的影响。
互联网数据信息呈指数式增长,错综杂乱的评论信息不能较好的让用户迅速抓住关键点,并较为准确地分析评论信息。
因此,如何在错综杂乱的评论信息里,较为快速准确地掌握用户评论的倾向性方向尤为重要。
发明内容
鉴于上述问题,本公开提供了基于用户评论的模型训练方法、分析方法、装置、设备、介质和程序产品。
根据本公开的第一个方面,提供了一种基于用户评论的模型训练方法,包括:
按照不同的倾向性情绪类型对第一目标数量的用户评论文本进行分类处理,得到含有分类标签的训练文本集,其中,训练文本集中包括多条具有分类标签的用户评论文本;
将训练文本集中的用户评论文本输入至预训练的语言表征模型,以便输出每条用户评论文本的特征向量;
将每条用户评论文本的特征向量输入逻辑回归模型,以便输出每条用户评论文本的分类结果;以及
根据每条用户评论文本的分类结果和分类标签调整预训练的语言表征模型的模型参数。
根据本公开的实施例,语言表征模型包括预训练模型和微调模型,将训练文本集中的用户评论文本输入至预训练的语言表征模型,以便输出每条用户评论文本的特征向量包括:
根据预训练模型的模型参数,初始化微调模型的模型参数,得到已调参的初始微调模型;
将训练文本集中的用户评论文本输入至已调参的初始微调模型,通过数字化编码提取单词特征、单词属性特征、单词位置特征;
将单词特征、单词属性特征和单词位置特征进行融合,输出融合后的特征向量;
将融合后的特征向量输入语言表征模型的隐藏层,输出每条用户评论文本的特征向量。
根据本公开的实施例,在按照不同的倾向性情绪类型对第一目标数量的用户评论文本进行分类处理,得到含有分类标签的训练文本集之前,还包括:
对获取的预设数量的用户评论文本,进行预处理,得到目标数量的用户评论文本;
从目标数量的用户评论文本中进行筛选,得到第一目标数量的用户评论文本。
根据本公开的实施例,对获取的预设数量的用户评论文本,进行预处理,得到目标数量的用户评论文本包括:
将预设数量的用户评论文本中的表情符号转换为文本,得到目标数量的用户评论文本;和/或
将预设数量的用户评论文本中的无效数据进行剔除,得到目标数量的用户评论文本。
根据本公开的实施例,基于用户评论的模型训练方法还包括:
基于用户评论文本的分类结果,对训练得到的预训练的语言表征模型进行评估。
根据本公开的实施例,基于用户评论文本的分类结果,对训练得到的预训练的语言表征模型进行评估包括:
从目标数量的用户评论文本中进行筛选,得到第二目标数量的用户评论文本;
将每条第二目标数量的用户评论文本输入至训练得到的预训练的语言表征模型,以便输出每条用户评论文本的测试分类结果;
通过计算测试分类结果的准确率,对训练得到的预训练的语言表征模型进行评估。
本公开的第二方面提供了一种基于用户评论的分析方法,包括:
获取与目标产品关联的用户评论文本集,其中,用户评论文本集中包括多条用户评论文本;
将用户评论文本集中的用户评论文本输入至预先训练好的模型;以及
输出每条用户评论文本的分类结果;
其中,预先训练好的模型是基于用户评论的模型训练方法训练得到。
本公开的第三方面提供了一种基于用户评论的分类模型训练装置,包括:
数据处理模块,用于按照不同的倾向性情绪类型对第一目标数量的用户评论文本进行分类处理,得到含有分类标签的训练文本集,其中,训练文本集中包括多条具有分类标签的用户评论文本;
特征提取模块,用于将训练文本集中的用户评论文本输入至预训练的语言表征模型,以便输出每条用户评论文本的特征向量;
分类模块,用于将每条用户评论文本的特征向量输入逻辑回归模型,以便输出每条用户评论文本的分类结果;以及
参数调整模块,用于根据每条用户评论文本的分类结果和分类标签调整预训练的语言表征模型的模型参数。
本公开的第四方面提供了一种基于用户评论的分析装置,包括:
获取模块,用于获取与目标产品关联的用户评论文本集,其中,用户评论文本集中包括多条用户评论文本;
输入模块,用于将用户评论文本集中的用户评论文本输入至预先训练好的模型;以及
输出模块,用于输出每条用户评论文本的分类结果;
其中,预先训练好的模型是基于用户评论的模型训练方法训练得到。
本公开的第五方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得一个或多个处理器执行上述基于用户评论的分类模型训练方法和上述基于用户评论的分析方法。
本公开的第六方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述基于用户评论的分类模型训练方法和上述基于用户评论的分析方法。
本公开的第七方面还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述基于用户评论的分类模型训练方法和上述基于用户评论的分析方法。
根据本公开的实施例,利用语言表征模型与逻辑回归模型结合对用户评论的倾向性情绪类型进行预测分析,将语言表征模型提取的特征向量输入逻辑回归模型进行分类,根据每条用户评论文本的分类结果和分类标签调整预训练的语言表征模型的模型参数,最终得到训练好的模型。这种改进模型的方式简单,训练速度快,计算量小,资源占用少,以及模型的可解释性好,从特征的权重可以看到不同的特征对最后结果的影响。利用这种改进的模型可以提高对用户评论的倾向性情绪类型进行分析的准确率。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的基于用户评论的模型训练方法、分析方法、装置、设备、介质和程序产品的应用场景图;
图2示意性示出了根据本公开实施例的基于用户评论的模型训练方法的流程图;
图3示意性示出了根据本公开另一实施例的基于用户评论的模型训练方法的流程图;
图4示意性示出了根据本公开实施例的将训练文本集中的用户评论文本输入至预训练的语言表征模型,以便输出每条用户评论文本的特征向量的方法的流程图;
图5示意性示出了根据本公开实施例的基于用户评论文本的分类结果,对训练得到的预训练的语言表征模型进行评估的方法的流程图;
图6示意性示出了根据本公开实施例的基于用户评论的分析方法的流程图;
图7示意性示出了根据本公开一实施例的基于用户评论的模型训练方法和分析方法的流程图;
图8示意性示出了根据本公开实施例的基于用户评论的分类模型训练装置的结构框图
图9示意性示出了根据本公开实施例的基于用户评论的分析装置的结构框图;以及
图10示意性示出了根据本公开实施例的适于实现基于用户评论的分类模型训练方法和基于用户评论的分析方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
在本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
在本公开实施例的技术方案中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
TF-IDF,一种用于信息检索与数据挖掘的常用加权技术。TF是词频(TermFrequency),IDF是逆文本频率指数(Inverse Document Frequency)。存在计算量大、特征矩阵稀疏、用词频来衡量文章中的一个词的重要性不够全面,无法体现位置信息,无法体现词在上下文的重要性以及无法解决一词多义的问题。
Word2Vec,一种用于词向量计算的工具。可以解决词与词之间的位置关系,但是存在词和向量是一对一的关系,导致多义词的问题无法解决以及Word2Vec是一种静态的方式,虽然通用性强,但是无法针对特定任务做动态优化。
机器学习分类算法也存在缺陷,例如:逻辑回归存在特征空间很大,性能降低;容易欠拟合,准确率不太高;处理非线性数据较麻烦;很难处理数据不平衡的问题。朴素贝叶斯存在需要计算先验概率;分类决策存在错误率;对输入数据的表达形式很敏感;由于使用了样本属性独立性的假设,所以如果样本属性有关联时其效果不好的问题。支持向量机存在对大规模训练样本难以实施;解决多分类问题存在困难的问题。
基于上述常规模型在用户评论潜在的倾向性情绪挖掘能力不足以及准确率不佳的问题的考虑,通过将语言表征模型与逻辑回归模型结合对用户评论的倾向性情绪类型进行分类分析,利用语言表征模型强大的语言表征能力和特征提取能力与逻辑回归模型结合,实现了简单改进模型,使模型训练速度快,计算量小,资源占用少,并且利用改进后的模型可以较为快速准确地掌握用户评论的倾向性方向。
有鉴于此,本公开的实施例提供了一种基于用户评论的模型训练方法,包括:按照不同的倾向性情绪类型对第一目标数量的用户评论文本进行分类处理,得到含有分类标签的训练文本集,其中,训练文本集中包括多条具有分类标签的用户评论文本;将训练文本集中的用户评论文本输入至预训练的语言表征模型,以便输出每条用户评论文本的特征向量;将每条用户评论文本的特征向量输入逻辑回归模型,以便输出每条用户评论文本的分类结果;以及根据每条用户评论文本的分类结果和分类标签调整预训练的语言表征模型的模型参数。
图1示意性示出了根据本公开实施例的基于用户评论的模型训练方法、分析方法、装置、设备、介质和程序产品的应用场景图。
如图1所示,根据该实施例的应用场景100可以包括终端设备101、102、103、网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如金融产品类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的基于用户评论的模型训练方法和分析方法一般可以由服务器105执行。相应地,本公开实施例所提供的基于用户评论的模型训练装置和分析装置一般可以设置于服务器105中。本公开实施例所提供的基于用户评论的模型训练方法和分析方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的基于用户评论的模型训练装置和分析装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
以下将基于图1描述的场景,通过图2~图5对公开实施例的基于用户评论的模型训练方法进行详细描述。
图2示意性示出了根据本公开实施例的基于用户评论的模型训练方法的流程图。
如图2所示,该实施例的基于用户评论的模型训练方法200包括操作S201~操作S204,该模型训练方法可以由例如服务器105等计算设备执行。
在操作S201,按照不同的倾向性情绪类型对第一目标数量的用户评论文本进行分类处理,得到含有分类标签的训练文本集,其中,训练文本集中包括多条具有分类标签的用户评论文本。
根据本公开实施例,在上述操作S201,倾向性情绪类型的分类可以根据实际需要预先设定。例如,可以将倾向性情绪类型按照正面、负面、中立三种类型进行划分,将第一目标数量的用户评论文本按照该分类方法进行分类处理,得到多条已经具有分类标签的用户评论文本。其中,第一目标数量的用户评论文本可以根据实际需要训练的用户评论文本而确定,例如可以是10000条用户评论文本,但不限于此。
根据本公开实施例,用户评论文本可以是针对金融产品的用户评论文本,也可以是针对实体产品的用户评论文本。
在操作S202,将训练文本集中的用户评论文本输入至预训练的语言表征模型,以便输出每条用户评论文本的特征向量。
根据本公开实施例,在上述操作S202,可以将训练文本集中的每条用户评论文本依次分别输入至预训练的语言表征模型。例如,可以将带有正面、负面或者中立三种分类标签的10000条用户评论文本依次分别输入至预训练的语言表征模型,经过特征提取后,输出每条用户评论文本对应的特征向量。
在操作S203,将每条用户评论文本的特征向量输入逻辑回归模型,以便输出每条用户评论文本的分类结果。
根据本公开实施例,在上述操作S203,可以将通过语言表征模型输出的每条用户评论文本的特征向量依次分别输入逻辑回归模型,通过逻辑回归模型进行分类处理后输出分类结果。例如可以是将通过语言表征模型输出的10000条用户评论文本对应的特征向量依次分别输入逻辑回归模型,通过逻辑回归模型进行分类处理后输出分类结果,例如输出分类结果可以是输出2000条负面用户评论文本、6000条正面用户评论文本以及2000条中立用户评论文本,但不限于此。
根据本公开实施例,逻辑回归模型涉及Logistic函数(也称为Sigmoid函数),利用Logistic函数特性,求导得到输出结果。例如,Logistic函数,如公式(1)所示:
其中,g(z)是一个函数表达式符号,z是变量,e是一个常量,约为2.718281828459045。
将通过语言表征模型输出的每条用户评论文本的特征向量Embedding带入到Logistic函数中得到逻辑回归表达式hθ(Embedding)如公式(2)所示:
其中,hθ是函数表达式符号,θT*Embedding=z,θ是一个参数变量,T是转置。
最后对于输入Embedding分类结果的概率y指的是计算的概率值,如公式(3)所示:
p(y|Embedding;θ)=(hθ(Embedding))y(1-hθ(Embedding))1-y 公式(3)
利用Logistic函数特性,求导得到结果,如简化公式(4)所示。公式(4)是一个求导的公式,这种方式是更好的展示该函数求导后得到一个结果。
g′(z)=g(z)*(1-g(z)) 公式(4)
在操作S204,根据每条用户评论文本的分类结果和分类标签调整预训练的语言表征模型的模型参数。
根据本公开实施例,在上述操作S204,可以是根据输出的分类结果与对应带有分类标签的用户评论文本进行分析比较,判断预测结果。如果错误率高,预测结果不好,则需要调整预训练的语言表征模型的模型参数,继续训练模型。例如可以是根据输出的分类结果:2000条负面用户评论文本、6000条正面用户评论文本以及2000条中立用户评论文本,与对应带有分类标签的10000条用户评论文本进行分析比较,判断预测结果,如果错误率高,那么预测结果不好,需要调整预训练的语言表征模型的模型参数,训练模型。其中,调整预训练的语言表征模型的模型参数可以利用迭代公式进行梯度更新。例如,如公式(5)所示,通过不断试验,找到较佳的分类结果。
其中,θ是一个参数变量,根据分类结果不断通过公式(5)不断调整,直到找到较佳的分类结果后,得到最终确定的值;α也是一个参数变量,α这个参数是提前定义好的。
根据本公开的实施例,利用语言表征模型与逻辑回归模型结合对用户评论的倾向性情绪类型进行预测分析,将语言表征模型提取的特征向量输入逻辑回归模型进行分类,根据每条用户评论文本的分类结果和分类标签调整预训练的语言表征模型的模型参数,最终得到训练好的模型。这种改进模型的方式简单,训练速度快,计算量小,资源占用少,以及模型的可解释性好,从特征的权重可以看到不同的特征对最后结果的影响。利用这种改进的模型可以提高对用户评论的倾向性情绪类型进行分析的准确率。
根据本公开的另一实施例,在上述操作S202输出每条用户评论文本的特征向量后,可以是语言表征模型BERT模型直接取最后输出的对应的特征向量值作为结果进行句子分类特征输入,最后添加一个权重后,softmax预测分类结果。如公式(6)所示:
Pi=softmax(Embed*WT) 公式(6)
Pi是一个概率值,表示用户评论文本的概率值。W是初始化的一个矩阵(随机的),后续经过训练后会发生变化,T是转置的意思,比如Embed是一个1*768的行向量,转置后变成768*1的列向量。公式(6)可以理解为:如终极目标是三分类,那么Embed是1*768的向量,W是一个3*768的矩阵转置后是768*3的矩阵,Embed*WT计算的结果是1*3的向量,这时输入就是3,会计算出来3个概率值。softmax是一个函数,计算公式为:
其中,n表示输入个数,j表示从1到n的取值,e是常数约为2.718281828459045,公式的分母表示e的z1到e的zn的结果累加求和。
图3示意性示出了根据本公开另一实施例的基于用户评论的模型训练方法的流程图。
如图3所示,该实施例的基于用户评论的模型训练方法300包括操作S301~操作S306。
在操作S301,对获取的预设数量的用户评论文本,进行预处理,得到目标数量的用户评论文本。
根据本公开实施例,在上述操作S301,可以是将预设数量的用户评论文本中的表情符号转换为文本,得到目标数量的用户评论文本;和/或将预设数量的用户评论文本中的无效数据进行剔除,得到目标数量的用户评论文本。
例如,预设数量的用户评论文本可以是通过网络爬虫爬取得到的用户评论文本,可以是对基金、期货、股票、外汇等金融产品中的一种进行网络爬虫爬取该产品用户的评论文本,也可以是获取其他产品的用户评论文本。例如预设数量的用户评论文本可以是11万条,获取后通过预处理,把含表情符号的评论文本转换为纯文本,把缺失的文本删除,或者把相同的评论文本删除等,得到10万条用户的评论文本,也即得到目标数量的用户评论文本为10万条。
根据本公开实施例,通过对获取的用户评论文本进行预处理,可以解决由于获取的用户评论文本格式和存储的不同,而导致的不能使用问题。预处理中对相同的评论文本进行删除,可以防止混入相同的文本数据对模型训练帮助不大,还可能导致过拟合的问题。
在操作S302,从目标数量的用户评论文本中进行筛选,得到第一目标数量的用户评论文本。
根据本公开实施例,可以根据实际需要在上述操作S301得到的目标数量的用户评论文本中筛选出第一目标数量的用户评论文本。例如,在10万条的用户评论文本中选取1500条的用户评论文本作为第一目标数量的用户评论文本。
在操作S303,按照不同的倾向性情绪类型对第一目标数量的用户评论文本进行分类处理,得到含有分类标签的训练文本集,其中,训练文本集中包括多条具有分类标签的用户评论文本。
根据本公开实施例,可以将在上述操作S302得到的第一目标数量的用户评论文本按照倾向性情绪类型分类。例如,可以将得到的1500条的用户评论文本按照积极面、消极面、中性面三种类型进行分类,得到1500条已经带有分类标签的用户评论文本,其中属于积极面标签的600条、属于消极面标签的800条、属于中性面标签的100条。
在操作S304,将训练文本集中的用户评论文本输入至预训练的语言表征模型,以便输出每条用户评论文本的特征向量。
根据本公开实施例,可以将在上述操作S303得到的含有分类标签的训练文本集依次分别输入预训练的语言表征模型,输出每条用户评论文本对应的特征向量。例如,可以将得到1500条已经带有分类标签的用户评论文本输入至预训练的语言表征模型,经过特征提取后,输出得到的1500条用户评论文本对应的特征向量。
在操作S305,将每条用户评论文本的特征向量输入逻辑回归模型,以便输出每条用户评论文本的分类结果。
根据本公开实施例,可以将在上述操作S304得到的每条用户评论文本的特征向量依次分别输入逻辑回归模型,通过逻辑回归模型进行分类处理后输出每条用户评论文本的分类结果。例如,将得到的1500条用户评论文本对应的特征向量输入逻辑回归模型,通过逻辑回归模型进行分类处理后输出属于积极面标签的600条中有500条分类结果正确;属于消极面标签的800条中有660条分类结果正确;属于中性面标签的100条中有40条分类结果正确。
在操作S306,根据每条用户评论文本的分类结果和分类标签调整预训练的语言表征模型的模型参数。
根据本公开实施例,可以将在上述操作S305得到的每条用户评论文本的分类结果与对应带有分类标签的用户评论文本进行分析比较,得到预测结果。根据预测结果判断是否继续进行调整预训练的语言表征模型的模型参数。例如,将得到的分类结果与对应带有分类标签的1500条用户评论文本进行分析比较,得到属于积极面标签的600条中有500条分类结果正确;属于消极面标签的800条中有660条分类结果正确;属于中性面标签的100条中有40条分类结果正确。正确率约为80%,预测结果不好,需要通过调整预训练的语言表征模型的模型参数,重新训练模型。直到得到的分类结果与对应带有分类标签的用户评论文本进行分析比较,正确率大于90%,预测结果好,则可以记录模型参数,得到训练好的模型。
图4示意性示出了根据本公开实施例的将训练文本集中的用户评论文本输入至预训练的语言表征模型,以便输出每条用户评论文本的特征向量的方法的流程图。
如图4所示,该实施例的将训练文本集中的用户评论文本输入至预训练的语言表征模型,以便输出每条用户评论文本的特征向量的方法400包括操作S401~操作S404。
在操作S401,根据预训练模型的模型参数,初始化微调模型的模型参数,得到已调参的初始微调模型。
根据本公开实施例,预训练的语言表征模型可以是BERT模型,BERT模型是一种多层迁移模型,包括预训练模型(Pre-training模型)和微调模型(Fine-tuning模型)。预训练模型中训练每一个Layer层的参数,微调模型可以直接将其参数迁移过来。其中,预训练模型的模型参数可以采用语言模型的模型参数。例如可以根据一个中文训练模型,BERT-wwm模型,进行设置初始参数。参数可以设置为12-layer,768-hidden,12-heads,110Mparameters。在训练过程中如果需要更改模型参数,只需更改微调模型的模型参数,例如可以通过迭代公式进行梯度更新。
在操作S402,将训练文本集中的用户评论文本输入至已调参的初始微调模型,通过数字化编码提取单词特征、单词属性特征、单词位置特征。
根据本公开实施例,可以是将训练文本集中的用户评论文本输入在上述操作S401得到的已调参的初始微调模型中,通过数字化编码提取单词特征(Token Embedding)、单词属性特征(Segment Embedding)、单词位置特征(Position Embedding)。单词属性特征例如可以是用于区分每一个单词属于句子A还是句子B。单词位置特征例如可以是单词出现的位置。
在操作S403,将单词特征、单词属性特征和单词位置特征进行融合,输出融合后的特征向量。
根据本公开实施例,可以是将在上述操作S402得到的单词特征、单词属性特征和单词位置特征进行相加,输出相加后得到的特征向量。例如,特征向量表示单词、单词属性、单词位置这三种特征。
在操作S404,将融合后的特征向量输入语言表征模型的隐藏层,输出每条用户评论文本的特征向量。
根据本公开实施例,使用预训练的语言表征模型可以是BERT模型,在BERT模型的隐藏层使用Transformer的Encoder部分的模型进行不断计算,最后输出每条用户评论文本的特征向量。例如,在BERT模型的隐藏层使用Transformer的Encoder部分的模型,可以由N=12个相同的Layer组成,每个Layer由两个Sub-Layer和两个Residual Connection和Normalization组成。两个Sub-Layer分别是Multi-Head Attention和Feed Forwardnetwork。
首先进行Multi-Head Attention计算。Multi-Head Attention的计算可以由h个不同线性变换对Q,K,V进行投影,这里的h=12。最后将不同的Attention结果拼接组合起来,如公式(7)和公式(8)所示:
E=MultiHead(Q,K,V)=Concat(head1,head2,...,headh)W0 公式(7)
headi=Attention(Q,K,V) 公式(8)
其中,E是一个向量,公式(7)的MultiHead(Q,K,V)可以看成一个公式,Q,K,V是输入的向量,这里的Q,K,V是在操作S403输出融合后的特征向量Embedding进行线性变换所得,其实就是Q=embedding*Wqi,K=embedding*Wki,V=embedding*Wvi所得,其中,Wqi,Wki,Wvi都是初始化随机生成的矩阵,后续会随着模型训练这些矩阵发生变化。MultiHead(Q,K,V)的做法其实是利用concat拼接的意思,将head1到headn拼接起来,这里的head1到headn可以看成E的组成部分,比如:n=12,E是1*768,那么head1就是1*64,这样head1到head12拼接起来就是1*768。
Attention的计算公式采用了scaled dot-product,如公式(9)所示。在计算dot-product的时候,当dk很大时,QK的点积也会很大,方差会很大,会把大部分概率分配给较大的元素,这会让softmax函数的梯度变得异常的小,对点积结果除以根号dk可以抵消这个影响。
其中,计算公式n表示输入个数,j是从1到n的取值,e是常数约为2.718281828459045,公式的分母表示e的QK1到e的QKn的结果累加求和。dk是维度,例如:生成的head向量embedding是64维,这里的dk=64。softmax得到的是一个值,用softmax的值乘以V,这样相当于给V的每个向量值乘以这个值,得到head向量。
其次,进行Add&Norm计算。如公式(10)所示:
EA&N=LayerNorm(E+(SubLayer(E)))公式(10)
其中,公式(10)表示将两个向量相加得到新的向量,然后对新的向量进行归一化,具体做法例如可以是新的向量是1*768维,则将这个向量每一个值除以所有值的和,得到一个向量EA&N。
然后,进行Feed Forward Network计算。如公式(11)所示:
EFFN=max(0,EA&NW1+b1)W2 公式(11)
其中,随机初始化W1向量和EA&N维度是一样的,W2向量和EA&N维度是一样的,b1是一个数值。用上一步的向量EA&N去乘以W1,然后加上b1,这样我们得到一个值,用这个值和0取最大的结果,和W2相乘,相当于给W2的每一个值乘以这个最大结果,又得到一个新的向量EFFN。
最后,进行Add&Norm计算并输出Embedding。如公式(12)所示:
Embed=LayerNorm(EA&N+(SubLayer(EFFN))) 公式(12)
其中,公式(12)与公式(10)的功能一样。表示将两个向量相加得到新的向量,然后对新的向量进行归一化。
根据本公开实施例,通过根据预训练模型对微调模型调参,如果对模型训练结果不满意,只需对微调模型的参数稍微调整即可,无需重新进行预训练得出参数。并且模型是无法识别文字的,需要将文字进行数字化编码提取特征向量。
根据本公开的再一实施例,基于用户评论的模型训练方法还包括:基于用户评论文本的分类结果,对训练得到的预训练的语言表征模型进行评估。
根据本公开实施例,例如可以通过向训练得到的预训练的语言表征模型输入测试文本数据,根据输出的测试结果对训练得到的预训练的语言表征模型进行评估模型的好坏。
图5示意性示出了根据本公开实施例的基于用户评论文本的分类结果,对训练得到的预训练的语言表征模型进行评估的方法的流程图。
如图5所示,该实施例的基于用户评论文本的分类结果,对训练得到的预训练的语言表征模型进行评估的方法500包括操作S501~操作S503。
在操作S501,从目标数量的用户评论文本中进行筛选,得到第二目标数量的用户评论文本。
根据本公开实施例,可以是将在上述操作S301得到的目标数量的用户评论文本中根据实际需要筛选第二目标数量的用户评论文本。例如,在10万条的用户评论文本中选取1500条的用户评论文本作为第一目标数量的用户评论文本后剩余的98500条用户评论文本作为第二目标数量的用户评论文本。
在操作S502,将每条第二目标数量的用户评论文本输入至训练得到的预训练的语言表征模型,以便输出每条用户评论文本的测试分类结果。
根据本公开实施例,可以将根据实际需要得到的每条第二目标数量的用户评论文本,依次分别输入利用上述基于用户评论的模型训练方法训练得到的预训练的语言表征模型,然后输出每条用户评论文本的测试分类结果。例如,可以将上述操作S501得到的98500条用户评论文本依次分别输入已经利用上述基于用户评论的模型训练方法训练好的模型中,输出98500条用户评论文本的测试分类结果。
在操作S503,通过计算测试分类结果的准确率,对训练得到的预训练的语言表征模型进行评估。
根据本公开实施例,可以是从上述操作S502得到的用户评论文本的测试分类结果中选取部分评论文本的测试分类结果进行验证,判断准确率。如果准确率达标,则输出模型;如果准确率不达标,则重新训练模型。例如,可以是从98500条测试分类结果中选取1000条进行判断分类结果是否准确,统计对于该1000条评论文本而言其准确率,如果准确率高于90%,则训练好的模型的准确率较高,该准确率达标,输出此模型;如果准确率低于90%,则训练好的模型的准确率较低,该准确率不达标,此时可以利用该验证准确率的1000条评论文本和之前训练的训练文本一起输入模型,再次训练模型。
根据本公开实施例,通过使用测试文本数据,对训练得到的预训练的语言表征模型进行评估模型的好坏,这样可以更好地提高对用户评论的倾向性情绪类型进行分析的准确率。
利用根据上述实施例基于用户评论的模型训练方法训练得到预先训练好的模型。
图6示意性示出了根据本公开实施例的基于用户评论的分析方法的流程图。
如图6所示,该实施例的基于用户评论的分析方法600包括操作S601~操作S603。
在操作S601,获取与目标产品关联的用户评论文本集,其中,用户评论文本集中包括多条用户评论文本。
根据本公开实施例,如果在训练模型时使用了有关对基金产品的用户评论文本,那么就可以预测与基金产品有关的其他用户评论文本了。
在操作S602,将用户评论文本集中的用户评论文本输入至预先训练好的模型。
在操作S603,输出每条用户评论文本的分类结果。
根据本公开实施例,通过预先训练好的模型可以快速分析用户在评论文本中的倾向性情绪,并且增强了分析的准确性。
图7示意性示出了根据本公开再一实施例的基于用户评论的模型训练方法的流程图。
如图7所示,该自动化平盘策略的模拟验证方法700包括操作S701~操作S708。
在操作S701,获取用户对产品的评论数据。例如可以通过网络爬虫批量获取用户对金融类产品或者其他实体产品的评论文本,作为获取的评论数据。
在操作S702,对获取的用户评论数据进行预处理。预处理可以通过对评论数据进行缺失值处理、冗余值处理以及异常值处理。其中缺失值处理可以是对获取的评论数据不完整的数据进行删除;冗余值处理可以是对获取的相同的评论数据进行删除;异常值处理例如可以是对获取的评论数据中包含的表情符号进行对应所表达的文本信息的转换。
在操作S703,训练数据集。可以是从上述操作S702中筛选一部分数据,对数据按照倾向性情绪分类,例如分为正面、负面、中面三种,将带有分类标签的数据作为训练数据集。
在操作S704,训练模型。可以是通过将训练数据集输入根据实际需要想要训练的模型当中,进行特征提取后输出训练分类结果,对训练分类结果进行不断评估,判断模型准确性。通过不断调整模型参数进行增强模型的训练准确性,直至模型分类结果准确性高,模型训练完成。
在操作S705,测试数据集。可以是从上述操作S702中筛选另一部分数据,作为测试数据集。
在操作S706,测试训练好的模型。可以是通过将测试数据集输入训练好的模型,然后输出测试分类结果。
在操作S707,是否达标。可以通过从测试分类结果中抽取部分测试分类结果进行检验,计算准确率,判断准确率是否达标。例如,准确率大于90%,可以认为准确率达标。准确率小于90%,则认为准确率不达标,可以重新选取训练数据集进行训练模型。例如,可以将检验达标的部分测试分类结果中不正确的分类进行修改,将修改后的测试分类结果和已经分好类别的训练数据集重新作为新的训练数据集进行训练模型。
在操作S708,输出模型。可以是通过测试训练好的模型的准确率达到90%以上时,记录模型参数,输出模型。
基于上述基于用户评论的分类模型训练方法,本公开还提供了一种基于用户评论的分类模型训练装置。以下将结合图8对该装置进行详细描述。
图8示意性示出了根据本公开实施例的基于用户评论的分类模型训练装置的结构框图。
如图8所示,该实施例的基于用户评论的分类模型训练装置800包括数据处理模块810、特征提取模块820、分类模块830和参数调整模块840。
数据处理模块810用于按照不同的倾向性情绪类型对第一目标数量的用户评论文本进行分类处理,得到含有分类标签的训练文本集,其中,训练文本集中包括多条具有分类标签的用户评论文本。在一实施例中,数据处理模块810可以用于执行前文描述的操作S201,在此不再赘述。
特征提取模块820用于将训练文本集中的用户评论文本输入至预训练的语言表征模型,以便输出每条用户评论文本的特征向量。在一实施例中,特征提取模块820可以用于执行前文描述的操作S202,在此不再赘述。
分类模块830用于将每条用户评论文本的特征向量输入逻辑回归模型,以便输出每条用户评论文本的分类结果。在一实施例中,分类模块830可以用于执行前文描述的操作S203,在此不再赘述。
参数调整模块840用于根据每条用户评论文本的分类结果和分类标签调整预训练的语言表征模型的模型参数。在一实施例中,参数调整模块840可以用于执行前文描述的操作S204,在此不再赘述。
根据本公开的实施例,特征提取模块820包括初始化单元、分别提取特征单元、融合单元以及计算单元。
初始化单元用于根据预训练模型的模型参数,初始化微调模型的模型参数,得到已调参的初始微调模型。在一实施例中,初始化单元可以用于执行前文描述的操作S401,在此不再赘述。
分别提取特征单元用于将训练文本集中的用户评论文本输入至已调参的初始微调模型,通过数字化编码提取单词特征、单词属性特征、单词位置特征。在一实施例中,分别提取特征单元可以用于执行前文描述的操作S402,在此不再赘述。
融合单元用于将单词特征、单词属性特征和单词位置特征进行融合,输出融合后的特征向量。在一实施例中,融合单元可以用于执行前文描述的操作S403,在此不再赘述。
计算单元用于将融合后的特征向量输入语言表征模型的隐藏层,输出每条用户评论文本的特征向量。在一实施例中,计算单元可以用于执行前文描述的操作S404,在此不再赘述。
根据本公开的实施例,基于用户评论的分类模型训练装置800还包括预处理模块、筛选模块、评估模块。
预处理模块用于对获取的预设数量的用户评论文本,进行预处理,得到目标数量的用户评论文本。
筛选模块用于从目标数量的用户评论文本中进行筛选,得到第一目标数量的用户评论文本。
评估模块用于基于用户评论文本的分类结果,对训练得到的预训练的语言表征模型进行评估。
根据本公开的实施例,数据处理模块810、特征提取模块820、分类模块830、参数调整模块840中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,数据处理模块810、特征提取模块820、分类模块830、参数调整模块840中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,数据处理模块810、特征提取模块820、分类模块830、参数调整模块840中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
基于上述基于用户评论的分析方法,本公开还提供了一种基于用户评论的分析装置。以下将结合图9对该装置进行详细描述。
图9示意性示出了根据本公开实施例的基于用户评论的分析装置的结构框图。
如图9所示,该实施例的基于用户评论的分析装置900包括获取模块910、输入模块920和输出模块930。
获取模块910用于获取与目标产品关联的用户评论文本集,其中,用户评论文本集中包括多条用户评论文本。在一实施例中,获取模块910可以用于执行前文描述的操作S601,在此不再赘述。
输入模块920用于将用户评论文本集中的用户评论文本输入至预先训练好的模型。在一实施例中,输入模块920可以用于执行前文描述的操作S602,在此不再赘述。
输出模块930用于输出每条用户评论文本的分类结果。在一实施例中,输出模块930可以用于执行前文描述的操作S603,在此不再赘述。
根据本公开的实施例,获取模块910、输入模块920和输出模块930中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,获取模块910、输入模块920和输出模块930中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,获取模块910、输入模块920和输出模块930中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图10示意性示出了根据本公开实施例的适于实现基于用户评论的模型训练方法以及基于用户评论的分析方法的电子设备的方框图。
如图10所示,根据本公开实施例的电子设备1000包括处理器1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储部分1009加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。处理器1001例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器1001还可以包括用于缓存用途的板载存储器。处理器1001可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 1003中,存储有电子设备1000操作所需的各种程序和数据。处理器1001、ROM 1002以及RAM 1003通过总线1004彼此相连。处理器1001通过执行ROM 1002和/或RAM1003中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 1002和RAM 1003以外的一个或多个存储器中。处理器1001也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备1000还可以包括输入/输出(I/O)接口1005,输入/输出(I/O)接口1005也连接至总线1004。电子设备1000还可以包括连接至I/O接口1005的以下部件中的一项或多项:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1008;包括硬盘等的存储部分1009;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至I/O接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1009。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM1002和/或RAM 1003和/或ROM 1002和RAM 1003以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本公开实施例所提供的物品推荐方法。
在该计算机程序被处理器1001执行时执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分1009被下载和安装,和/或从可拆卸介质1011被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分1009从网络上被下载和安装,和/或从可拆卸介质1011被安装。在该计算机程序被处理器1001执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (12)
1.一种基于用户评论的模型训练方法,包括:
按照不同的倾向性情绪类型对第一目标数量的用户评论文本进行分类处理,得到含有分类标签的训练文本集,其中,所述训练文本集中包括多条具有分类标签的用户评论文本;
将所述训练文本集中的所述用户评论文本输入至预训练的语言表征模型,以便输出每条所述用户评论文本的特征向量;
将每条所述用户评论文本的特征向量输入逻辑回归模型,以便输出每条所述用户评论文本的分类结果;以及
根据每条所述用户评论文本的分类结果和分类标签调整所述预训练的语言表征模型的模型参数。
2.根据权利要求1所述的方法,其中,所述语言表征模型包括预训练模型和微调模型,所述将所述训练文本集中的所述用户评论文本输入至预训练的语言表征模型,以便输出每条所述用户评论文本的特征向量包括:
根据所述预训练模型的模型参数,初始化所述微调模型的模型参数,得到已调参的初始微调模型;
将所述训练文本集中的所述用户评论文本输入至所述已调参的初始微调模型,通过数字化编码提取单词特征、单词属性特征、单词位置特征;
将所述单词特征、所述单词属性特征和所述单词位置特征进行融合,输出融合后的特征向量;
将所述融合后的特征向量输入所述语言表征模型的隐藏层,输出所述每条所述用户评论文本的特征向量。
3.根据权利要求1所述的方法,其中,在所述按照不同的倾向性情绪类型对第一目标数量的用户评论文本进行分类处理,得到含有分类标签的训练文本集之前,还包括:
对获取的预设数量的用户评论文本,进行预处理,得到所述目标数量的用户评论文本;
从所述目标数量的用户评论文本中进行筛选,得到所述第一目标数量的用户评论文本。
4.根据权利要求3所述的方法,其中,所述对获取的预设数量的用户评论文本,进行预处理,得到所述目标数量的用户评论文本包括:
将所述预设数量的用户评论文本中的表情符号转换为文本,得到所述目标数量的用户评论文本;和/或
将所述预设数量的用户评论文本中的无效数据进行剔除,得到所述目标数量的用户评论文本。
5.根据权利要求3所述的方法,还包括:
基于所述用户评论文本的分类结果,对训练得到的所述预训练的语言表征模型进行评估。
6.根据权利要求5所述的方法,其中,所述基于所述用户评论文本的分类结果,对训练得到的所述预训练的语言表征模型进行评估包括:
从所述目标数量的用户评论文本中进行筛选,得到第二目标数量的用户评论文本;
将每条所述第二目标数量的用户评论文本输入至训练得到的所述预训练的语言表征模型,以便输出每条所述用户评论文本的测试分类结果;
通过计算所述测试分类结果的准确率,对训练得到的所述预训练的语言表征模型进行评估。
7.一种基于用户评论的分析方法,包括:
获取与目标产品关联的用户评论文本集,其中,所述用户评论文本集中包括多条用户评论文本;
将所述用户评论文本集中的所述用户评论文本输入至预先训练好的模型;以及
输出每条所述用户评论文本的分类结果;
其中,所述预先训练好的模型根据权利要求1~6任一项所述的方法训练得到。
8.一种基于用户评论的分类模型训练装置,包括:
数据处理模块,用于按照不同的倾向性情绪类型对第一目标数量的用户评论文本进行分类处理,得到含有分类标签的训练文本集,其中,所述训练文本集中包括多条具有分类标签的用户评论文本;
特征提取模块,用于将所述训练文本集中的所述用户评论文本输入至预训练的语言表征模型,以便输出每条所述用户评论文本的特征向量;
分类模块,用于将每条所述用户评论文本的特征向量输入逻辑回归模型,以便输出每条所述用户评论文本的分类结果;以及
参数调整模块,用于根据每条所述用户评论文本的分类结果和分类标签调整所述预训练的语言表征模型的模型参数。
9.一种基于用户评论的分析装置,包括:
获取模块,用于获取与目标产品关联的用户评论文本集,其中,所述用户评论文本集中包括多条用户评论文本;
输入模块,用于将所述用户评论文本集中的所述用户评论文本输入至预先训练好的模型;以及
输出模块,用于输出每条所述用户评论文本的分类结果;
其中,所述预先训练好的模型根据权利要求1~6任一项所述的方法训练得到。
10.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~7中任一项所述的方法。
11.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行根据权利要求1~7中任一项所述的方法。
12.一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现根据权利要求1~7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210005005.8A CN114357170A (zh) | 2022-01-05 | 2022-01-05 | 模型训练方法、分析方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210005005.8A CN114357170A (zh) | 2022-01-05 | 2022-01-05 | 模型训练方法、分析方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114357170A true CN114357170A (zh) | 2022-04-15 |
Family
ID=81106486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210005005.8A Pending CN114357170A (zh) | 2022-01-05 | 2022-01-05 | 模型训练方法、分析方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114357170A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116077942A (zh) * | 2023-04-06 | 2023-05-09 | 深圳尚米网络技术有限公司 | 一种交互式内容推荐的实现方法 |
CN116501879A (zh) * | 2023-05-16 | 2023-07-28 | 重庆邮电大学 | 一种基于大数据的app软件用户评论需求分类方法 |
CN117852507A (zh) * | 2024-03-07 | 2024-04-09 | 南京信息工程大学 | 一种餐馆回头客预测模型、方法、系统及设备 |
US12001489B1 (en) * | 2023-01-25 | 2024-06-04 | Fujitsu Limited | Ethics-based multi-modal user post monitoring |
-
2022
- 2022-01-05 CN CN202210005005.8A patent/CN114357170A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12001489B1 (en) * | 2023-01-25 | 2024-06-04 | Fujitsu Limited | Ethics-based multi-modal user post monitoring |
CN116077942A (zh) * | 2023-04-06 | 2023-05-09 | 深圳尚米网络技术有限公司 | 一种交互式内容推荐的实现方法 |
CN116077942B (zh) * | 2023-04-06 | 2023-06-27 | 深圳尚米网络技术有限公司 | 一种交互式内容推荐的实现方法 |
CN116501879A (zh) * | 2023-05-16 | 2023-07-28 | 重庆邮电大学 | 一种基于大数据的app软件用户评论需求分类方法 |
CN117852507A (zh) * | 2024-03-07 | 2024-04-09 | 南京信息工程大学 | 一种餐馆回头客预测模型、方法、系统及设备 |
CN117852507B (zh) * | 2024-03-07 | 2024-05-17 | 南京信息工程大学 | 一种餐馆回头客预测模型、方法、系统及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220269707A1 (en) | Method and system for analyzing entities | |
US10824815B2 (en) | Document classification using attention networks | |
US20210150338A1 (en) | Identification of fields in documents with neural networks without templates | |
US11521016B2 (en) | Method and apparatus for generating information assessment model | |
CN114357170A (zh) | 模型训练方法、分析方法、装置、设备及介质 | |
US20180197087A1 (en) | Systems and methods for retraining a classification model | |
JP2018503206A (ja) | 大規模非構造化データフィールドにおけるテクニカルおよびセマンティックシグナル処理 | |
US20220382795A1 (en) | Method and system for detection of misinformation | |
Bikku et al. | Deep learning approaches for classifying data: a review | |
EP3355248A2 (en) | Security classification by machine learning | |
CN114372475A (zh) | 一种基于RoBERTa模型的网络舆情情感分析方法及系统 | |
Silaparasetty | Deep Learning Projects Using TensorFlow 2 | |
CN117634490A (zh) | 信息抽取方法、装置、设备、介质和程序产品 | |
Rahman et al. | A deep learning framework for non-functional requirement classification | |
CN113806538B (zh) | 标签提取模型训练方法、装置、设备与存储介质 | |
CN113515625A (zh) | 测试结果分类模型训练方法、分类方法及装置 | |
US20240028828A1 (en) | Machine learning model architecture and user interface to indicate impact of text ngrams | |
US11580307B2 (en) | Word attribution prediction from subject data | |
CN113591998A (zh) | 分类模型的训练和使用方法、装置、设备以及存储介质 | |
US20210166016A1 (en) | Product baseline information extraction | |
CN117670366A (zh) | 风险预测方法、装置、设备、介质和程序产品 | |
CN117911079A (zh) | 一种个性化商户营销智能推荐方法和系统 | |
US20210374533A1 (en) | Fully Explainable Document Classification Method And System | |
CN117235271A (zh) | 信息抽取方法、装置、计算机存储介质及电子设备 | |
CN114691836A (zh) | 文本的情感倾向性分析方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |