CN111241809B - 模型建立方法、装置、计算机设备和存储介质 - Google Patents
模型建立方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111241809B CN111241809B CN201811445546.2A CN201811445546A CN111241809B CN 111241809 B CN111241809 B CN 111241809B CN 201811445546 A CN201811445546 A CN 201811445546A CN 111241809 B CN111241809 B CN 111241809B
- Authority
- CN
- China
- Prior art keywords
- loss value
- model
- text
- target
- emotion analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000004458 analytical method Methods 0.000 claims abstract description 175
- 230000008451 emotion Effects 0.000 claims abstract description 155
- 239000013598 vector Substances 0.000 claims abstract description 96
- 230000015654 memory Effects 0.000 claims abstract description 74
- 230000006870 function Effects 0.000 claims abstract description 19
- 230000002441 reversible effect Effects 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 26
- 238000012360 testing method Methods 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 21
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 8
- 241000282326 Felis catus Species 0.000 description 4
- 230000007787 long-term memory Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及一种模型建立方法、装置、计算机设备和存储介质。所述方法包括:获取原始文本;将原始文本进行词嵌入,得到词向量;根据双向长短期记忆网络对词向量提取目标特征;根据多层感知器对目标特征进行依存句法分析,得到第一损失值;根据全卷积网络和柔性最大值函数对目标特征进行情感分析,得到第二损失值;根据第一损失值和第二损失值获取模型损失值;根据得到的模型损失值建立情感分析模型,情感分析模型用于对文本进行情感分析。采用本方法能够提高建立的模型在文本情感分析时的准确率。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种模型建立方法、装置、计算机设备和存储介质。
背景技术
随着计算机技术和互联网的发展,越来越多的人在网络上对事物进行评论,不同的评论具有不同的情感倾向。一些相同或者相近的评论文本在不同的场景下情感是不同的,甚至是相反的。然而,目前的评论文本情感分析的模型在对大量的评论进行情感的分析时,不能准确地分析出评论文本的情感倾向,存在准确率低下的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高文本情感分析准确率的模型建立方法、装置、计算机设备和存储介质。
一种模型建立方法,所述方法包括:
获取原始文本;
将所述原始文本进行词嵌入,得到词向量;
根据双向长短期记忆网络对所述词向量提取目标特征;
根据多层感知器对所述目标特征进行依存句法分析,得到第一损失值;
根据全链接神经网络和柔性最大值函数对所述目标特征进行情感分析,得到第二损失值;
根据所述第一损失值和第二损失值获取模型损失值;
根据得到的模型损失值建立情感分析模型,所述情感分析模型用于对文本进行情感分析。
一种模型建立装置,所述装置包括:
原始文本获取模块,用于获取原始文本;
词嵌入模块,用于将所述原始文本进行词嵌入,得到词向量;
目标特征提取模块,用于根据双向长短期记忆网络对所述词向量提取目标特征;
依存句法分析模块,用于根据多层感知器对所述目标特征进行依存句法分析,得到第一损失值;
情感分析模块,用于根据全链接神经网络和柔性最大值函数对所述目标特征进行情感分析,得到第二损失值;
模型损失值获取模块,用于根据所述第一损失值和第二损失值获取模型损失值;
模型建立模块,用于根据得到的模型损失值建立情感分析模型,所述情感分析模型用于对文本进行情感分析。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述模型建立方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以上述模型建立方法的步骤。
上述模型建立方法、装置、计算机设备和存储介质,获取原始文本;将原始文本进行词嵌入,得到词向量;根据双向长短期记忆网络对词向量提取目标特征;根据多层感知器对目标特征进行依存句法分析,得到第一损失值;根据全卷积网络和柔性最大值函数对目标特征进行情感分析,得到第二损失值;根据第一损失值和第二损失值获取模型损失值;根据得到的模型损失值建立情感分析模型,情感分析模型用于对文本进行情感分析。通过对目标特征进行依存句法分析与情感分析,分别得到的第一损失值和第二损失值,最后得到模型损失值,根据模型损失值建立情感分析模型,在情感分析模型中加入了依存句法分析,可以提高建立的模型在文本情感分析时的准确率。
附图说明
图1为一个实施例中模型建立方法的应用环境图;
图2为一个实施例中模型建立方法的流程示意图;
图3为一个实施例中模型建立方法的示意图;
图4为一个实施例中模型建立步骤的流程示意图;
图5为另一个实施例中模型建立方法的示意图;
图6为另一个实施例中模型建立步骤的流程示意图;
图7为一个实施例中模型建立装置的结构框图;
图8为另一个实施例中模型建立装置的结构框图;
图9为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供的模型建立方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104通过网络进行通信。用户在终端102上输入原始文本,服务器104通过网络获取原始文本;将原始文本进行词嵌入,得到词向量;根据双向长短期记忆网络对词向量提取目标特征;根据多层感知器对目标特征进行依存句法分析,得到第一损失值;根据全卷积网络和柔性最大值函数对目标特征进行情感分析,得到第二损失值;根据第一损失值和第二损失值获取模型损失值;根据得到的模型损失值建立情感分析模型,情感分析模型用于对文本进行情感分析。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种模型建立方法,,包括以下步骤:
步骤202,获取原始文本。
其中,原始文本可以是中文文本、也可以是英文文本,还可以是其他的文字形式记录的文本,不限于此。
具体地,可以通过用户实时输入的文本进行获取,也可以通过检测到输入的文档,识别文档中的内容进行提取原始文本,还可以通过识别网页中的评论区,从而提取评论区的文字获取原始文本,不限于此。
步骤204,将原始文本进行词嵌入,得到词向量。
其中,词嵌入指的是单个词在预定义的向量空间中被表示为实数向量,每个单词都映射到一个向量,也就是每个单词进行词嵌入得到了词向量。例如,在一个文本中包含“猫”“狗”“爱情”等若干单词,而这若干单词映射到向量空间中,“猫”对应的词向量为(0.1,0.2,0.3,……),“狗”对应的词向量为(0.2,0.2,0.4,……),“爱情”对应的词向量为(-0.4,-0.5,-0.2,……)。
步骤206,根据双向长短期记忆网络对词向量提取目标特征。
其中,长短期记忆网络(Long Short Term Memory Network,LSTM)指的是一种时间递归神经网络,可以用于提取有用的信息。双向长短期记忆网络指的是进行正向计算和反向计算的长短期记忆网络。
在原始文本中,存在一些对文本情感分析没有作用的词语,例如“的”、“地”、“啊”、“大约”、“在”等。对于文本的情感来说,这些词语并没有起到作用。如果提取这些词语的词向量作为目标特征,会增加处理器处理数据的压力,降低了处理器工作的效率。
然而,在依存句法分析中,可以通过这些词语获取文本中各个词语之间的关系,并通过文本中各个词语之间的关系可以更加准确得到文本的情感倾向数据。
因此,根据双向长短期记忆网络对词向量提取的目标特征中,既包含了用于情感分析的目标特征,也包含了用于依存句法分析的目标特征。并且用于依存句法分析的目标特征可以获取文本中各个词语之间的关系,从而可以对文本情感分析更加准确。
步骤208,根据多层感知器对目标特征进行依存句法分析,得到第一损失值。
多层感知器(MLP,Multilayer Perceptron)是一种前向结构的人工神经网络,映射一组输入向量到一组输出向量。依存句法分析是分析文本中的目标特征之间的依存关系,也即指出了目标特征之间在句法上的搭配关系,这种搭配关系是和语义相关联的。第一损失值指的是依存句法分析得到句法信息与原始文本之间的偏差。
步骤210,根据全链接神经网络和柔性最大值函数对目标特征进行情感分析,得到第二损失值。
其中,全链接神经网络指的是将所有输入和输出连接起来的网络。柔性最大值函数指的是神经网络中一种输出层函数,计算输出层的值。第二损失值指的是情感分析得到情感倾向数据与原始文本之间的偏差。
具体地,首先根据全链接神经网络将目标特征连接起来,再根据柔性最大值函数对目标特征进行分类,并得到各个类别的概率。通过各个类别的概率可以得到第二损失值。
步骤212,根据第一损失值和第二损失值获取模型损失值。
模型损失值为整个模型的损失值。可以理解的是,模型损失值越小,则模型对文本的情感分析越准确。
步骤214,根据得到的模型损失值建立情感分析模型,情感分析模型用于对文本进行情感分析。
可以理解的是,情感分析模型用于对文本进行情感分析时,不需要对文本进行依存句法分析。
如图3所示,原始文本中的各个词语通过此嵌入得到词向量,再通过双向长短期记忆网络提取目标特征,通过对目标特征进行依存句法分析和情感分析得到第一损失值和第二损失值,进而得到模型损失值,建立情感分析模型。
上述模型建立方法中,获取原始文本;将原始文本进行词嵌入,得到词向量;根据双向长短期记忆网络对词向量提取目标特征;根据多层感知器对目标特征进行依存句法分析,得到第一损失值;根据全卷积网络和柔性最大值函数对目标特征进行情感分析,得到第二损失值;根据第一损失值和第二损失值获取模型损失值;根据得到的模型损失值建立情感分析模型,情感分析模型用于对文本进行情感分析。通过对目标特征进行依存句法分析与情感分析,分别得到的第一损失值和第二损失值,最后得到模型损失值,根据模型损失值建立情感分析模型,在情感分析模型中加入了依存句法分析,可以更加建立的模型在文本情感分析时的准确率。
在一个实施例中,获取原始文本包括:
步骤402,获取至少两个原始文本。
将原始文本进行词嵌入,得到词向量,包括:
步骤404,根据各个原始文本分别生成对应的目标文本,其中,生成的各个目标文本的长度相同。
可以理解的是,当各个原始文本的长度不一时,则进行分词后各个原始文本的维度不一致,无法进行词嵌入得到词向量。因此,需要将各个原始文本分别生成对应的长度相同的目标文本。
具体地,获取预设的目标文本的长度阈值。当原始文本的长度长于长度阈值时,将原始文本进行切割,得到目标文本。将原始文本进行切割可以切去原始文本的句子开头或者句子结尾,不限于此。当原始文本的长度短于长度阈值时,将原始文本进行补齐,得到目标文本。可以通过添加一定数量的“<PAD>”进行补齐。
当原始文本的长度长于目标文本的长度阈值时,需要将原始文本进行切割,会丢失一部分原始文本的文本数据,对原始文本的情感分析造成影响。因此,在预设目标文本的长度阈值时,一般将长度阈值设置得较大即可,不会对原始文本的情感分析造成影响。
步骤406,将各个目标文本进行分词处理,得到各个目标文本中的词语。
具体地,分词处理后得到各个目标文本中的词语数量相同。通常每个句子长度最多为30个词语。
同时,可以对原始文本标注情感倾向数据,例如,可以标注“积极”、“消极”和“中性”,还可以标注“高兴”、“愤怒”和“悲伤”等,不限于此。在模型训练的过程中,可以根据训练的结果与原始文本标注的情感倾向数据进行比较,从而获取模型的情感分析的准确度。
步骤408,将各个目标文本中的词语进行词嵌入处理,得到词向量。
在本实施例中,对至少两个原始文本进行预处理分别得到相同长度的目标文本,再对各个目标文本中的词语进行词嵌入处理,得到词向量。相同长度的目标文本可以得到相同维度的词向量,具有统一的标准,从而使建立的模型分析文本更加准确。
在一个实施例中,将各个目标文本进行分词处理,得到各个目标文本中的词语之后,还包括:统计各个目标文本中包含的词语的数量;将各个目标文本中包含的词语进行分类,根据分类结果确定各个目标文本的维度;将各个目标文本中的词语进行词嵌入处理,得到词向量,包括:根据各个目标文本中的词语的数量和维度,得到各个目标文本的词向量。
具体地,将目标文本中包含的词语进行分类,可以将相同的词语分为一类。根据各个目标文本中的词语的数量和维度,得到各个目标文本的词向量。
例如,一个目标文本进行词嵌入后得到的词语的数量为300维度为n,则用词向量表示该目标文本为300*n。如其中包括“猫”、“狗”、“爱情”,通过词嵌入得到“猫”对应的词向量为(0.1,0.2,0.3,……),“狗”对应的词向量为(0.2,0.2,0.4,……),“爱情”对应的词向量为(-0.4,-0.5,-0.2,……)。
将词语表示成各个维度的数据,可以得到该词语与各个维度之间的关联性。如0.8表示该词语与该维度正向关联性强,0.2表示该词语与该维度正向关联性弱,-0.5表示该词语与该维度负向关联性中等。
在本实施例中,获取各个目标文本中包含的词语的数量和维度,从而将词语进行词嵌入得到词向量,可以更加准确地表示各个词语与各个维度之间的关联性,可以更加准确地得到整个文本的情感倾向。
在一个实施例中,双向长短期记忆网络包括正向长短期记忆网络和反向长短期记忆网络,根据双向长短期记忆网络对词向量提取目标特征,包括:根据正向长短期记忆网络对词向量提取正向特征,并根据反向长短期记忆网络对词向量提取反向特征;并根据全链接神经网络对正向特征和反向特征进行结合,得到目标特征。
具体地,正向长短期记忆网络对词向量进行正向提取特征,反向长短期记忆网络对词向量进行反向提取特征。全链接神经网络将正向特征和反向特征进行结合,得到目标特征。目标特征可以是单个特征,也可以是多个特征进行组合,不限于此。
在本实施例中,通过正向长短期记忆网络和反向长短期记忆网络分别对词向量提取特征,再通过全链接神经网络将正向特征和反向特征进行结合,可以增强词向量的表达能力。
如图5所示,对原始文本进行词嵌入后得到词向量,再根据正向LSTM和反向LSTM分别提取到正向特征和反向特征,根据全链接神经网络对正向特征和反向特征进行结合得到目标特征,然后对目标特征分别进行依存句法分析和情感分析,得到第一损失值和第二损失值,进而得到模型损失值,最后根据模型损失值建立情感分析模型。
在一个实施例中,根据第一损失值和第二损失值获取模型损失值,包括:获取第一损失值的第一权重和第二损失值的第二权重,第一权重小于第二权重;根据第一损失值、第一权重、第二损失值和第二权重计算得到模型损失值。
具体地,第一损失值为依存句法分析的损失值,第二损失值为情感分析的损失值。可以理解的是,建立的模型用于对文本进行情感分析。因此,第二权重大于第一权重。第一权重和第二权重可以根据用户需要进行预先设置,也可以进行实时设置,不限于此。
模型损失值可以通过以下计算公式计算得到:模型损失值δ=α*第一损失值+β第二损失值。其中,α+β=1,因此,第二权重β大于0.5。
具体地,模型损失值δ可以通过如下公式进行表示:
δ=αmax(0,1-maxy′≠y∑(h.m)∈y′MLP(vh,vm)+∑(h,m)∈yMLP(vh,vm))-logpi(ci)
其中,-logpi(ci)为情感分析部分的损失函数——交叉熵损失,Pi(Ci)为原始文本情感分析正确的类别Ci的概率。
max(0,1-maxy′≠y∑(h.m)∈y′MLP(vh,vm)+∑(h,m)∈yMLP(vh,vm))为依存句法分析的损失函数——hinge loss,y为正确的依存树,y′为预测的依存树,(h,m)为相应树中的依存弧。
在本实施例中,根据第一损失值的第一权重和第二损失值的第二权重计算得到模型损失值,可以按照不同的分析任务设置不同的权重,更加准确地得到建立的模型。
在一个实施例中,根据得到的模型损失值建立情感分析模型,情感分析模型用于对文本进行情感分析,包括:
步骤602,获取双向长短期记忆网络的初始参数。
其中,初始参数可以是输入的维度、输出的维度等。可以预先设置双向长短期记忆网络的初始参数,也可以使用双向长短期记忆网络的默认参数,不限于此。
步骤604,当模型损失值大于损失值阈值时,根据模型损失值获取目标参数。
其中,损失值阈值可以由用户预先进行设置,也可以实时进行设置,不限于此。
步骤606,根据双向长短期记忆网络的目标参数,执行根据双向长短期记忆网络对词向量提取目标特征步骤。
具体地,获取到目标参数后,再根据双向长短期记忆网络的目标参数提取到更合适的目标特征,进而降低模型损失值。
步骤608,当模型损失值小于或等于损失值阈值时,根据得到的模型损失值建立情感分析模型。
当损失值小于或等于损失值阈值时,则情感分析模型为稳定的模型。在情感分析模型对文本进行分析时,获取的文本情感倾向数据的准确率较高。
在本实施例中,当模型损失值大于损失值阈值时,根据模型损失值获取目标参数,再根据双向长短期记忆网络的目标参数对词向量提取目标特征,直到模型损失值小于或等于损失值阈值,从而建立情感分析模型,提高了建立的模型分析文本情感的准确度。
在一个实施例中,当模型损失值小于或等于损失值阈值时,建立情感分析模型之后,还包括:获取测试文本;通过情感分析模型对测试文本进行情感分析,得到测试文本的情感倾向数据。
具体地,当情感分析模型建立后,通过情感分析模型对测试文本进行情感分析,可以得到测试文本的情感倾向数据。例如,情感倾向数据可以是“积极”、“消极”和“中性”,还可以“高兴”、“愤怒”和“悲伤”等。
在本实施例中,通过建立的情感分析模型对测试文本进行情感分析,可以得到测试文本的情感倾向数据。
应该理解的是,虽然图2、图4和图6的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、图4和图6中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图7所示,提供了一种模型建立装置700,包括:原始文本获取模块702、词嵌入模块704、目标特征提取模块706、依存句法分析模块708、情感分析模块710、模型损失值获取模块712和模型建立模块714,其中:
原始文本获取模块702,用于获取原始文本。
词嵌入模块704,用于将原始文本进行词嵌入,得到词向量。
目标特征提取模块706,用于根据双向长短期记忆网络对词向量提取目标特征。
依存句法分析模块708,用于根据多层感知器对目标特征进行依存句法分析,得到第一损失值。
情感分析模块710,用于根据全链接神经网络和柔性最大值函数对目标特征进行情感分析,得到第二损失值。
模型损失值获取模块712,用于根据第一损失值和第二损失值获取模型损失值。
模型建立模块714,用于根据得到的模型损失值建立情感分析模型,情感分析模型用于对文本进行情感分析。
上述模型建立装置,获取原始文本;将原始文本进行词嵌入,得到词向量;根据双向长短期记忆网络对词向量提取目标特征;根据多层感知器对目标特征进行依存句法分析,得到第一损失值;根据全卷积网络和柔性最大值函数对目标特征进行情感分析,得到第二损失值;根据第一损失值和第二损失值获取模型损失值;根据得到的模型损失值建立情感分析模型,情感分析模型用于对文本进行情感分析。通过对目标特征进行依存句法分析与情感分析,分别得到的第一损失值和第二损失值,最后得到模型损失值,根据模型损失值建立情感分析模型,在情感分析模型中加入了依存句法分析,可以更加建立的模型在文本情感分析时的准确率。
在一个实施例中,如图8所示,提供了一种模型建立装置800,包括:原始文本获取模块802、词嵌入模块804、目标特征提取模块806、依存句法分析模块808、情感分析模块810、模型损失值获取模块812、模型建立模块814和测试模块816,其中:
原始文本获取模块802,用于获取原始文本。
词嵌入模块804,用于将原始文本进行词嵌入,得到词向量。
目标特征提取模块806,用于根据双向长短期记忆网络对词向量提取目标特征。
依存句法分析模块808,用于根据多层感知器对目标特征进行依存句法分析,得到第一损失值。
情感分析模块810,用于根据全链接神经网络和柔性最大值函数对目标特征进行情感分析,得到第二损失值。
模型损失值获取模块812,用于根据第一损失值和第二损失值获取模型损失值。
模型建立模块814,用于根据得到的模型损失值建立情感分析模型,情感分析模型用于对文本进行情感分析。
测试模块816,用于获取测试文本;通过情感分析模型对测试文本进行情感分析,得到测试文本的情感倾向数据。
上述模型建立装置,通过对目标特征进行依存句法分析与情感分析,分别得到的第一损失值和第二损失值,最后得到模型损失值,根据模型损失值建立情感分析模型,并通过情感分析模型可以对测试文本进行情感分析。在情感分析模型中加入了依存句法分析,可以更加建立的模型在文本情感分析时的准确率。
在一个实施例中,上述原始文本获取模块802还用于获取至少两个原始文本。上述词嵌入模块804还用于根据各个原始文本分别生成对应的目标文本,其中,生成的各个目标文本的长度相同;将各个目标文本进行分词处理,得到各个目标文本中的词语;将各个目标文本中的词语进行词嵌入处理,得到词向量。
在一个实施例中,上述词嵌入模块804还用于统计各个目标文本中包含的词语的数量;将各个目标文本中包含的词语进行分类,根据分类结果确定各个目标文本的维度;根据各个目标文本中的词语的数量和维度,得到各个目标文本的词向量。
在一个实施例中,上述目标特征提取模块806还用于根据正向长短期记忆网络对词向量提取正向特征,并根据反向长短期记忆网络对词向量提取反向特征;并根据全链接神经网络对正向特征和反向特征进行结合,得到目标特征。
在一个实施例中,上述模型损失值获取模块812还用于获取第一损失值的第一权重和第二损失值的第二权重,第一权重小于第二权重;根据第一损失值、第一权重、第二损失值和第二权重计算得到模型损失值。
在一个实施例中,上述模型建立模块814还用于获取双向长短期记忆网络的初始参数;当模型损失值大于损失值阈值时,根据模型损失值获取目标参数;根据双向长短期记忆网络的目标参数,执行根据双向长短期记忆网络对词向量提取目标特征步骤;当模型损失值小于或等于损失值阈值时,根据得到的模型损失值建立情感分析模型。
关于模型建立装置的具体限定可以参见上文中对于模型建立方法的限定,在此不再赘述。上述模型建立装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种模型建立方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:获取原始文本;将原始文本进行词嵌入,得到词向量;根据双向长短期记忆网络对词向量提取目标特征;根据多层感知器对目标特征进行依存句法分析,得到第一损失值;根据全卷积网络和柔性最大值函数对目标特征进行情感分析,得到第二损失值;根据第一损失值和第二损失值获取模型损失值;根据得到的模型损失值建立情感分析模型,情感分析模型用于对文本进行情感分析。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取至少两个原始文本。将原始文本进行词嵌入,得到词向量,包括:根据各个原始文本分别生成对应的目标文本,其中,生成的各个目标文本的长度相同;将各个目标文本进行分词处理,得到各个目标文本中的词语;将各个目标文本中的词语进行词嵌入处理,得到词向量。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:统计各个目标文本中包含的词语的数量;将各个目标文本中包含的词语进行分类,根据分类结果确定各个目标文本的维度;将各个目标文本中的词语进行词嵌入处理,得到词向量,包括:根据各个目标文本中的词语的数量和维度,得到各个目标文本的词向量。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据正向长短期记忆网络对词向量提取正向特征,并根据反向长短期记忆网络对词向量提取反向特征;并根据全链接神经网络对正向特征和反向特征进行结合,得到目标特征。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取第一损失值的第一权重和第二损失值的第二权重,第一权重小于第二权重;根据第一损失值、第一权重、第二损失值和第二权重计算得到模型损失值。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取双向长短期记忆网络的初始参数;当模型损失值大于损失值阈值时,根据模型损失值获取目标参数;根据双向长短期记忆网络的目标参数,执行根据双向长短期记忆网络对词向量提取目标特征步骤;当模型损失值小于或等于损失值阈值时,根据得到的模型损失值建立情感分析模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取测试文本;通过情感分析模型对测试文本进行情感分析,得到测试文本的情感倾向数据。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取原始文本;将原始文本进行词嵌入,得到词向量;根据双向长短期记忆网络对词向量提取目标特征;根据多层感知器对目标特征进行依存句法分析,得到第一损失值;根据全卷积网络和柔性最大值函数对目标特征进行情感分析,得到第二损失值;根据第一损失值和第二损失值获取模型损失值;根据得到的模型损失值建立情感分析模型,情感分析模型用于对文本进行情感分析。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取至少两个原始文本。将原始文本进行词嵌入,得到词向量,包括:根据各个原始文本分别生成对应的目标文本,其中,生成的各个目标文本的长度相同;将各个目标文本进行分词处理,得到各个目标文本中的词语;将各个目标文本中的词语进行词嵌入处理,得到词向量。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:统计各个目标文本中包含的词语的数量;将各个目标文本中包含的词语进行分类,根据分类结果确定各个目标文本的维度;将各个目标文本中的词语进行词嵌入处理,得到词向量,包括:根据各个目标文本中的词语的数量和维度,得到各个目标文本的词向量。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据正向长短期记忆网络对词向量提取正向特征,并根据反向长短期记忆网络对词向量提取反向特征;并根据全链接神经网络对正向特征和反向特征进行结合,得到目标特征。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取第一损失值的第一权重和第二损失值的第二权重,第一权重小于第二权重;根据第一损失值、第一权重、第二损失值和第二权重计算得到模型损失值。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取双向长短期记忆网络的初始参数;当模型损失值大于损失值阈值时,根据模型损失值获取目标参数;根据双向长短期记忆网络的目标参数,执行根据双向长短期记忆网络对词向量提取目标特征步骤;当模型损失值小于或等于损失值阈值时,根据得到的模型损失值建立情感分析模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取测试文本;通过情感分析模型对测试文本进行情感分析,得到测试文本的情感倾向数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种模型建立方法,所述方法包括:
获取原始文本;
将所述原始文本进行词嵌入,得到词向量;
根据正向长短期记忆网络对所述词向量提取正向特征,并根据反向长短期记忆网络对所述词向量提取反向特征;
根据全链接神经网络对所述正向特征和所述反向特征进行结合,得到目标特征;
根据多层感知器对所述目标特征进行依存句法分析,得到第一损失值;所述第一损失值指的是依存句法分析得到句法信息与所述原始文本之间的偏差;
根据全链接神经网络和柔性最大值函数对所述目标特征进行情感分析,得到第二损失值;所述第二损失值指的是情感分析得到情感倾向数据与所述原始文本之间的偏差;
根据所述第一损失值和第二损失值获取模型损失值;
根据得到的模型损失值建立情感分析模型,所述情感分析模型用于对文本进行情感分析。
2.根据权利要求1所述的方法,其特征在于,所述获取原始文本,包括:
获取至少两个原始文本;
所述将所述原始文本进行词嵌入,得到词向量,包括:
根据各个原始文本分别生成对应的目标文本,其中,生成的各个目标文本的长度相同;
将各个所述目标文本进行分词处理,得到各个所述目标文本中的词语;
将各个所述目标文本中的词语进行词嵌入处理,得到词向量。
3.根据权利要求2所述的方法,其特征在于,所述将各个所述目标文本进行分词处理,得到各个所述目标文本中的词语之后,还包括:
统计各个所述目标文本中包含的词语的数量;
将各个所述目标文本中包含的词语进行分类,根据分类结果确定各个所述目标文本的维度;
所述将各个所述目标文本中的词语进行词嵌入处理,得到词向量,包括:
根据各个所述目标文本中的词语的数量和维度,得到各个所述目标文本的词向量。
4.根据权利要求1所述的方法,其特征在于,所述根据所述第一损失值和第二损失值获取模型损失值,包括:
获取第一损失值的第一权重和第二损失值的第二权重,所述第一权重小于所述第二权重;
根据第一损失值、第一权重、第二损失值和第二权重计算得到模型损失值。
5.根据权利要求1所述的方法,其特征在于,所述根据得到的模型损失值建立情感分析模型,所述情感分析模型用于对文本进行情感分析,包括:
获取双向长短期记忆网络的初始参数;
当所述模型损失值大于损失值阈值时,根据所述模型损失值获取目标参数;
根据所述双向长短期记忆网络的目标参数,执行所述根据正向长短期记忆网络对所述词向量提取正向特征,并根据反向长短期记忆网络对所述词向量提取反向特征步骤;
当所述模型损失值小于或等于损失值阈值时,根据得到的模型损失值建立情感分析模型。
6.根据权利要求5所述的方法,其特征在于,所述当所述模型损失值小于或等于损失值阈值时,建立情感分析模型之后,还包括:
获取测试文本;
通过所述情感分析模型对所述测试文本进行情感分析,得到所述测试文本的情感倾向数据。
7.一种模型建立装置,其特征在于,所述装置包括:
原始文本获取模块,用于获取原始文本;
词嵌入模块,用于将所述原始文本进行词嵌入,得到词向量;
目标特征提取模块,用于根据正向长短期记忆网络对所述词向量提取正向特征,并根据反向长短期记忆网络对所述词向量提取反向特征;根据全链接神经网络对所述正向特征和所述反向特征进行结合,得到目标特征;
依存句法分析模块,用于根据多层感知器对所述目标特征进行依存句法分析,得到第一损失值;所述第一损失值指的是依存句法分析得到句法信息与所述原始文本之间的偏差;
情感分析模块,用于根据全链接神经网络和柔性最大值函数对所述目标特征进行情感分析,得到第二损失值;所述第二损失值指的是情感分析得到情感倾向数据与所述原始文本之间的偏差;
模型损失值获取模块,用于根据所述第一损失值和第二损失值获取模型损失值;
模型建立模块,用于根据得到的模型损失值建立情感分析模型,所述情感分析模型用于对文本进行情感分析。
8.根据权利要求7所述的装置,其特征在于,所述原始文本获取模块还用于获取至少两个原始文本;所述词嵌入模块还用于根据各个原始文本分别生成对应的目标文本,其中,生成的各个目标文本的长度相同;将各个所述目标文本进行分词处理,得到各个所述目标文本中的词语;将各个所述目标文本中的词语进行词嵌入处理,得到词向量。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811445546.2A CN111241809B (zh) | 2018-11-29 | 2018-11-29 | 模型建立方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811445546.2A CN111241809B (zh) | 2018-11-29 | 2018-11-29 | 模型建立方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111241809A CN111241809A (zh) | 2020-06-05 |
CN111241809B true CN111241809B (zh) | 2024-02-09 |
Family
ID=70865517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811445546.2A Active CN111241809B (zh) | 2018-11-29 | 2018-11-29 | 模型建立方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111241809B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112035661B (zh) * | 2020-08-24 | 2024-09-24 | 北京大学深圳研究生院 | 基于图卷积网络的文本情感分析方法、系统和电子装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105930503A (zh) * | 2016-05-09 | 2016-09-07 | 清华大学 | 基于组合特征向量和深度学习的情感分类方法及装置 |
CN106776581A (zh) * | 2017-02-21 | 2017-05-31 | 浙江工商大学 | 基于深度学习的主观性文本情感分析方法 |
CN107273458A (zh) * | 2017-06-01 | 2017-10-20 | 百度在线网络技术(北京)有限公司 | 深度模型训练方法及装置、图像检索方法及装置 |
CN108763204A (zh) * | 2018-05-21 | 2018-11-06 | 浙江大学 | 一种多层次的文本情感特征提取方法和模型 |
-
2018
- 2018-11-29 CN CN201811445546.2A patent/CN111241809B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105930503A (zh) * | 2016-05-09 | 2016-09-07 | 清华大学 | 基于组合特征向量和深度学习的情感分类方法及装置 |
CN106776581A (zh) * | 2017-02-21 | 2017-05-31 | 浙江工商大学 | 基于深度学习的主观性文本情感分析方法 |
CN107273458A (zh) * | 2017-06-01 | 2017-10-20 | 百度在线网络技术(北京)有限公司 | 深度模型训练方法及装置、图像检索方法及装置 |
CN108763204A (zh) * | 2018-05-21 | 2018-11-06 | 浙江大学 | 一种多层次的文本情感特征提取方法和模型 |
Also Published As
Publication number | Publication date |
---|---|
CN111241809A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110765265B (zh) | 信息分类抽取方法、装置、计算机设备和存储介质 | |
CN110765763B (zh) | 语音识别文本的纠错方法、装置、计算机设备和存储介质 | |
CN110598206B (zh) | 文本语义识别方法、装置、计算机设备和存储介质 | |
CN110059320B (zh) | 实体关系抽取方法、装置、计算机设备和存储介质 | |
CN108664595B (zh) | 领域知识库构建方法、装置、计算机设备和存储介质 | |
CN110569500A (zh) | 文本语义识别方法、装置、计算机设备和存储介质 | |
CN110750965B (zh) | 英文文本序列标注方法、系统及计算机设备 | |
CN110688853B (zh) | 序列标注方法、装置、计算机设备和存储介质 | |
CN109815333A (zh) | 信息获取方法、装置、计算机设备和存储介质 | |
US20170116521A1 (en) | Tag processing method and device | |
CN113704436B (zh) | 基于会话场景的用户画像标签挖掘方法及装置 | |
CN110674131A (zh) | 财务报表数据处理方法、装置、计算机设备和存储介质 | |
CN116049597B (zh) | 网页的多任务模型的预训练方法、装置及电子设备 | |
CN114358203A (zh) | 图像描述语句生成模块的训练方法及装置、电子设备 | |
CN113343711B (zh) | 工单生成方法、装置、设备及存储介质 | |
CN111241809B (zh) | 模型建立方法、装置、计算机设备和存储介质 | |
CN111476035B (zh) | 中文开放关系预测方法、装置、计算机设备和存储介质 | |
CN116383521B (zh) | 主题词挖掘方法及装置、计算机设备及存储介质 | |
KR102448044B1 (ko) | 속성 맵을 이용한 속성 기반 감정 분석 방법 및 전자 장치 | |
CN117454190A (zh) | 日志数据分析方法和装置 | |
CN117725458A (zh) | 一种获取威胁情报样本数据生成模型的方法及装置 | |
CN111783430A (zh) | 句对匹配率的确定方法、装置、计算机设备和存储介质 | |
US20230368571A1 (en) | Training Method of Facial Expression Embedding Model, Facial Expression Embedding Method and Facial Expression Embedding Device | |
CN115827877A (zh) | 一种提案辅助并案的方法、装置、计算机设备和存储介质 | |
CN113434652B (zh) | 智能问答方法、智能问答装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |