CN113377910A - 情感评价方法、装置、电子设备和存储介质 - Google Patents
情感评价方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN113377910A CN113377910A CN202110643047.XA CN202110643047A CN113377910A CN 113377910 A CN113377910 A CN 113377910A CN 202110643047 A CN202110643047 A CN 202110643047A CN 113377910 A CN113377910 A CN 113377910A
- Authority
- CN
- China
- Prior art keywords
- emotion
- emotion evaluation
- sentence
- model
- evaluated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 362
- 238000011156 evaluation Methods 0.000 title claims abstract description 123
- 238000013210 evaluation model Methods 0.000 claims abstract description 156
- 238000000034 method Methods 0.000 claims abstract description 47
- 230000006870 function Effects 0.000 claims description 56
- 238000012549 training Methods 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 9
- 230000006403 short-term memory Effects 0.000 claims description 4
- 230000007787 long-term memory Effects 0.000 claims description 2
- 238000003058 natural language processing Methods 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- AZFKQCNGMSSWDS-UHFFFAOYSA-N MCPA-thioethyl Chemical compound CCSC(=O)COC1=CC=C(Cl)C=C1C AZFKQCNGMSSWDS-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请适用于自然语言处理技术领域,提供了一种情感评价方法、装置、电子设备和计算机可读存储介质。该方法包括:获取待评价篇章;将待评价文本输入至预先训练好的篇章情感评价模型,获得篇章情感评价结果;将篇章情感评价结果和待评价句子输入至预先训练好的句子情感评价模型,获得句子情感评价结果;句子情感评价结果和待评价词语输入至预先训练好的词语情感评价模型,获得词语情感评价结果;其中,待评价文本包括待评价句子,待评价句子包括待评价词语。相比于模型之间独立预测,本申请可将原本独立的三个模型联系起来,充分利用了篇章、句子和词语之间的内在联系,使模型对文本情感的预测将更准确。
Description
技术领域
本申请属于自然语言处理技术领域,尤其涉及一种情感评价方法、装置、电子设备和计算机可读存储介质。
背景技术
文本情感分析是自然语言处理领域中的重要任务,主要指对于给定的文本,识别其中主观文本的正面或负面的倾向性。文本情感分析从采用基于语义的情感词典方法,基于机器学习的情感分类方法,发展到如今采用深度学习模型的分类方法,其预测准确率逐渐升高,已接近人的水平。文本情感分析一直是自然语言处理和文本挖掘领域研究的热点问题之一。
目前,通常情况下对于词、句、篇章的情感分析较为独立,并未考虑三者之间的关联关系。然而在实际情况中,对于一篇文章中的一个句子,它必定会相关于整篇文章的情感基调,而不是与整篇文章割裂开来;同理,句子中的一个词也必然受到整个句子情感的影响。因此,现有技术中将词、句、篇章三者的情感分析分割开来并不合理。
因此,想要更准确地预测词、句、篇章的情感标签,应当将三者相关联。
发明内容
本申请实施例提供了一种情感评价方法、装置、电子设备和计算机可读存储介质,可以更准确地预测文本的情感标签。
第一方面,本申请实施例提供了一种情感评价方法,包括:
获取待评价篇章;
将所述待评价篇章输入至预先训练好的篇章情感评价模型,获得所述篇章情感评价模型输出的篇章情感评价结果;
将所述篇章情感评价结果和待评价句子输入至预先训练好的句子情感评价模型,获得所述句子情感评价模型输出的句子情感评价结果;
将所述句子情感评价结果和待评价词语输入至预先训练好的词语情感评价模型,获得所述词语情感评价模型输出的词语情感评价结果;
其中,所述待评价篇章包括所述待评价句子,所述待评价句子包括所述待评价词语。
进一步的,在获取待评价篇章之前,还包括:
分别训练所述篇章情感评价模型、所述句子情感评价模型和所述词语情感评价模型。
具体的,分别训练所述篇章情感评价模型、所述句子情感评价模型和所述词语情感评价模型,包括:
采用篇章样本及对应的篇章情感标签对所述篇章情感评价模型进行训练;
采用句子样本及对应的句子情感标签、所述句子样本所在篇章样本的篇章情感标签对所述句子情感评价模型进行训练;
采用词语样本及对应的词语情感标签、所述词语样本所在句子样本的句子情感标签对所述词语情感评价模型进行训练;
采用损失函数分别对所述篇章情感评价模型、所述句子情感评价模型和所述词语情感评价模型进行迭代调整。
其中,采用损失函数分别对所述篇章情感评价模型、所述句子情感评价模型和所述词语情感评价模型进行迭代调整,包括:
根据所述篇章情感评价结果和所述篇章情感标签获取所述篇章情感评价模型的第一损失函数值;
根据所述句子情感评价结果和所述句子情感标签获取所述句子情感评价模型的第二损失函数值;
根据所述词语情感评价结果和所述词语情感标签获取所述词语情感评价模型的第三损失函数值;
获得合并损失函数值,所述合并损失函数值为所述第一损失函数值、所述第二损失函数值与所述第三损失函数值的和;
利用所述合并损失函数值分别调整所述篇章情感评价模型的参数、所述句子情感评价模型的参数和所述词语情感评价模型的参数;
进行多次迭代调整直至所述合并损失函数值趋于稳定。
示例性的,所述句子情感评价模型和所述词语情感评价模型均包括BERT模型和全连接层;
相应的,将所述篇章情感评价结果和待评价句子输入至预先训练好的句子情感评价模型,获得所述句子情感评价模型输出的句子情感评价结果,包括:
将所述篇章情感评价结果和待评价句子组成字符串输入所述BERT模型,其中,在所述待评价句子前增加文本分类符号,在所述待评价句子与所述篇章情感评价结果之间增加分割符号;将所述BERT模型输出的特征结果输入所述全连接层,得到句子情感评价结果;
相应的,将所述句子情感评价结果和待评价词语输入至预先训练好的词语情感评价模型,获得所述词语情感评价模型输出的词语情感评价结果,包括:
将所述待评价词语与所述句子情感评价结果组成字符串输入所述BERT模型,其中,在所述待评价词语前增加文本分类符号,在所述待评价词语与所述句子情感评价结果之间增加分割符号;将所述BERT模型输出的特征结果输入所述全连接层,得到词语情感评价结果。
在一种可能的实现方式中,分别训练所述篇章情感评价模型、所述句子情感评价模型和所述词语情感评价模型之前,还包括:
构建多任务学习模型,所述多任务学习模型包括所述篇章情感评价模型、所述句子情感评价模型和所述词语情感评价模型。
其中,所述篇章情感分析模型为长短期记忆网络模型。
第二方面,本申请实施例提供了一种情感评价装置,包括:
文本获取模块,用于获取待评价篇章;
篇章情感评价模块,用于将所述待评价篇章输入至预先训练好的篇章情感评价模型,获得所述篇章情感评价模型输出的篇章情感评价结果;
句子情感评价模块,用于将所述篇章情感评价结果和待评价句子输入至预先训练好的句子情感评价模型,获得所述句子情感评价模型输出的句子情感评价结果;
词语情感评价模块,用于将所述句子情感评价结果和待评价词语输入至预先训练好的词语情感评价模型,获得所述词语情感评价模型输出的词语情感评价结果;
其中,所述待评价篇章包括所述待评价句子,所述待评价句子包括所述待评价词语。
第三方面,本申请实施例提供了一种电子设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上第一方面任一项所述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上第一方面任一项所述的方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行上述第一方面中任一项所述的方法。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
本申请实施例与现有技术相比存在的有益效果是:将篇章情感分析模型对待评价篇章进行预测得到的篇章情感评价结果输入句子情感评价模型中,对待评价句子进行预测,得到句子情感评价结果;将句子情感分析模型对待评价句子进行预测得到的句子情感评价结果作为参数,输入词语情感评价模型中,对待评价词语进行预测,得到词语情感评价结果;相比于模型之间独立预测,本申请可将原本独立的三个模型联系起来,充分利用了篇章、句子和词语之间的内在联系,使模型对文本情感的预测将更准确。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的情感评价方法的流程示意图;
图2是本申请一实施例提供的情感评价方法的输入输出示意图;
图3是本申请一实施例提供的句子情感评价模型的数据处理过程示意图;
图4是本申请一实施例提供的模型训练过程示意图;
图5是本申请一实施例提供的情感评价装置的结构示意图;
图6是本申请一实施例提供的电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本申请实施例提供的情感评价方法可以应用于手机、平板电脑、可穿戴设备、车载设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等终端设备上,还可应用于服务器、云计算平台等服务端设备上,本申请实施例对电子设备的具体类型不作任何限制。
图1是本实施例提供的情感评价方法的流程示意图。如图1所示,所述情感评价方法包括如下步骤:
S11,获取待评价篇章。
获取待评价篇章,当待评价篇章的字数超过预设字数,则按照预设字数截取待评价篇章的前若干字。例如,若限制待评价篇章不能超过1024个字符,则截取待评价篇章的前1024个字符,按照编码规则,汉字一般占两个字符。
进一步的,按照标点符号对待评价篇章进行拆分,获得多个待评价句子;对每个待评价句子进行关键词提取或分词,获得多个待评价词语。
S12,将待评价篇章输入至预先训练好的篇章情感评价模型,获得篇章情感评价模型输出的篇章情感评价结果。
图2是本实施例提供的情感评价方法的输入输出示意图。
将待评价篇章输入至预先训练好的篇章情感评价模型,若篇章情感评价模型对待评价篇章有字数限制,则按其字数限制将截取后的待评价篇章输入篇章情感评价模型,篇章情感评价模型对待评价篇章进行情感标签预测,输出篇章情感评价结果。
本实施例中,篇章情感评价模型采用长短期记忆网络模型(Long Short-TermMemory,LSTM)。LSTM善于处理长依赖关系,利用文本的历史信息对文本进行预测。将待评价篇章输入LSTM模型,LSTM模型包括Forget Gate(忘记门控),Forget Gate能够有选择地记忆文本中与情感有关的关键信息,LSTM模型的输出门控将根据这些被记忆的关键情感信息输出对篇章的情感评价结果。
S13,将篇章情感评价结果和待评价句子输入至预先训练好的句子情感评价模型,获得句子情感评价模型输出的句子情感评价结果。
将步骤S12获得的篇章情感评价结果和待评价句子输入至预先训练好的句子情感评价模型,句子情感评价模型结合篇章情感评价结果对待评价句子进行情感标签预测,输出句子情感评价结果。
S14,将句子情感评价结果和待评价词语输入至预先训练好的词语情感评价模型,获得词语情感评价模型输出的词语情感评价结果。
同理,将步骤S13获得的句子情感评价结果和待评价词语输入至预先训练好的词语情感评价模型,词语情感评价模型结合句子情感评价结果对待评价词语进行情感标签预测,输出词语情感评价结果。
句子情感评价模型和词语情感评价模型均由BERT模型(Bidirectional EncoderRepresentations from Transformer)和全连接层结合。举例说明,如图3所示,对于结合了篇章情感评价结果的句子情感评价任务,BERT模型在输入内容起始添加[CLS]分类符号,将其对应的输出作为文本的语义表示,还对输入的两个部分内容用[SEP]符号作分割,BERT模型将文本中的每个字转换为一维向量,作为模型输入,并分别对上述两个部分内容附加两个不同的文本向量以作区分。BERT模型将出现在不同位置的字所携带的语义信息差异通过位置向量加以区分,输出则是输入各字对应的融合全文语义信息后的向量表示。而本实施例在BERT模型后结合Dense层,Dense作为常用的全连接层,用于根据特征的组合进行分类,能大大减少特征位置对分类带来的影响,最终根据向量特征输出句子的情感评价结果。词语情感评价模型对输入的待评价词语和句子情感评价结果的处理过程与句子情感评价模型相同,不再赘述。
本实施例中,句子情感评价模型的输入元素除了待评价句子,还包括待评价句子所属篇章的篇章情感评价结果,即对句子进行情感评价时,考虑了篇章的情感基调;同理,在对待评价词语进行评价时,也加入了待评价词语所属句子的句子情感评价结果,将篇章、句子和词语三者之间的相关性加入到情感评价中,从而提高情感评价的准确性。
下面举例说明上述的篇章情感评价模型、句子情感评价模型和词语情感评价模型的模型结构,以及这些模型是如何训练得到的。
训练过程包括如下步骤:
S21,构建多任务学习模型。
多任务学习模型包括篇章情感评价模型、句子情感评价模型和词语情感评价模型。多任务学习模型(multitask learning)可把多个相关的任务放在一起学习,多个任务的模型空间共享,学习过程中互相分享、互相补充学习到的领域相关的信息,互相促进学习,提升泛化的效果。本实施例的多任务指的是篇章情感评价任务、句子情感评价任务和词语情感评价任务。
其中,篇章情感分析模型采用长短期记忆网络模型(Long Short-Term Memory,LSTM)。LSTM作为非线性模型,可作为复杂的非线性单元用于构造更大型深度神经网络,在本实施例中,LETM为多任务学习模型的组成部分。
句子情感评价模型和词语情感评价模型均包括BERT模型(BidirectionalEncoder Representations from Transformer)和全连接层;其中,Dense作为常用的全连接层,应用于本实施例中。全连接层用于根据特征的组合进行分类,能大大减少特征位置对分类带来的影响。
BERT模型在输入的文本前插入一个文本分类符号,通常是[CLS]符号,并将该符号对应的输出向量作为该文本的语义表示,用于文本分类;还对输入文本的两个部分用一个分割符号隔开,通常用[SEP]符号表示分割。
例如,上述实施例中,句子情感评价模型和词语情感评价模型的预测过程分别如下:
将篇章情感评价结果和待评价句子输入至预先训练好的句子情感评价模型,获得句子情感评价模型输出的句子情感评价结果,具体为:
将篇章情感评价结果和待评价句子组成字符串输入BERT模型,其中,在待评价句子前增加文本分类符号,在待评价句子与篇章情感评价结果之间增加分割符号;将BERT模型输出的特征结果输入全连接层,得到句子情感评价结果。
将句子情感评价结果和待评价词语输入至预先训练好的词语情感评价模型,获得词语情感评价模型输出的词语情感评价结果,具体为:
将待评价词语与句子情感评价结果组成字符串输入BERT模型,其中,在待评价词语前增加文本分类符号,在待评价词语与句子情感评价结果之间增加分割符号;将BERT模型输出的特征结果输入全连接层,得到词语情感评价结果。
S22,分别训练篇章情感评价模型、句子情感评价模型和词语情感评价模型。
多个篇章样本预先标注对应的篇章情感标签,采用篇章样本及对应的篇章情感标签对篇章情感评价模型进行训练。
从单个篇章样本中分割出多个句子样本,并对每个句子样本标注句子情感标签;采用句子样本及对应的句子情感标签、所述句子样本所在篇章样本的篇章情感标签对句子情感评价模型进行训练。
从单个句子中通过分词或关键词提取获得多个词语,并对每个词语标注词语情感标签;采用词语样本及对应的词语情感标签、所述词语样本所在句子样本的句子情感标签对所述词语情感评价模型进行训练。
经过上述训练,句子情感评价模型能学习到篇章情感标签对句子情感标签的影响,词语情感评价模型能学习到句子情感标签对词语情感标签的影响,多任务学习模型联合学习,任务之间交叉关联使每个任务的学习都更准确。
对样本及其标签进行学习之后,采用损失函数分别对所述篇章情感评价模型、所述句子情感评价模型和所述词语情感评价模型进行迭代调整。
损失函数用来评价模型的预测值和真实值不一样的程度,将获得的损失函数值基于梯度反向传播到模型的每一层,根据链式法则计算损失函数值在各层梯度上的表现,再乘以学习率作为更新量,模型的参数的原始值减去更新量为参数的更新结果。将更新参数后的模型用于下一次预测,根据下一次预测的预测值与真实值再次计算损失函数值,再次更新模型的参数,如此循环迭代,直至损失函数值趋于稳定。
常见损失函数包括0-1损失函数(zero-one loss)、log对数损失函数、平方损失函数、绝对值损失函数、交叉熵损失函数(Cross-entropy loss function)、感知损失函数(perceptron loss)、Hinge损失函数和指数损失函数(exponential loss)等。可根据不同的模型选用合适的损失函数。本实施例选用交叉熵损失函数。
图4是本实施例提供的模型训练过程示意图。如图4所示,采用损失函数分别对篇章情感评价模型、句子情感评价模型和词语情感评价模型进行调整,包括:
根据篇章情感评价结果和篇章情感标签获取篇章情感评价模型的第一损失函数值;根据句子情感评价结果和句子情感标签获取句子情感评价模型的第二损失函数值;根据词语情感评价结果和词语情感标签获取词语情感评价模型的第三损失函数值;将第一损失函数值、第二损失函数值与第三损失函数值相加,获得合并损失函数值;利用合并损失函数值分别调整篇章情感评价模型的参数、句子情感评价模型的参数和词语情感评价模型的参数;进行多次迭代调整直至合并损失函数值趋于稳定。
本实施例将篇章情感评价模型、句子情感评价模型和词语情感评价模型进行多任务联合训练,在通过损失函数值的合并分别对三个模型进行迭代调整,使模型的预测值与真实值的差异逐步缩小,获得预测结果更准确的模型。
对应于上文实施例所述的情感评价方法,图5示出了本申请实施例提供的情感评价装置的结构示意图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图5,该装置包括:
文本获取模块31,用于获取待评价篇章。进一步的,文本获取模块31还用于对待评价篇章进行拆分,获得多个待评价句子,以及用于对每个待评价句子进行关键词提取或分词,获得多个待评价词语。
篇章情感评价模块32,用于将待评价篇章输入至预先训练好的篇章情感评价模型,获得篇章情感评价模型输出的篇章情感评价结果。
句子情感评价模块33,用于将篇章情感评价结果和待评价句子输入至预先训练好的句子情感评价模型,获得句子情感评价模型输出的句子情感评价结果。
词语情感评价模块34,用于将句子情感评价结果和待评价词语输入至预先训练好的词语情感评价模型,获得词语情感评价模型输出的词语情感评价结果。
进一步的,该装置还包括模型训练模块35,用于分别对篇章情感评价模型、句子情感评价模型和词语情感评价模型进行训练。
具体的,模型训练模块35包括样本训练单元351和损失迭代单元352。样本训练单元351用于:采用篇章样本及对应的篇章情感标签对篇章情感评价模型进行训练;采用句子样本及对应的句子情感标签、句子样本所在篇章样本的篇章情感标签对句子情感评价模型进行训练;采用词语样本及对应的词语情感标签、词语样本所在句子样本的句子情感标签对词语情感评价模型进行训练。损失迭代单元352用于采用损失函数分别对篇章情感评价模型、句子情感评价模型和词语情感评价模型进行迭代调整。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图6为本申请一实施例提供的电子设备的结构示意图。如图6所示,该实施例的电子设备包括:至少一个处理器40(图6中仅示出一个)处理器、存储器41以及存储在所述存储器41中并可在所述至少一个处理器40上运行的计算机程序42,所述处理器40执行所述计算机程序42时实现上述任意各个方法实施例中的步骤。
所述电子设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。本领域技术人员可以理解,图6仅仅是电子设备的举例,并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器40可以是中央处理单元(Central Processing Unit,CPU),该处理器40还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器41在一些实施例中可以是所述电子设备内部存储单元,例如硬盘或内存,也可以是外部存储设备,例如插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器41还可以既包括所述电子设备的内部存储单元也包括外部存储设备。所述存储器41用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/电子设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/电子设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种情感评价方法,其特征在于,包括:
获取待评价篇章;
将所述待评价篇章输入至预先训练好的篇章情感评价模型,获得所述篇章情感评价模型输出的篇章情感评价结果;
将所述篇章情感评价结果和待评价句子输入至预先训练好的句子情感评价模型,获得所述句子情感评价模型输出的句子情感评价结果;
将所述句子情感评价结果和待评价词语输入至预先训练好的词语情感评价模型,获得所述词语情感评价模型输出的词语情感评价结果;
其中,所述待评价篇章包括所述待评价句子,所述待评价句子包括所述待评价词语。
2.如权利要求1所述的情感评价方法,其特征在于,在获取待评价篇章之前,还包括:
分别训练所述篇章情感评价模型、所述句子情感评价模型和所述词语情感评价模型。
3.如权利要求2所述的情感评价方法,其特征在于,分别训练所述篇章情感评价模型、所述句子情感评价模型和所述词语情感评价模型,包括:
采用篇章样本及对应的篇章情感标签对所述篇章情感评价模型进行训练;
采用句子样本及对应的句子情感标签、所述句子样本所在篇章样本的篇章情感标签对所述句子情感评价模型进行训练;
采用词语样本及对应的词语情感标签、所述词语样本所在句子样本的句子情感标签对所述词语情感评价模型进行训练;
采用损失函数分别对所述篇章情感评价模型、所述句子情感评价模型和所述词语情感评价模型进行迭代调整。
4.如权利要求3所述的情感评价方法,其特征在于,采用损失函数分别对所述篇章情感评价模型、所述句子情感评价模型和所述词语情感评价模型进行调整,包括:
根据所述篇章情感评价结果和所述篇章情感标签获取所述篇章情感评价模型的第一损失函数值;
根据所述句子情感评价结果和所述句子情感标签获取所述句子情感评价模型的第二损失函数值;
根据所述词语情感评价结果和所述词语情感标签获取所述词语情感评价模型的第三损失函数值;
获得合并损失函数值,所述合并损失函数值为所述第一损失函数值、所述第二损失函数值与所述第三损失函数值的和;
利用所述合并损失函数值分别调整所述篇章情感评价模型的参数、所述句子情感评价模型的参数和所述词语情感评价模型的参数;
进行多次迭代调整直至所述合并损失函数值趋于稳定。
5.如权利要求1所述的情感评价方法,其特征在于,所述句子情感评价模型和所述词语情感评价模型均包括BERT模型和全连接层;
将所述篇章情感评价结果和待评价句子输入至预先训练好的句子情感评价模型,获得所述句子情感评价模型输出的句子情感评价结果,包括:
将所述篇章情感评价结果和待评价句子组成字符串输入所述BERT模型,其中,在所述待评价句子前增加文本分类符号,在所述待评价句子与所述篇章情感评价结果之间增加分割符号;将所述BERT模型输出的特征结果输入所述全连接层,得到句子情感评价结果;
将所述句子情感评价结果和待评价词语输入至预先训练好的词语情感评价模型,获得所述词语情感评价模型输出的词语情感评价结果,包括:
将所述待评价词语与所述句子情感评价结果组成字符串输入所述BERT模型,其中,在所述待评价词语前增加文本分类符号,在所述待评价词语与所述句子情感评价结果之间增加分割符号;将所述BERT模型输出的特征结果输入所述全连接层,得到词语情感评价结果。
6.如权利要求2所述的情感评价方法,其特征在于,分别训练所述篇章情感评价模型、所述句子情感评价模型和所述词语情感评价模型之前,还包括:
构建多任务学习模型,所述多任务学习模型包括所述篇章情感评价模型、所述句子情感评价模型和所述词语情感评价模型。
7.如权利要求1所述的情感评价方法,其特征在于:
所述篇章情感分析模型为长短期记忆网络模型。
8.一种情感评价装置,其特征在于,包括:
文本获取模块,用于获取待评价篇章;
篇章情感评价模块,用于将所述待评价篇章输入至预先训练好的篇章情感评价模型,获得所述篇章情感评价模型输出的篇章情感评价结果;
句子情感评价模块,用于将所述篇章情感评价结果和待评价句子输入至预先训练好的句子情感评价模型,获得所述句子情感评价模型输出的句子情感评价结果;
词语情感评价模块,用于将所述句子情感评价结果和待评价词语输入至预先训练好的词语情感评价模型,获得所述词语情感评价模型输出的词语情感评价结果;
其中,所述待评价篇章包括所述待评价句子,所述待评价句子包括所述待评价词语。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110643047.XA CN113377910A (zh) | 2021-06-09 | 2021-06-09 | 情感评价方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110643047.XA CN113377910A (zh) | 2021-06-09 | 2021-06-09 | 情感评价方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113377910A true CN113377910A (zh) | 2021-09-10 |
Family
ID=77573500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110643047.XA Pending CN113377910A (zh) | 2021-06-09 | 2021-06-09 | 情感评价方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113377910A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115982368A (zh) * | 2023-03-14 | 2023-04-18 | 北京匠数科技有限公司 | 一种文本分类的方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020390A (ja) * | 2008-07-08 | 2010-01-28 | Toyota Central R&D Labs Inc | 感情推定装置及び感情推定プログラム |
CN102200969A (zh) * | 2010-03-25 | 2011-09-28 | 日电(中国)有限公司 | 基于句子顺序的文本情感极性分类系统和方法 |
CN111339260A (zh) * | 2020-03-02 | 2020-06-26 | 北京理工大学 | 一种基于bert和qa思想的细粒度情感分析方法 |
CN112699240A (zh) * | 2020-12-31 | 2021-04-23 | 荆门汇易佳信息科技有限公司 | 中文情感特征词智能动态发掘和归类方法 |
-
2021
- 2021-06-09 CN CN202110643047.XA patent/CN113377910A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020390A (ja) * | 2008-07-08 | 2010-01-28 | Toyota Central R&D Labs Inc | 感情推定装置及び感情推定プログラム |
CN102200969A (zh) * | 2010-03-25 | 2011-09-28 | 日电(中国)有限公司 | 基于句子顺序的文本情感极性分类系统和方法 |
CN111339260A (zh) * | 2020-03-02 | 2020-06-26 | 北京理工大学 | 一种基于bert和qa思想的细粒度情感分析方法 |
CN112699240A (zh) * | 2020-12-31 | 2021-04-23 | 荆门汇易佳信息科技有限公司 | 中文情感特征词智能动态发掘和归类方法 |
Non-Patent Citations (3)
Title |
---|
李本阳 等: "基于单层标注级联模型的篇章情感倾向分析", 《中文信息学报》, vol. 26, no. 4, 31 July 2012 (2012-07-31), pages 4 - 8 * |
高莹莹: "面向情感语音合成的言语情感建模研究", 《中国博士学位论文全文数据库(信息科技辑)》, 15 December 2016 (2016-12-15), pages 37 - 109 * |
高莹莹;朱维彬;: "面向情感语音合成的言语情感描述与预测", 清华大学学报(自然科学版), no. 02, 15 February 2017 (2017-02-15), pages 203 - 207 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115982368A (zh) * | 2023-03-14 | 2023-04-18 | 北京匠数科技有限公司 | 一种文本分类的方法、装置、电子设备及存储介质 |
CN115982368B (zh) * | 2023-03-14 | 2023-08-15 | 北京匠数科技有限公司 | 一种文本分类的方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110347835B (zh) | 文本聚类方法、电子装置及存储介质 | |
CN110750965B (zh) | 英文文本序列标注方法、系统及计算机设备 | |
US10915756B2 (en) | Method and apparatus for determining (raw) video materials for news | |
CN113128227A (zh) | 实体抽取方法及装置 | |
CN107341143A (zh) | 一种句子连贯性判断方法及装置和电子设备 | |
CN113515629A (zh) | 一种文档分类方法、装置、计算机设备及存储介质 | |
CN113392209A (zh) | 一种基于人工智能的文本聚类方法、相关设备及存储介质 | |
CN112560504B (zh) | 抽取表单文档中信息的方法、电子设备和计算机可读介质 | |
CN112417153A (zh) | 文本分类方法、装置、终端设备和可读存储介质 | |
CN111523960A (zh) | 基于稀疏矩阵的产品推送方法、装置、计算机设备及介质 | |
CN110348007A (zh) | 一种文本相似度确定方法及装置 | |
CN111339775A (zh) | 命名实体识别方法、装置、终端设备及存储介质 | |
CN114547315A (zh) | 一种案件分类预测方法、装置、计算机设备及存储介质 | |
CN111859967A (zh) | 实体识别方法、装置,电子设备 | |
CN113011689B (zh) | 软件开发工作量的评估方法、装置及计算设备 | |
CN116127060A (zh) | 一种基于提示词的文本分类方法及系统 | |
CN114817478A (zh) | 基于文本的问答方法、装置、计算机设备及存储介质 | |
CN111291551A (zh) | 文本处理方法、装置、电子设备及计算机可读存储介质 | |
CN113268571A (zh) | 一种确定段落中正确答案位置的方法、装置、设备及介质 | |
CN113377910A (zh) | 情感评价方法、装置、电子设备和存储介质 | |
CN110888983B (zh) | 一种正负面情感分析方法、终端设备及存储介质 | |
CN115861606B (zh) | 一种针对长尾分布文档的分类方法、装置及存储介质 | |
CN115169345A (zh) | 文本情感分析模型的训练方法、装置、设备及存储介质 | |
CN114676699A (zh) | 实体情感分析方法、装置、计算机设备和存储介质 | |
CN115238077A (zh) | 基于人工智能的文本分析方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |