WO2019232893A1 - 文本的情感分析方法、装置、计算机设备和存储介质 - Google Patents

文本的情感分析方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
WO2019232893A1
WO2019232893A1 PCT/CN2018/095666 CN2018095666W WO2019232893A1 WO 2019232893 A1 WO2019232893 A1 WO 2019232893A1 CN 2018095666 W CN2018095666 W CN 2018095666W WO 2019232893 A1 WO2019232893 A1 WO 2019232893A1
Authority
WO
WIPO (PCT)
Prior art keywords
text
sentiment
tags
emotion
sentence
Prior art date
Application number
PCT/CN2018/095666
Other languages
English (en)
French (fr)
Inventor
金戈
徐亮
肖京
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2019232893A1 publication Critical patent/WO2019232893A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking

Definitions

  • the sentiment analysis method, device, computer equipment, and storage medium of the text provided in this application obtain the first text on the specified platform; construct word embeddings for each sentence contained in the first text;
  • the predicate embedding is input into a text sentiment analysis model trained based on a long-short memory network model to output the sentiment tags embedded in each of the words as sentiment tags corresponding to each sentence; all sentences in the first text correspond to Among the emotional tags, the number of each emotional tag is counted, and the emotional tags corresponding to the first text are analyzed according to the number of each of the emotional tags.
  • This application can automatically identify the user's emotional feedback to the enterprise on the open platform.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Document Processing Apparatus (AREA)
  • Machine Translation (AREA)

Abstract

一种文本的情感分析方法、装置、计算机设备和存储介质,获取指定平台上的第一文本;对第一文本中包含的每一个语句构建词嵌入;将构建的每一个词嵌入输入至文本情感分析模型中,以输出每一个词嵌入的情感标签,作为对应于每一个语句的情感标签。该情感分析方法能够自动化识别出公开平台上用户对企业的情感。

Description

文本的情感分析方法、装置、计算机设备和存储介质
本申请要求于2018年6月5日提交中国专利局、申请号为2018105699970 ,发明名称为“文本的情感分析方法、装置、计算机设备和存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及计算机技术领域,特别涉及一种文本的情感分析方法、装置、计算机设备和存储介质。
背景技术
在微博等公开平台上,经常有用户针对企业、企业服务发表用户自己的意见。微博为公开平台,用户对企业的评价对企业的形象影响极大,因此,获取微博平台上用户对企业服务的反馈尤为重要,纯靠工作人员去获取反馈,不仅耗费人力,且效率低。
目前,没有针对企业官方微博在微博平台上实时收到的评论、提及和转发等文本内容进行自动化识别;无法自动化识别上述文本内容中包涵的对企业品牌及产品的情感,以及内容对企业品牌和产品的影响。
技术问题
本申请的主要目的为提供一种文本的情感分析方法、装置、计算机设备和存储介质,自动化识别出指定平台上用户对企业的情感反馈。
技术解决方案
为实现上述目的,本申请提供了一种文本的情感分析方法,包括以下步骤:
获取指定平台上的第一文本,所述第一文本的内容与指定企业相关;
对所述第一文本中包含的每一个语句构建词嵌入;
将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签;
在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。
本申请还提供了一种文本的情感分析装置,包括:
获取单元,用于获取指定平台上的第一文本,所述第一文本的内容与指定企业相关;
第一构建单元,用于对所述第一文本中包含的每一个语句构建词嵌入;
输出单元,用于将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签;
分析单元,用于在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。
本申请还提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现上述任一项所述方法的步骤。
本申请还提供一种计算机非易失性可读存储介质,其上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现上述任一项所述的方法的步骤。
有益效果
本申请中提供的文本的情感分析方法、装置、计算机设备和存储介质,获取指定平台上的第一文本;对所述第一文本中包含的每一个语句构建词嵌入;将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签;在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。本申请可以自动化识别出公开平台上用户对企业的情感反馈。
附图说明
图1 是本申请一实施例中文本的情感分析方法步骤示意图;
图2 是本申请另一实施例中文本的情感分析方法步骤示意图;
图3 是本申请一实施例中文本的情感分析装置结构框图;
图4 是本申请另一实施例中文本的情感分析装置结构框图;
图5 是本申请又一实施例中文本的情感分析装置结构框图;
图6 为本申请一实施例的计算机设备的结构示意框图。
本发明的最佳实施方式
参照图1,本申请一实施例中提供了一种文本的情感分析方法,包括以下步骤:
步骤S1,获取指定平台上的第一文本,所述第一文本的内容与指定企业相关。
在本实施例中,上述指定平台包括微博、头条、论坛等公开平台,上述公开平台包括的用户对企业的评价对企业的形象影响极大,因此,识别上述平台上用户对企业服务的反馈尤为重要,本实施例中的平台以微博为例进行阐述。上述第一文本的文本内容与指定企业(如平安科技等任意企业)的产品、企业服务等相关联,其文本内容通常为针对企业的产品、服务等进行发表的。
具体地,在一实施例中,可以预先设置关键字,关键字通常为企业品牌名称、企业产品名称、企业服务名称等。然后,根据关键词从微博话题、微博博文、评论、提及、转发等文本中搜索出与关键词相关的文本,即获取到上述第一文本。
步骤S2,对所述第一文本中包含的每一个语句构建词嵌入。
通常,上述从微博等平台上述获取的第一文本中包括有多个语句,也可能出现上述第一文本中只有一个语句,本实施例中,对上述第一文本中包含的每一个语句都进行词嵌入的构建,便于后续分析出每一个语句中包括的用户对企业的情感评价(或情感反馈)。
构建词嵌入是使用密集向量来表示单词和文档的一类方法,是将词汇中的单词(也可能是短语)被映射到相对于词汇量的大小而言低维空间的实数向量矩阵中。每一个语句中都具有多个词,本实施例中构建每一个语句的词嵌入即是得到每一个语句的词向量,其实际上是将每一个语句中包括的词构成一个向量矩阵(或称句子矩阵),该向量矩阵则为该语句的词嵌入。
步骤S3,将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签。
在本实施例中,上述长短记忆网络模型的网络输入为上述每一个语句的词嵌入,输出结果为对上述每一个词嵌入的情感分类,本实施例中,情感分类包括三种情感标签,分别为积极、消极、中性。其中积极则表明用户对企业的情感反馈是较为满意的,若为消极则表明用户对企业的情感反馈是不满意。
在本实施例中,将上述第一文本中的每一个语句构建的词嵌入之后输入至文本情感分析模型中,都会相应输出一个情感标签作为每一语句对应的情感标签,获取到每一个语句对应的情感标签之后,则便于分析出上述第一文本中包含的用户对企业的情感反馈。
步骤S4,在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。
在本实施例中,若上述第一文本中只有一个语句,则可以统计得出该语句对应的情感标签的数量为一且最多,则将该情感标签作为上述第一文本的情感标签,即得出用户对企业的情感反馈。例如,从微博评论中获取到用户A的一句评论,该评论对应的情感标签为消极,则可以判断该用户A对企业的评价是不满意的。
若上述第一文本中包括有多个语句,在得出上述第一文本中每一个语句的情感标签之后,统计每一种情感标签的数量(或者比例),则可以知道哪一种情感标签较多;例如上述第一文本中标记为消极的情感标签较多的话,则判断该第一文本中包含的用户对企业的情感反馈是不满意的;上述第一文本中标记为积极的情感标签较多的话,则判断该第一文本中包含的用户对企业的情感反馈是较为满意的。
在本实施例中,通过上述文本的情感分析方法,自动化识别微博平台上的微博话题、微博博文、评论、提及、转发等文本中包含的用户对企业的情感反馈,便于企业了解用户意愿,进一步便于企业完善自己,提升服务质量。
在一实施例中,上述长短记忆网络模型为双向长短记忆网络模型。其为一种双向循环神经网络模型,该网络模型中不仅可以在一个语句中从前向后推算,也可以从后向前推算,结合两种推算方式,推算更加准确。具体地,将上述每一个语句的词嵌入输入模型后,同时经过向前推算以及向后推算后输出连接至全连接层中的4个隐藏神经元中计算,最后经过损失函数(软性最大化函数)的收敛,直到上述损失函数不再收敛之后,输出分类结果,该分类结果即为每一个语句的情感标签。
在一实施例中,上述步骤S2中,构建词嵌入的方法包括Glove(Global vectors for word representation)模型构建方法、word2vec方法中的一种。上述Glove模型输入的语料库,输出的是词向量,该方法是基于语料库构建词的共现矩阵,然后基于共现矩阵和GloVe模型学习词向量。
本实施例中使用的是word2vec方法,其为 Google 的 Tomas Mikolov 在《Efficient Estimation of Word Representation in Vector Space》提出的。本实施例中使用的word2vec词嵌入方法包括:分词、统计词频、构建Huffman树、训练词向量得到词嵌入四个过程。
具体地,第一步是分词,其用于对每一个语句进行切词。对于英文的分词较为容易,单词之间有空格进行分隔,只需要进行词干提取和词形还原预处理;对于中文分词,则使用结巴分词法来进行分词。
第二步是统计词频,其用于统计每个单词出现的频率。首先统计出每个单词出现的次数,然后统计频率。其中,然后需要去掉停用词、非常高频的词和非常低频的词;去掉高频词是因为该词没有特殊性,去掉低频词是因为其没有普适性。
第三步是构建Huffman树(霍夫曼树)。
上述Huffman树包括非叶节点以及叶节点,所有的非叶节点存储有一个参数向量,参数向量初始值为0,所有的叶节点分别代表了词典中的一个词。构建完Huffman树之后,将对应的Huffman码分配给每个单词,并随机初始化每个单词的词向量。上述分配给每个单词的Huffman码,就是为每一层分类提供依据的,如果是1,则表示应当分到左节点,否则表示应当分到右节点,当然也可以反过来。
第四步是训练词向量以得到词嵌入。
本实施例中使用的word2vec模型通常为CBOW和skip-gram两种模式。CBOW模式中数据的输入是每一个语句中周围几个单词的词向量之和,输出是周围几个单词中间的那个单词。从Huffman树的根节点开始,沿着Huffman树不停地进行logistic分类,每进行一次logistic分类就沿着Huffman树往下一层并更正词向量,直到最后达到叶节点,得到每一个语句的词向量,即完成词嵌入构建。
上述skip-gram模式则与CBOW模式相反,输入是中间的单词,输出是其周围的单词;其同样是从Huffman树根节点开始,沿着Huffman树不停地进行logistic分类,每进行一次logistic分类就沿着Huffman树往下一层并更正词向量,直到最后达到叶节点,得到每一个语句的词向量。
参照图2,在上述实施例中,上述获取指定平台上的第一文本的步骤S1之前,包括:
步骤S101,构建训练集中训练文本包括的每一个训练语句的词嵌入;
步骤S102,将每一个所述训练语句的词嵌入输入至长短记忆网络模型中进行训练,以得到所述文本情感分析模型。
在本实施例中,预先需要制作出训练集,该训练集可以是用户从微博平台上选择出多个与企业相关的训练文本,且用户对训练文本中的每一个训练语句都标注有情感标签(该情感标签即为上述实施例中描述的情感标签中的一种)。然后如上述步骤S101所述,构建训练集中训练文本包括的每一个训练语句的词嵌入,该构建词嵌入的方法如上述步骤S2及上述word2vec方法所述,在此不再进行赘述。
最后,将构建出的每一个训练语句的词嵌入输入至上述长短记忆网络模型中进行训练,并训练出合适的训练参数使得上述长短记忆网络模型输出的结果无限接近于/相同于上述训练集中每一个训练语句的情感标签;将训练得到的训练参数输入至上述长短记忆网络模型中以得到上述文本情感分析模型。
在另一实施例中,还可以使用测试集验证上述步骤得到的文本情感分析模型识别情感的准确率。使用测试集进行测试的步骤与上述情感分析步骤相似,只需要检测识别出的情感标签是否为测试集中已知的情感标签一致,在此不再进行赘述。
在一个实施例中,上述在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签的步骤S4之后,包括:
步骤S5a,当所述第一文本的情感标签为指定情感标签时,获取所述第一文本的属性信息,和/或将所述第一文本存储于数据库中;所述属性信息包括来源平台信息、发文用户信息、发文时间信息中的至少一种。
例如,在一具体实施例中,当上述第一本文的情感标签为消极时,则根据上述属性信息便于分析出哪些平台或者用户对企业不满意,用户发表对企业的不满意情感的具体时间等信息。在其它实施例中,无论上述第一文本的情感标签是否为指定情感标签,都将上述第一文本保存在数据库中,便于分析出用户做出积极评价的理由,例如从第一文本中通过关键词提取,分析出涉及到的产品或者服务,便可以分析出是企业的什么产品或者服务得到用户的满意;同理,将情感反馈为消极的第一文本存储在数据库中,通过关键词提取,便于分析出用户做出消极反馈的理由,以及分析出令用户不满意的产品或者服务。
在一个实施例中,上述在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签的步骤S4之后,包括:
步骤S5b,当所述第一文本的情感标签为指定情感标签时,提取出所述第一文本中具有所述指定情感标签的语句,并将其存储于数据库中。
例如,若得出上述第一文本的中包含用户情感反馈是消极的,则将上述第一文本中带有消极的情感标签的语句全部提取出来,存储在数据库中,便于做出针对性的分析,无需对每一个语句都分析。
在一个实施例中,上述根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签的步骤包括:
若其中一种所述情感标签的数量最多,则将数量最多的所述情感标签作为所述第一文本的情感标签;若每一种所述情感标签的数量一致或者数量最多的几个所述情感标签的数量也一致时,则获取所述第一文本中一个指定语句对应的情感标签,作为所述第一文本对应的情感标签。
本实施例中的指定语句可以是包含有企业品牌名称、产品名称、服务名称的特殊语句。在另一实施例中,若每一种所述情感标签的数量一致或者数量最多的几个所述情感标签的数量也一致时,也可以获取多个指定语句对应的情感标签,并统计每一种情感标签的数量,再根据其数量分布确定第一文本对应的情感标签。在又一实施例中,预先在上述第一文本中包括有品牌相应的产品或者服务名词的每一个语句上做出标记,然后将第一文本输入模型中识别之后,当得到的每一种情感标签的数量一致或近似时,则统计上述做有标记的语句的每一种情感标签的数量,再根据数量大小判断文本中包含的情感评价。例如,一段文本中包括有“保险”的语句有十个,其中七个语句的情感标签为积极,则认为该文本中包含对“保险”服务的情感反馈是较为满意的。
综上所述,为本申请实施例中提供的文本的情感分析方法,获取指定平台上的第一文本;对所述第一文本中包含的每一个语句构建词嵌入;将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签;在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。本申请可以自动化识别出公开平台上用户对企业的情感反馈。
参照图3,本申请一实施例中还提供了一种文本的情感分析装置,包括:
获取单元10,用于获取指定平台上的第一文本,所述第一文本的内容与指定企业相关。
在本实施例中,上述指定平台包括微博、头条、论坛等公开平台,上述公开平台包括的用户对企业的评价对企业的形象影响极大,因此,识别上述平台上用户对企业服务的反馈尤为重要,本实施例中的平台以微博为例进行阐述。上述第一文本的文本内容与指定企业(如平安科技等任意企业)的产品、企业服务等相关联,其文本内容通常为针对企业的产品、服务等进行发表的。
具体地,在一实施例中,可以预先设置关键字,关键字通常为企业品牌名称、企业产品名称、企业服务名称等。然后,获取单元10根据关键词从微博话题、微博博文、评论、提及、转发等文本中搜索出与关键词相关的文本,即获取到上述第一文本。
第一构建单元20,用于对所述第一文本中包含的每一个语句构建词嵌入。
通常,上述从微博等平台上述获取的第一文本中包括有多个语句,也可能出现上述第一文本中只有一个语句,本实施例中,第一构建单元20对上述第一文本中包含的每一个语句都进行词嵌入的构建,便于后续分析出每一个语句中包括的用户对企业的情感评价(或情感反馈)。
构建词嵌入是使用密集向量来表示单词和文档的一类方法,是将词汇中的单词(也可能是短语)被映射到相对于词汇量的大小而言低维空间的实数向量矩阵中。每一个语句中都具有多个词,本实施例中第一构建单元20构建每一个语句的词嵌入即是得到每一个语句的词向量,其实际上是将每一个语句中包括的词构成一个向量矩阵,该向量矩阵则为该语句的词嵌入。
输出单元30,用于将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签。
在本实施例中,上述长短记忆网络模型的网络输入为上述每一个语句的词嵌入,输出结果为对上述每一个词嵌入的情感分类,本实施例中,情感分类包括三种情感标签,分别为积极、消极、中性。其中积极则表明用户对企业的情感反馈是较为满意的,若为消极则表明用户对企业的情感反馈是不满意。
在本实施例中,将上述第一文本中的每一个语句构建的词嵌入之后输入上述模型中,输出单元30都会相应输出一个情感标签作为每一语句对应的情感标签,获取到每一个语句对应的情感标签之后,则便于分析出上述第一文本中包含的用户对企业的情感反馈。
分析单元40,用于在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。
在本实施例中,若上述第一文本中只有一个语句,分析单元40则可以统计得出该语句对应的情感标签的数量为一且最多,则将该情感标签作为上述第一文本的情感标签,即得出用户对企业的情感反馈。例如,从微博评论中获取到用户A的一句评论,该评论对应的情感标签为消极,则可以判断该用户A对企业的评价是不满意的。
若上述第一文本中包括有多个语句,在得出上述第一文本中每一个语句的情感标签之后,分析单元40统计每一种情感标签的数量(或者比例),则可以知道哪一种情感标签较多;例如上述第一文本中标记为消极的情感标签较多的话,则判断该第一文本中包含的用户对企业的情感反馈是不满意的;上述第一文本中标记为积极的情感标签较多的话,则判断该第一文本中包含的用户对企业的情感反馈是较为满意的。
在本实施例中,通过上述文本的情感分析装置,自动化识别微博平台上的微博话题、微博博文、评论、提及、转发等文本中包含的用户对企业的情感反馈,便于企业了解用户意愿,进一步便于企业完善自己,提升服务质量。
在一实施例中,上述长短记忆网络模型为双向长短记忆网络模型。其为一种双向循环神经网络模型,该网络模型中不仅可以在一个语句中从前向后推算,也可以从后向前推算,结合两种推算方式,推算更加准确。具体地,将上述每一个语句的词嵌入输入模型后,同时经过向前推算以及向后推算后输出连接至全连接层中的4个隐藏神经元中计算,最后经过损失函数(软性最大化函数)的收敛,直到上述损失函数不再收敛之后,输出分类结果,该分类结果即为每一个语句的情感标签。
在一实施例中,上述第一构建单元20构建词嵌入的方法包括Glove模型构建方法、word2vec方法中的一种。上述Glove模型输入的语料库,输出的是词向量,该方法是基于语料库构建词的共现矩阵,然后基于共现矩阵和GloVe模型学习词向量。
本实施例中使用的是word2vec方法,其为 Google 的 Tomas Mikolov 在《Efficient Estimation of Word Representation in Vector Space》提出的。本实施例中使用的word2vec词嵌入方法包括:分词、统计词频、构建Huffman树、训练词向量得到词嵌入四个过程。
具体地,第一步是分词,其用于对每一个语句进行切词。对于英文的分词较为容易,单词之间有空格进行分隔,只需要进行词干提取和词形还原预处理;对于中文分词,则使用结巴分词法来进行分词。
第二步是统计词频,其用于统计每个单词出现的频率。首先统计出每个单词出现的次数,然后统计频率。其中,然后需要去掉停用词、非常高频的词和非常低频的词;去掉高频词是因为该词没有特殊性,去掉低频词是因为其没有普适性。
第三步是构建Huffman树(霍夫曼树)。
上述Huffman树包括非叶节点以及叶节点,所有的非叶节点存储有一个参数向量,参数向量初始值为0,所有的叶节点分别代表了词典中的一个词。构建完Huffman树之后,将对应的Huffman码分配给每个单词,并随机初始化每个单词的词向量。上述分配给每个单词的Huffman码,就是为每一层分类提供依据的,如果是1,则表示应当分到左节点,否则表示应当分到右节点,当然也可以反过来。
第四步是训练词向量以得到词嵌入。
本实施例中使用的word2vec模型通常为CBOW和skip-gram两种模式。CBOW模式中数据的输入是每一个语句中周围几个单词的词向量之和,输出是周围几个单词中间的那个单词。从Huffman树的根节点开始,沿着Huffman树不停地进行logistic分类,每进行一次logistic分类就沿着Huffman树往下一层并更正词向量,直到最后达到叶节点,得到每一个语句的词向量,即完成词嵌入构建。
上述skip-gram模式则与CBOW模式相反,输入是中间的单词,输出是其周围的单词;其同样是从Huffman树根节点开始,沿着Huffman树不停地进行logistic分类,每进行一次logistic分类就沿着Huffman树往下一层并更正词向量,直到最后达到叶节点,得到每一个语句的词向量。
参照图4,在一实施例中,上述文本的情感分析装置,还包括:
第二构建单元50,用于构建训练集中训练文本包括的每一个训练语句的词嵌入;
训练单元60,用于将每一个所述训练语句的词嵌入输入至长短记忆网络模型中进行训练,以得到所述文本情感分析模型。
在本实施例中,预先需要制作出训练集,该训练集可以是用户从微博平台上选择出多个与企业相关的训练文本,且用户对训练文本中的每一个训练语句都标注有情感标签(该情感标签即为上述实施例中描述的情感标签中的一种)。然后如上述第二构建单元50所述,构建训练集中训练文本包括的每一个训练语句的词嵌入,该构建词嵌入的方法如上述第一构建单元20及上述word2vec方法所述,在此不再进行赘述。
最后,训练单元60将上述第二构建单元50构建出的每一个训练语句的词嵌入输入至上述长短记忆网络模型中进行训练,并训练出合适的训练参数使得上述长短记忆网络模型输出的结果无限接近于/相同于上述训练集中每一个训练语句的情感标签;将训练得到的训练参数输入至上述长短记忆网络模型中以得到上述文本情感分析模型。
参照图5,在一实施例中,上述文本的情感分析装置,还包括:
第一处理单元70,用于当所述第一文本的情感标签为指定情感标签时,获取所述第一文本的属性信息,和/或将所述第一文本存储于数据库中;所述属性信息包括来源平台信息、发文用户信息、发文时间信息中的至少一种。
例如,在一具体实施例中,当上述第一本文的情感标签为消极时,则根据上述属性信息便于分析出哪些平台或者用户对企业不满意,用户发表对企业的不满意情感的具体时间等信息。在其它实施例中,无论上述第一文本的情感标签是否为指定情感标签,第一处理单元70都将上述第一文本保存在数据库中,便于分析出用户做出积极评价的理由,例如从第一文本中通过关键词提取,分析出涉及到的产品或者服务,便可以分析出是企业的什么产品或者服务得到用户的满意;同理,将情感反馈为消极的第一文本存储在数据库中,通过关键词提取,便于分析出用户做出消极反馈的理由,以及分析出令用户不满意的产品或者服务。
在一实施例中,上述文本的情感分析装置,还包括:
第二处理单元,用于当所述第一文本的情感标签为指定情感标签时,提取出所述第一文本中具有所述指定情感标签的语句,并将其存储于数据库中。
例如,若得出上述第一文本的中包含用户情感反馈是消极的,第二处理单元则将上述第一文本中带有消极的情感标签的语句全部提取出来,存储在数据库中,便于做出针对性的分析,无需对每一个语句都分析。
在一实施例中,上述分析单元40根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签的过程具体包括:
若其中一种所述情感标签的数量最多,则将数量最多的所述情感标签作为所述第一文本的情感标签;若每一种所述情感标签的数量一致或者数量最多的几个所述情感标签的数量也一致时,则获取所述第一文本中指定语句对应的情感标签,作为所述第一文本对应的情感标签。
本实施例中的指定语句可以是包含有企业品牌名称、产品名称、服务名称的特殊语句。在另一实施例中,若每一种所述情感标签的数量一致或者数量最多的几个所述情感标签的数量也一致时,也可以获取多个指定语句对应的情感标签,并统计每一种情感标签的数量,再根据其数量分布确定第一文本对应的情感标签。在又一实施例中,预先在上述第一文本中包括有品牌相应的产品或者服务名词的每一个语句上做出标记,然后将第一文本输入模型中识别之后,当得到的每一种情感标签的数量一致或近似时,则统计上述做有标记的语句的每一种情感标签的数量,再根据数量大小判断文本中包含的情感评价。例如,一段文本中包括有“保险”的语句有十个,其中七个语句的情感标签为积极,则认为该文本中包含对“保险”服务的情感反馈是较为满意的。
综上所述,为本申请实施例中提供的文本的情感分析装置,获取指定平台上的第一文本;对所述第一文本中包含的每一个语句构建词嵌入;将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签;在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。本申请可以自动化识别出公开平台上用户对企业的情感反馈。
参照图6,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机可读指令和数据库。该内存储器为非易失性存储介质中的操作系统和计算机可读指令的运行提供环境。该计算机设备的数据库用于存储文本情感分析模型等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机可读指令被处理器执行时以实现一种文本的情感分析方法。
上述处理器执行上述文本的情感分析方法的步骤:
获取指定平台上的第一文本,所述第一文本的内容与指定企业相关;
对所述第一文本中包含的每一个语句构建词嵌入;
将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签;
在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。
在一实施例中,所述长短记忆网络模型为双向长短记忆网络模型。
在一实施例中,所述构建词嵌入的方法包括Glove模型构建方法、word2vec方法中的一种。
在一实施例中,所述处理器获取指定平台上的第一文本的步骤之前,包括:
构建训练集中训练文本包括的每一个训练语句的词嵌入;
将每一个所述训练语句的词嵌入输入至长短记忆网络模型中进行训练,以得到所述文本情感分析模型。
在一实施例中,所述处理器在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签的步骤之后,包括:
当所述第一文本的情感标签为指定情感标签时,获取所述第一文本的属性信息,和/或将所述第一文本存储于数据库中;所述属性信息包括来源平台信息、发文用户信息、发文时间信息中的至少一种。
在一实施例中,所述处理器在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签的步骤之后,包括:
当所述第一文本的情感标签为指定情感标签时,提取出所述第一文本中具有所述指定情感标签的语句,并将其存储于数据库中。
在一实施例中,所述处理器根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签的步骤包括:
若其中一种所述情感标签的数量最多,则将数量最多的所述情感标签作为所述第一文本的情感标签;若每一种所述情感标签的数量一致或者数量最多的几个所述情感标签的数量也一致时,则获取所述第一文本中一个指定语句对应的情感标签,作为所述第一文本对应的情感标签。
本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定。
本申请一实施例还提供一种计算机非易失性可读存储介质,其上存储有计算机可读指令,计算机可读指令被处理器执行时实现一种文本的情感分析方法,具体为:
获取指定平台上的第一文本,所述第一文本的内容与指定企业相关;
对所述第一文本中包含的每一个语句构建词嵌入;
将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签;
在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。
在一实施例中,所述长短记忆网络模型为双向长短记忆网络模型。
在一实施例中,所述构建词嵌入的方法包括Glove模型构建方法、word2vec方法中的一种。
在一实施例中,所述处理器获取指定平台上的第一文本的步骤之前,包括:
构建训练集中训练文本包括的每一个训练语句的词嵌入;
将每一个所述训练语句的词嵌入输入至长短记忆网络模型中进行训练,以得到所述文本情感分析模型。
在一实施例中,所述处理器在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签的步骤之后,包括:
当所述第一文本的情感标签为指定情感标签时,获取所述第一文本的属性信息,和/或将所述第一文本存储于数据库中;所述属性信息包括来源平台信息、发文用户信息、发文时间信息中的至少一种。
在一实施例中,所述处理器在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签的步骤之后,包括:
当所述第一文本的情感标签为指定情感标签时,提取出所述第一文本中具有所述指定情感标签的语句,并将其存储于数据库中。
在一实施例中,所述处理器根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签的步骤包括:
若其中一种所述情感标签的数量最多,则将数量最多的所述情感标签作为所述第一文本的情感标签;若每一种所述情感标签的数量一致或者数量最多的几个所述情感标签的数量也一致时,则获取所述第一文本中一个指定语句对应的情感标签,作为所述第一文本对应的情感标签。
综上所述,为本申请实施例中提供的文本的情感分析方法、装置、计算机设备和存储介质,获取指定平台上的第一文本;对所述第一文本中包含的每一个语句构建词嵌入;将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签;在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。本申请可以自动化识别出公开平台上用户对企业的情感反馈。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储与一非易失性计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM通过多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (20)

  1. 一种文本的情感分析方法,其特征在于,包括以下步骤:
    获取指定平台上的第一文本,所述第一文本的内容与指定企业相关;
    对所述第一文本中包含的每一个语句构建词嵌入;
    将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签;
    在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。
  2. 根据权利要求1所述的文本的情感分析方法,其特征在于,所述长短记忆网络模型为双向长短记忆网络模型。
  3. 根据权利要求1所述的文本的情感分析方法,其特征在于,所述构建词嵌入的方法包括Glove模型构建方法、word2vec方法中的一种。
  4. 根据权利要求1所述的文本的情感分析方法,其特征在于,所述获取指定平台上的第一文本的步骤之前,包括:
    构建训练集中训练文本包括的每一个训练语句的词嵌入;
    将每一个所述训练语句的词嵌入输入至长短记忆网络模型中进行训练,以得到所述文本情感分析模型。
  5. 根据权利要求1所述的文本的情感分析方法,其特征在于,所述在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签的步骤之后,包括:
    当所述第一文本的情感标签为指定情感标签时,获取所述第一文本的属性信息,和/或将所述第一文本存储于数据库中;所述属性信息包括来源平台信息、发文用户信息、发文时间信息中的至少一种。
  6. 根据权利要求1所述的文本的情感分析方法,其特征在于,所述在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签的步骤之后,包括:
    当所述第一文本的情感标签为指定情感标签时,提取出所述第一文本中具有所述指定情感标签的语句,并将其存储于数据库中。
  7. 根据权利要求1所述的文本的情感分析方法,其特征在于,所述根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签的步骤包括:
    若其中一种所述情感标签的数量最多,则将数量最多的所述情感标签作为所述第一文本的情感标签;若每一种所述情感标签的数量一致或者数量最多的几个所述情感标签的数量也一致时,则获取所述第一文本中一个指定语句对应的情感标签,作为所述第一文本对应的情感标签。
  8. 一种文本的情感分析装置,其特征在于,包括:
    获取单元,用于获取指定平台上的第一文本,所述第一文本的内容与指定企业相关;
    第一构建单元,用于对所述第一文本中包含的每一个语句构建词嵌入;
    输出单元,用于将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签;
    分析单元,用于在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。
  9. 根据权利要求8所述的文本的情感分析装置,其特征在于,所述长短记忆网络模型为双向长短记忆网络模型。
  10. 根据权利要求8所述的文本的情感分析装置,其特征在于,所述构建词嵌入的方法包括Glove模型构建方法、word2vec方法中的一种。
  11. 根据权利要求8所述的文本的情感分析装置,其特征在于,还包括:
    第二构建单元,用于构建训练集中训练文本包括的每一个训练语句的词嵌入;
    训练单元,用于将每一个所述训练语句的词嵌入输入至长短记忆网络模型中进行训练,以得到所述文本情感分析模型。
  12. 根据权利要求8所述的文本的情感分析装置,其特征在于,还包括:
    第一处理单元,用于当所述第一文本的情感标签为指定情感标签时,获取所述第一文本的属性信息,和/或将所述第一文本存储于数据库中;所述属性信息包括来源平台信息、发文用户信息、发文时间信息中的至少一种。
  13. 根据权利要求8所述的文本的情感分析装置,其特征在于,还包括:
    第二处理单元,用于当所述第一文本的情感标签为指定情感标签时,提取出所述第一文本中具有所述指定情感标签的语句,并将其存储于数据库中。
  14. 根据权利要求8所述的文本的情感分析装置,其特征在于,所述分析单元根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签,具体包括:
    若其中一种所述情感标签的数量最多,则将数量最多的所述情感标签作为所述第一文本的情感标签;若每一种所述情感标签的数量一致或者数量最多的几个所述情感标签的数量也一致时,则获取所述第一文本中一个指定语句对应的情感标签,作为所述第一文本对应的情感标签。
  15. 一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,其特征在于,所述处理器执行所述计算机可读指令时实现文本的情感分析方法,所述方法包括:
    获取指定平台上的第一文本,所述第一文本的内容与指定企业相关;
    对所述第一文本中包含的每一个语句构建词嵌入;
    将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签;
    在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。
  16. 根据权利要求15所述的计算机设备,其特征在于,所述长短记忆网络模型为双向长短记忆网络模型。
  17. 根据权利要求15所述的计算机设备,其特征在于,所述构建词嵌入的方法包括Glove模型构建方法、word2vec方法中的一种。
  18. 一种计算机非易失性可读存储介质,其上存储有计算机可读指令,其特征在于,所述计算机可读指令被处理器执行时实现文本的情感分析方法,所述方法包括:
    获取指定平台上的第一文本,所述第一文本的内容与指定企业相关;
    对所述第一文本中包含的每一个语句构建词嵌入;
    将构建的每一个所述词嵌入输入至基于长短记忆网络模型训练得到的文本情感分析模型中,以输出每一个所述词嵌入的情感标签,作为对应于每一个语句的情感标签;
    在所述第一文本所有语句对应的情感标签中,统计出每一种情感标签的数量,并根据每一种所述情感标签的数量大小分析所述第一文本对应的情感标签。
  19. 根据权利要求18所述的计算机非易失性可读存储介质,其特征在于,所述长短记忆网络模型为双向长短记忆网络模型。
  20. 根据权利要求18所述的计算机非易失性可读存储介质,其特征在于,所述构建词嵌入的方法包括Glove模型构建方法、word2vec方法中的一种。
PCT/CN2018/095666 2018-06-05 2018-07-13 文本的情感分析方法、装置、计算机设备和存储介质 WO2019232893A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810569997.0A CN108829672A (zh) 2018-06-05 2018-06-05 文本的情感分析方法、装置、计算机设备和存储介质
CN201810569997.0 2018-06-05

Publications (1)

Publication Number Publication Date
WO2019232893A1 true WO2019232893A1 (zh) 2019-12-12

Family

ID=64143939

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/095666 WO2019232893A1 (zh) 2018-06-05 2018-07-13 文本的情感分析方法、装置、计算机设备和存储介质

Country Status (2)

Country Link
CN (1) CN108829672A (zh)
WO (1) WO2019232893A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109670171B (zh) * 2018-11-23 2021-05-14 山西大学 一种基于词对非对称共现的词向量表示学习方法
CN109284506B (zh) * 2018-11-29 2023-09-29 重庆邮电大学 一种基于注意力卷积神经网络的用户评论情感分析系统及方法
CN109284389A (zh) * 2018-11-29 2019-01-29 北京国信宏数科技有限责任公司 一种文本数据的信息处理方法、装置
CN109359246A (zh) * 2018-12-07 2019-02-19 上海宏原信息科技有限公司 一种基于论坛用户言论的品牌亲密度计算方法
CN110222345A (zh) * 2019-06-18 2019-09-10 卓尔智联(武汉)研究院有限公司 完型填空答题方法、装置、电子设备及存储介质
CN110399611A (zh) * 2019-07-03 2019-11-01 深兰科技(上海)有限公司 一种文本分析方法、装置及存储介质
CN110851569B (zh) * 2019-11-12 2022-11-29 北京创鑫旅程网络技术有限公司 数据处理方法、装置、设备及存储介质
CN111767740A (zh) * 2020-06-23 2020-10-13 北京字节跳动网络技术有限公司 音效添加方法和装置、存储介质和电子设备
CN112818681B (zh) * 2020-12-31 2023-11-10 北京知因智慧科技有限公司 文本情感分析方法、系统及电子设备
CN112800180A (zh) * 2021-02-04 2021-05-14 北京易车互联信息技术有限公司 一种点评文本标签的自动提取方案
CN113469562A (zh) * 2021-07-20 2021-10-01 中国银行股份有限公司 银行柜台服务的满意度分析方法及装置
CN114386436B (zh) * 2022-01-21 2023-07-18 平安科技(深圳)有限公司 文本数据的分析方法、模型训练方法、装置及计算机设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104573046A (zh) * 2015-01-20 2015-04-29 成都品果科技有限公司 一种基于词向量的评论分析方法及系统
CN106383815A (zh) * 2016-09-20 2017-02-08 清华大学 结合用户和产品信息的神经网络情感分析方法
CN106599933A (zh) * 2016-12-26 2017-04-26 哈尔滨工业大学 一种基于联合深度学习模型的文本情感分类方法
CN106649853A (zh) * 2016-12-30 2017-05-10 儒安科技有限公司 一种基于深度学习的短文本聚类方法
CN106776581A (zh) * 2017-02-21 2017-05-31 浙江工商大学 基于深度学习的主观性文本情感分析方法
CN107609009A (zh) * 2017-07-26 2018-01-19 北京大学深圳研究院 文本情感分析方法、装置、存储介质和计算机设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107153642A (zh) * 2017-05-16 2017-09-12 华北电力大学 一种基于神经网络识别文本评论情感倾向的分析方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104573046A (zh) * 2015-01-20 2015-04-29 成都品果科技有限公司 一种基于词向量的评论分析方法及系统
CN106383815A (zh) * 2016-09-20 2017-02-08 清华大学 结合用户和产品信息的神经网络情感分析方法
CN106599933A (zh) * 2016-12-26 2017-04-26 哈尔滨工业大学 一种基于联合深度学习模型的文本情感分类方法
CN106649853A (zh) * 2016-12-30 2017-05-10 儒安科技有限公司 一种基于深度学习的短文本聚类方法
CN106776581A (zh) * 2017-02-21 2017-05-31 浙江工商大学 基于深度学习的主观性文本情感分析方法
CN107609009A (zh) * 2017-07-26 2018-01-19 北京大学深圳研究院 文本情感分析方法、装置、存储介质和计算机设备

Also Published As

Publication number Publication date
CN108829672A (zh) 2018-11-16

Similar Documents

Publication Publication Date Title
WO2019232893A1 (zh) 文本的情感分析方法、装置、计算机设备和存储介质
CN107122416B (zh) 一种中文事件抽取方法
US11301637B2 (en) Methods, devices, and systems for constructing intelligent knowledge base
WO2021068321A1 (zh) 基于人机交互的信息推送方法、装置和计算机设备
WO2021042503A1 (zh) 信息分类抽取方法、装置、计算机设备和存储介质
WO2019153737A1 (zh) 用于对评论进行评估的方法、装置、设备和存储介质
WO2019153522A1 (zh) 智能交互方法、电子装置及存储介质
Chieu et al. A maximum entropy approach to information extraction from semi-structured and free text
US9373075B2 (en) Applying a genetic algorithm to compositional semantics sentiment analysis to improve performance and accelerate domain adaptation
WO2017092380A1 (zh) 用于人机对话的方法、神经网络系统和用户设备
TW202009749A (zh) 人機對話方法、裝置、電子設備及電腦可讀媒體
WO2019084810A1 (zh) 一种信息处理方法及终端、计算机存储介质
CN112667794A (zh) 一种基于孪生网络bert模型的智能问答匹配方法及系统
US9710829B1 (en) Methods, systems, and articles of manufacture for analyzing social media with trained intelligent systems to enhance direct marketing opportunities
CN111563384B (zh) 面向电商产品的评价对象识别方法、装置及存储介质
CN103593412B (zh) 一种基于树形结构问题的应答方法及系统
WO2017198031A1 (zh) 解析语义的方法和装置
US20240143644A1 (en) Event detection
CN113590810A (zh) 摘要生成模型训练方法、摘要生成方法、装置及电子设备
WO2021174829A1 (zh) 众包任务的抽检方法、装置、计算机设备及存储介质
Saranya et al. A Machine Learning-Based Technique with IntelligentWordNet Lemmatize for Twitter Sentiment Analysis.
Schraagen et al. Extraction of semantic relations in noisy user-generated law enforcement data
Sathyendra et al. Helping users understand privacy notices with automated query answering functionality: An exploratory study
CN111680501B (zh) 基于深度学习的问询信息识别方法、装置及存储介质
CN111159405B (zh) 基于背景知识的讽刺检测方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18921389

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 26.03.2021)

122 Ep: pct application non-entry in european phase

Ref document number: 18921389

Country of ref document: EP

Kind code of ref document: A1