CN114548114B - 文本情绪识别方法、装置、设备及存储介质 - Google Patents
文本情绪识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114548114B CN114548114B CN202210166887.6A CN202210166887A CN114548114B CN 114548114 B CN114548114 B CN 114548114B CN 202210166887 A CN202210166887 A CN 202210166887A CN 114548114 B CN114548114 B CN 114548114B
- Authority
- CN
- China
- Prior art keywords
- text
- emotion recognition
- emotion
- sequence
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 254
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000008451 emotion Effects 0.000 claims abstract description 89
- 238000004364 calculation method Methods 0.000 claims abstract description 32
- 238000012545 processing Methods 0.000 claims abstract description 31
- 238000006243 chemical reaction Methods 0.000 claims abstract description 22
- 238000004458 analytical method Methods 0.000 claims abstract description 16
- 239000013598 vector Substances 0.000 claims description 88
- 230000015654 memory Effects 0.000 claims description 87
- 230000007246 mechanism Effects 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 14
- 230000007787 long-term memory Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 6
- 230000004044 response Effects 0.000 abstract description 6
- 238000004891 communication Methods 0.000 description 14
- 230000036651 mood Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004821 distillation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Character Discrimination (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及人工智能技术,揭露一种文本情绪识别方法,包括:对待识别文本进行相似文本匹配,得到文本匹配结果,根据文本匹配结果确定第一情绪识别结果;当第一情绪识别结果为未识别出情绪类型,对待识别文本进行序列转换处理,得到目标文本序列;对目标文本序列进行概率计算,得到概率值并对概率值进行情绪分析,得到第二情绪识别结果;当第二情绪识别结果为未识别出情绪类型,对待识别文本进行文本情绪识别,得到最终文本情绪识别结果。此外,本发明还涉及区块链技术,文本匹配结果可存储于区块链的节点。本发明还提出一种文本情绪识别装置、电子设备以及存储介质。本发明可以在保证准确率的前提下,加快文本情绪识别的响应速度。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种文本情绪识别方法、装置、电子设备及计算机可读存储介质。
背景技术
情绪作为一种人的生理与心理结合的表现,在人与人沟通或人机沟通中起着重要作用。因此情绪识别技术也逐渐兴起,并被广泛应用在智能客服、客服营销等多个场景中。
随着深度学习在近几年的蓬勃发展,Bert等较大型的深度学习模型在文本情绪识别任务中取得了令人瞩目的效果。但Bert模型的复杂度较高,推理预测速度较慢,使得实际业务场景的实时性受到影响。同时只利用Bert模型进行情绪识别响应速度慢,因此导致文本情绪识别效率不高。
发明内容
本发明提供一种文本情绪识别方法、装置及计算机可读存储介质,其主要目的在于提高文本情绪识别的响应速度和准确度。
为实现上述目的,本发明提供的一种文本情绪识别方法,包括:
获取待识别文本,基于预设的文本匹配模型对所述待识别文本进行相似文本匹配,得到文本匹配结果,并根据所述文本匹配结果确定第一情绪识别结果;
当所述第一情绪识别结果为未识别出情绪类型时,利用预设的初始文本情绪识别模型中的长短期记忆网络对所述待识别文本进行序列转换处理,得到目标文本序列;
基于所述初始文本情绪识别模型中的注意力机制对所述目标文本序列进行概率计算,得到所述目标文本序列的概率值,对所述概率值进行情绪分析,得到第二情绪识别结果;
当所述第二情绪识别结果为未识别出情绪类型时,将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果。
可选地,所述基于预设的文本匹配模型对所述待识别文本进行相似文本匹配,得到文本匹配结果,包括:
对预获取的高频语句集进行索引生成处理,得到多个关联索引;
将所述待识别文本输入至所述文本匹配模型中,得到待识别语义向量;
依次随机多个所述关联索引中的标准关联索引,并分别计算所述待识别语义向量与所述标准关联索引对应的语义向量之间的相似度;
当所述相似度大于或者等于预设的相似阈值时,所述文本匹配结果为文本匹配成功;
当所述相似度小于所述相似阈值时,所述文本匹配结果为文本匹配失败。
可选地,所述对预获取的高频语句集进行索引生成处理,得到多个关联索引,包括:
对所述高频语句集进行情绪类别标注,得到所述高频语句集中的高频语句对应的类别标签;
对所述高频语句集进行向量化,得到语义向量集;
将所述语义向量集中的语义向量与所述语义向量对应的类别标签进行关联处理,并对关联后的语义向量和类别标签建立关联索引,得到多个关联索引。
可选地,所述将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果,包括:
对所述待识别文本进行向量化,得到文本向量;
将所述文本向量输入至所述标准文本情绪识别模型中主架构内的第一个transformer中进行向量转换,得到文本序列;
利用所述标准文本情绪识别模型中与所述第一个transformer对应的学生分类器对所述文本序列进行概率计算,得到输出概率;
根据所述输出概率和预设的不确定性值计算公式计算所述输出概率对应的不确定值;
当所述不确定值小于预设的设定参数时,根据所述输出概率和预设的情绪参考表确定最终文本情绪识别结果;
当所述不确定值大于或者等于预设的设定参数时,利用所述标准文本情绪识别模型中主架构中的下一个transformer及对应的学生分类器对所述文本向量进行文本情绪识别,直至所述不确定值小于所述设定参数或计算到最后一层transformer和分类器时,将文本情绪识别的结果作为最终文本情绪识别结果。
可选地,所述基于所述初始文本情绪识别模型中的注意力机制对所述目标文本序列进行概率计算,包括:
根据预设的权重系数公式计算所述目标文本序列的权重系数;
利用所述权重系数计算所述目标文本序列的上下文序列;
根据所述上下文序列和预设的概率计算公式计算所述目标文本序列对应的概率值。
可选地,所述预设的权重系数公式,包括:
a=softmax(WTtanh(H))
其中,a为权重系数,H为目标文本序列,softmax为归一化指数函数,WT为变量参数。
可选地,所述利用预设的初始文本情绪识别模型中的长短期记忆网络对所述待识别文本进行序列转换处理,得到目标文本序列,包括:
通过所述长短期记忆网络中的输入门和所述待识别文本的词向量计算所述长短期记忆网络记忆单元的保留值;
通过所述长短期记忆网络中的遗忘门和所述待识别文本的词向量计算所述长短期记忆网络记忆单元的遗忘值;
根据所述保留值和所述遗忘值计算所述长短期记忆网络记忆单元的状态更新值;
利用所述长短期记忆网络中的输出门计算所述长短期记忆网络记忆单元的状态更新值对应的隐藏单元的输出向量;
对每条文本分别计算正向和反向的隐藏单元的输出向量并拼接,得到目标文本序列。
为了解决上述问题,本发明还提供一种文本情绪识别装置,所述装置包括:
文本匹配模块,用于获取待识别文本,基于预设的文本匹配模型对所述待识别文本进行相似文本匹配,得到文本匹配结果,并根据所述文本匹配结果确定第一情绪识别结果;
序列转换模块,用于当所述第一情绪识别结果为未识别出情绪类型时,利用预设的初始文本情绪识别模型中的长短期记忆网络对所述待识别文本进行序列转换处理,得到目标文本序列;
情绪分析模块,用于基于所述初始文本情绪识别模型中的注意力机制对所述目标文本序列进行概率计算,得到所述目标文本序列的概率值,对所述概率值进行情绪分析,得到第二情绪识别结果;
情绪识别模块,用于当所述第二情绪识别结果为未识别出情绪类型时,将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的文本情绪识别方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的文本情绪识别方法。
本发明实施例通过基于预设的文本匹配模型对待识别文本进行相似文本匹配,得到文本匹配结果,并根据所述文本匹配结果确定第一情绪识别结果,所述文本匹配模型具有较高的文本匹配效率,当所述第一情绪识别结果为未识别出情绪类型时,利用预设的初始文本情绪识别模型中的长短期记忆网络和注意力机制对所述待识别文本进行情绪分类,得到第二情绪识别结果。所述注意力机制可以增强所述长短期记忆网络输出的目标文本序列的全面性和丰富性,进而有利于提高对文本进行情感识别的准确性。当所述第二情绪识别结果为未识别出情绪类型时,将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果。通过文本匹配模型、初始文本情绪识别模型和标准文本情绪识别模型一起进行情绪识别,可以保证情绪识别的准确度。因此本发明提出的文本情绪识别方法、装置、电子设备及计算机可读存储介质,可以在保证准确率的前提下,加快文本情绪识别的响应速度。
附图说明
图1为本发明一实施例提供的文本情绪识别方法的流程示意图;
图2为本发明一实施例提供的文本情绪识别装置的功能模块图;
图3为本发明一实施例提供的实现所述文本情绪识别方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种文本情绪识别方法。所述文本情绪识别方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述文本情绪识别方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的文本情绪识别方法的流程示意图。在本实施例中,所述文本情绪识别方法包括:
S1、获取待识别文本,基于预设的文本匹配模型对所述待识别文本进行相似文本匹配,得到文本匹配结果,并根据所述文本匹配结果确定第一情绪识别结果。
本发明实施例中,所述待识别文本为需要进行文本情绪识别的文本数据,可以为会议记录中的说话人的话语文本,也可以为客服和客户沟通中所记录下来的沟通文本。
具体地,所述文本匹配模型可以为Siamese GRU模型,Siamese GRU是一个轻量级的模型,常用于相似文本匹配,其不仅有较快的推理速度,并且在相似度计算任务上有较高的准确率。
具体地,所述基于预设的文本匹配模型对所述待识别文本进行相似文本匹配,得到文本匹配结果,包括:
对预获取的高频语句集进行索引生成处理,得到多个关联索引;
将所述待识别文本输入至所述文本匹配模型中,得到待识别语义向量;
依次随机多个所述关联索引中的标准关联索引,并分别计算所述待识别语义向量与所述标准关联索引对应的语义向量之间的相似度;
当所述相似度大于或者等于预设的相似阈值时,所述文本匹配结果为文本匹配成功;
当所述相似度小于所述相似阈值时,所述文本匹配结果为文本匹配失败。
详细地,所述高频语句集包含通过大量的历史对话中总结得到的出现频次较高的多条语句。
进一步地,所述根据所述文本匹配结果确定第一情绪识别结果,包括:
当所述文本匹配结果为文本匹配成功时,所述第一情绪识别结果为识别出情绪类型,且将所述标准关联索引对应的类别标签作为所述待识别文本的标签;
当所述文本匹配结果为文本匹配失败时,所述第一情绪识别结果为未识别出情绪类型。
进一步地,所述对预获取的高频语句集进行索引生成处理,得到多个关联索引,包括:
对所述高频语句集进行情绪类别标注,得到所述高频语句集中的高频语句对应的类别标签;
对所述高频语句集进行向量化,得到语义向量集;
将所述语义向量集中的语义向量与所述语义向量对应的类别标签进行关联处理,并对关联后的语义向量和类别标签建立关联索引,得到多个关联索引。
详细地,所述情绪类别标注是根据所述高频语句集中不同高频语句的语气进行对应的标注,每条高频语句都有对应的类别标签,例如,所述类别标签可以为生气、高兴、悲伤等。可以根据高频语句集中高频语句中的语气词进行情绪类别标注。
例如,所述高频语句为“哎,好吧,我知道了。”,由于所述高频语句中的语气词为“哎”,因此可以将所述高频语句的情绪类别标注为“哀怨”。
进一步地,将所述语义向量集中的语义向量与所述语义向量对应的类别标签进行关联处理,即假设语义向量为向量A,对应的类别标签为“哀怨”,将向量A和“哀怨”关联在一起并对关联后的向量A和“哀怨”添加一个关联索引,根据所述关联索引即可查找出对应的语义向量和对应的类别标签。
S2、当所述第一情绪识别结果为未识别出情绪类型时,利用预设的初始文本情绪识别模型中的长短期记忆网络对所述待识别文本进行序列转换处理,得到目标文本序列。
本发明实施例中,所述初始文本情绪识别模型为BiLSTM-Attention模型,BiLSTM-Attention模型为一种较轻量级的深度学习模型,其推理速度较快,模型参数较少。其中,所述初始文本情绪识别模型由双向长短期记忆网络和注意力机制构建所得。
具体地,所述利用预设的初始文本情绪识别模型中的长短期记忆网络对所述待识别文本进行序列转换处理,得到目标文本序列,包括:
步骤A:通过所述长短期记忆网络中的输入门和所述待识别文本的词向量计算所述长短期记忆网络记忆单元的保留值;
步骤B:通过所述长短期记忆网络中的遗忘门和所述待识别文本的词向量计算所述长短期记忆网络记忆单元的遗忘值;
步骤C:根据所述保留值和所述遗忘值计算所述长短期记忆网络记忆单元的状态更新值;
步骤D:利用所述长短期记忆网络中的输出门计算所述长短期记忆网络记忆单元的状态更新值对应的隐藏单元的输出向量;
步骤E:对每条文本分别计算正向和反向的隐藏单元的输出向量并拼接,得到目标文本序列。
一可选实施例中,所述利用所述长短期记忆网络中的输出门计算所述长短期记忆网络记忆单元的状态更新值对应的隐藏单元的输出向量,包括:
利用如下公式和方法计算隐藏单元的输出向量:
ht=ottan h(ct)
其中,ht表示隐藏单元的输出向量,tan h为激活函数,ct表示长短期记忆网络记忆单元的状态更新值,ot表示输出门的值。
采用BiLSTM结构,对每条文本分别计算正向和反向的隐藏单元的输出向量并拼接,得到目标文本序列H。
详细地,所述长短期记忆网络中包含输入门、遗忘门和输出门。
S3、基于所述初始文本情绪识别模型中的注意力机制对所述目标文本序列进行概率计算,得到概率值并对所述概率值进行情绪分析,得到第二情绪识别结果。
本发明实施例中,所述基于所述初始文本情绪识别模型中的注意力机制对所述目标文本序列进行概率计算,包括:
根据预设的权重系数公式计算所述目标文本序列的权重系数;
利用所述权重系数计算所述目标文本序列的上下文序列;
根据所述上下文序列和预设的概率计算公式计算所述目标文本序列对应的概率值。
具体地,所述预设的权重系数公式,包括:
a=softmax(WTtanh(H))
其中,a为权重系数,H为目标文本序列,softmax为归一化指数函数,WT为变量参数。
进一步地,利用所述权重系数计算出所述目标文本序列的上下文序列,包括:
q=tanh(HaT)
其中,q为上下文序列,a为权重系数,H为目标文本序列。
具体地,所述根据所述上下文序列和预设的概率计算公式计算所述目标文本序列对应的概率值,包括:
所述概率计算公式为:
y=softmax(WSq+bS)
其中,y为概率值,q为上下文序列,WS、bS为变量参数。
具体地,所述对所述概率值进行情绪分析,得到第二情绪识别结果,包括:
判断所述概率值与预设的情绪阈值之间的大小;
当所述概率值小于或者等于所述情绪阈值时,将所述第二情绪识别结果判定为未识别出情绪类型;
将所述概率值与预设的情绪分类表中的概率值进行比对,当所述概率值大于所述情绪阈值时,将对应的情绪分类作为所述第二情绪识别结果中的情绪分类。
详细地,所述情绪分类表中不同的情绪分类标签对应不同的阈值。
例如,所述概率值为0.7,所述高兴情绪类别的阈值为0.6,所述概率值大于所述高兴情绪类别的阈值,则将高兴作为所述第二情绪识别结果中的情绪分类。
S4、当所述第二情绪识别结果为未识别出情绪类型时,将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果。
本发明实施例中,所述标准文本情绪识别模型为FastBERT模型。其中,FastBERT模型为蒸馏后的Bert模型,与Bert模型相比具有更快的推理预测速度。所述FastBERT模型主要由主架构和分支两部分组成,其中,主架构与Bert模型基本相同,分支由多个学生分类器(StudentClassifier)组成。
具体地,所述将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果,包括:
对所述待识别文本进行向量化,得到文本向量;
将所述文本向量输入至所述标准文本情绪识别模型中主架构内的第一个transformer中进行向量转换,得到文本序列;
利用所述标准文本情绪识别模型中与所述第一个transformer对应的学生分类器对所述文本序列进行概率计算,得到输出概率;
根据所述输出概率和预设的不确定性值计算公式计算所述输出概率对应的不确定值;
当所述不确定值小于预设的设定参数时,根据所述输出概率和预设的情绪参考表确定最终文本情绪识别结果;
当所述不确定值大于或者等于预设的设定参数时,利用所述标准文本情绪识别模型中主架构中的下一个transformer及对应的学生分类器对所述文本向量进行文本情绪识别,直至所述不确定值小于所述设定参数或计算到最后一层transformer和分类器时,将文本情绪识别的结果作为最终文本情绪识别结果。
详细地,所述向量化是通过将所述待识别文本输入至Embedding层中实现,
所述标准文本情绪识别模型中的主架构是利用预设个数的transformer进行串联连接所得,并在所述主架构旁边接入分支,即在每一个transformer旁都接入一个学生分类器,则每个transformer都有其对应的学生分类器。
例如,在所述标准文本情绪识别模型中,transformer0对应一个学生分类器StudentClassifier0,transformer1对应一个学生分类器StudentClassifier1,以此类推。
本发明实施例通过基于预设的文本匹配模型对待识别文本进行相似文本匹配,得到文本匹配结果,并根据所述文本匹配结果确定第一情绪识别结果,所述文本匹配模型具有较高的文本匹配效率,当所述第一情绪识别结果为未识别出情绪类型时,利用预设的初始文本情绪识别模型中的长短期记忆网络和注意力机制对所述待识别文本进行情绪分类,得到第二情绪识别结果。所述注意力机制可以增强所述长短期记忆网络输出的目标文本序列的全面性和丰富性,进而有利于提高对文本进行情感识别的准确性。当所述第二情绪识别结果为未识别出情绪类型时,将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果。通过文本匹配模型、初始文本情绪识别模型和标准文本情绪识别模型一起进行情绪识别,可以保证情绪识别的准确度。因此本发明提出的文本情绪识别方法可以在保证准确率的前提下,加快文本情绪识别的响应速度。
如图2所示,是本发明一实施例提供的文本情绪识别装置的功能模块图。
本发明所述文本情绪识别装置100可以安装于电子设备中。根据实现的功能,所述文本情绪识别装置100可以包括文本匹配模块101、序列转换模块102、情绪分析模块103及情绪识别模块104。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述文本匹配模块101,用于获取待识别文本,基于预设的文本匹配模型对所述待识别文本进行相似文本匹配,得到文本匹配结果,并根据所述文本匹配结果确定第一情绪识别结果;
所述序列转换模块102,用于当所述第一情绪识别结果为未识别出情绪类型时,利用预设的初始文本情绪识别模型中的长短期记忆网络对所述待识别文本进行序列转换处理,得到目标文本序列;
所述情绪分析模块103,用于基于所述初始文本情绪识别模型中的注意力机制对所述目标文本序列进行概率计算,得到所述目标文本序列的概率值,对所述概率值进行情绪分析,得到第二情绪识别结果;
所述情绪识别模块104,用于当所述第二情绪识别结果为未识别出情绪类型时,将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果。
详细地,所述文本情绪识别装置100各模块的具体实施方式如下:
步骤一、获取待识别文本,基于预设的文本匹配模型对所述待识别文本进行相似文本匹配,得到文本匹配结果,并根据所述文本匹配结果确定第一情绪识别结果。
本发明实施例中,所述待识别文本为需要进行文本情绪识别的文本数据,可以为会议记录中的说话人的话语文本,也可以为客服和客户沟通中所记录下来的沟通文本。
具体地,所述文本匹配模型可以为Siamese GRU模型,Siamese GRU是一个轻量级的模型,常用于相似文本匹配,其不仅有较快的推理速度,并且在相似度计算任务上有较高的准确率。
具体地,所述基于预设的文本匹配模型对所述待识别文本进行相似文本匹配,得到文本匹配结果,包括:
对预获取的高频语句集进行索引生成处理,得到多个关联索引;
将所述待识别文本输入至所述文本匹配模型中,得到待识别语义向量;
依次随机多个所述关联索引中的标准关联索引,并分别计算所述待识别语义向量与所述标准关联索引对应的语义向量之间的相似度;
当所述相似度大于或者等于预设的相似阈值时,所述文本匹配结果为文本匹配成功;
当所述相似度小于所述相似阈值时,所述文本匹配结果为文本匹配失败。
详细地,所述高频语句集包含通过大量的历史对话中总结得到的出现频次较高的多条语句。
进一步地,所述根据所述文本匹配结果确定第一情绪识别结果,包括:
当所述文本匹配结果为文本匹配成功时,所述第一情绪识别结果为识别出情绪类型,且将所述标准关联索引对应的类别标签作为所述待识别文本的标签;
当所述文本匹配结果为文本匹配失败时,所述第一情绪识别结果为未识别出情绪类型。
进一步地,所述对预获取的高频语句集进行索引生成处理,得到多个关联索引,包括:
对所述高频语句集进行情绪类别标注,得到所述高频语句集中的高频语句对应的类别标签;
对所述高频语句集进行向量化,得到语义向量集;
将所述语义向量集中的语义向量与所述语义向量对应的类别标签进行关联处理,并对关联后的语义向量和类别标签建立关联索引,得到多个关联索引。
详细地,所述情绪类别标注是根据所述高频语句集中不同高频语句的语气进行对应的标注,每条高频语句都有对应的类别标签,例如,所述类别标签可以为生气、高兴、悲伤等。可以根据高频语句集中高频语句中的语气词进行情绪类别标注。
例如,所述高频语句为“哎,好吧,我知道了。”,由于所述高频语句中的语气词为“哎”,因此可以将所述高频语句的情绪类别标注为“哀怨”。
进一步地,将所述语义向量集中的语义向量与所述语义向量对应的类别标签进行关联处理,即假设语义向量为向量A,对应的类别标签为“哀怨”,将向量A和“哀怨”关联在一起并对关联后的向量A和“哀怨”添加一个关联索引,根据所述关联索引即可查找出对应的语义向量和对应的类别标签。
步骤二、当所述第一情绪识别结果为未识别出情绪类型时,利用预设的初始文本情绪识别模型中的长短期记忆网络对所述待识别文本进行序列转换处理,得到目标文本序列。
本发明实施例中,所述初始文本情绪识别模型为BiLSTM-Attention模型,BiLSTM-Attention模型为一种较轻量级的深度学习模型,其推理速度较快,模型参数较少。其中,所述初始文本情绪识别模型由双向长短期记忆网络和注意力机制构建所得。
具体地,所述利用预设的初始文本情绪识别模型中的长短期记忆网络对所述待识别文本进行序列转换处理,得到目标文本序列,包括:
步骤A:通过所述长短期记忆网络中的输入门和所述待识别文本的词向量计算所述长短期记忆网络记忆单元的保留值;
步骤B:通过所述长短期记忆网络中的遗忘门和所述待识别文本的词向量计算所述长短期记忆网络记忆单元的遗忘值;
步骤C:根据所述保留值和所述遗忘值计算所述长短期记忆网络记忆单元的状态更新值;
步骤D:利用所述长短期记忆网络中的输出门计算所述长短期记忆网络记忆单元的状态更新值对应的隐藏单元的输出向量;
步骤E:对每条文本分别计算正向和反向的隐藏单元的输出向量并拼接,得到目标文本序列。
一可选实施例中,所述利用所述长短期记忆网络中的输出门计算所述长短期记忆网络记忆单元的状态更新值对应的隐藏单元的输出向量,包括:
利用如下公式和方法计算隐藏单元的输出向量:
ht=ottan h(ct)
其中,ht表示隐藏单元的输出向量,tan h为激活函数,ct表示表示长短期记忆网络记忆单元的状态更新值,ot表示输出门的值。
采用BiLSTM结构,对每条文本分别计算正向和反向的隐藏单元的输出向量并拼接,得到目标文本序列H。
步骤三、基于所述初始文本情绪识别模型中的注意力机制对所述目标文本序列进行概率计算,得到概率值并对所述概率值进行情绪分析,得到第二情绪识别结果。
本发明实施例中,所述基于所述初始文本情绪识别模型中的注意力机制对所述目标文本序列进行概率计算,包括:
根据预设的权重系数公式计算所述目标文本序列的权重系数;
利用所述权重系数计算所述目标文本序列的上下文序列;
根据所述上下文序列和预设的概率计算公式计算所述目标文本序列对应的概率值。
具体地,所述预设的权重系数公式,包括:
a=softmax(WTtanh(H))
其中,a为权重系数,H为目标文本序列,softmax为归一化指数函数,WT为变量参数。
进一步地,利用所述权重系数计算出所述目标文本序列的上下文序列,包括:
q=tanh(HaT)
其中,q为上下文序列,a为权重系数,H为目标文本序列。
具体地,所述根据所述上下文序列和预设的概率计算公式计算所述目标文本序列对应的概率值,包括:
所述概率计算公式为:
y=softmax(WSq+bS)
其中,y为概率值,q为上下文序列,WS、bS为变量参数。
具体地,所述对所述概率值进行情绪分析,得到第二情绪识别结果,包括:
判断所述概率值与预设的情绪阈值之间的大小;
当所述概率值小于或者等于所述情绪阈值时,将所述第二情绪识别结果判定为未识别出情绪类型;
将所述概率值与预设的情绪分类表中的概率值进行比对,当所述概率值大于所述情绪阈值时,将对应的情绪分类作为所述第二情绪识别结果中的情绪分类。
详细地,所述情绪分类表中不同的情绪分类标签对应不同的阈值。
例如,所述概率值为0.7,所述高兴情绪类别的阈值为0.6,所述概率值大于所述高兴情绪类别的阈值,则将高兴作为所述第二情绪识别结果中的情绪分类。
步骤四、当所述第二情绪识别结果为未识别出情绪类型时,将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果。
本发明实施例中,所述标准文本情绪识别模型为FastBERT模型。其中,FastBERT模型为蒸馏后的Bert模型,与Bert模型相比具有更快的推理预测速度。所述FastBERT模型主要由主架构和分支两部分组成,其中,主架构与Bert模型基本相同,分支由多个学生分类器(StudentClassifier)组成。
具体地,所述将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果,包括:
对所述待识别文本进行向量化,得到文本向量;
将所述文本向量输入至所述标准文本情绪识别模型中主架构内的第一个transformer中进行向量转换,得到文本序列;
利用所述标准文本情绪识别模型中与所述第一个transformer对应的学生分类器对所述文本序列进行概率计算,得到输出概率;
根据所述输出概率和预设的不确定性值计算公式计算所述输出概率对应的不确定值;
当所述不确定值小于预设的设定参数时,根据所述输出概率和预设的情绪参考表确定最终文本情绪识别结果;
当所述不确定值大于或者等于预设的设定参数时,利用所述标准文本情绪识别模型中主架构中的下一个transformer及对应的学生分类器对所述文本向量进行文本情绪识别,直至所述不确定值小于所述设定参数或计算到最后一层transformer和分类器时,将文本情绪识别的结果作为最终文本情绪识别结果。
详细地,所述向量化是通过将所述待识别文本输入至Embedding层中实现,
所述标准文本情绪识别模型中的主架构是利用预设个数的transformer进行串联连接所得,并在所述主架构旁边接入分支,即在每一个transformer旁都接入一个学生分类器,则每个transformer都有其对应的学生分类器。
例如,在所述标准文本情绪识别模型中,transformer0对应一个学生分类器StudentClassifier0,transformer1对应一个学生分类器StudentClassifier1,以此类推。
本发明实施例通过基于预设的文本匹配模型对待识别文本进行相似文本匹配,得到文本匹配结果,并根据所述文本匹配结果确定第一情绪识别结果,所述文本匹配模型具有较高的文本匹配效率,当所述第一情绪识别结果为未识别出情绪类型时,利用预设的初始文本情绪识别模型中的长短期记忆网络和注意力机制对所述待识别文本进行情绪分类,得到第二情绪识别结果。所述注意力机制可以增强所述长短期记忆网络输出的目标文本序列的全面性和丰富性,进而有利于提高对文本进行情感识别的准确性。当所述第二情绪识别结果为未识别出情绪类型时,将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果。通过文本匹配模型、初始文本情绪识别模型和标准文本情绪识别模型一起进行情绪识别,可以保证情绪识别的准确度。因此本发明提出的文本情绪识别装置可以在保证准确率的前提下,加快文本情绪识别的响应速度。
如图3所示,是本发明一实施例提供的实现文本情绪识别方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如文本情绪识别程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行文本情绪识别程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如文本情绪识别程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(peripheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的文本情绪识别程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取待识别文本,基于预设的文本匹配模型对所述待识别文本进行相似文本匹配,得到文本匹配结果,并根据所述文本匹配结果确定第一情绪识别结果;
当所述第一情绪识别结果为未识别出情绪类型时,利用预设的初始文本情绪识别模型中的长短期记忆网络对所述待识别文本进行序列转换处理,得到目标文本序列;
基于所述初始文本情绪识别模型中的注意力机制对所述目标文本序列进行概率计算,得到所述目标文本序列的概率值,对所述概率值进行情绪分析,得到第二情绪识别结果;
当所述第二情绪识别结果为未识别出情绪类型时,将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取待识别文本,基于预设的文本匹配模型对所述待识别文本进行相似文本匹配,得到文本匹配结果,并根据所述文本匹配结果确定第一情绪识别结果;
当所述第一情绪识别结果为未识别出情绪类型时,利用预设的初始文本情绪识别模型中的长短期记忆网络对所述待识别文本进行序列转换处理,得到目标文本序列;
基于所述初始文本情绪识别模型中的注意力机制对所述目标文本序列进行概率计算,得到所述目标文本序列的概率值,对所述概率值进行情绪分析,得到第二情绪识别结果;
当所述第二情绪识别结果为未识别出情绪类型时,将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (8)
1.一种文本情绪识别方法,其特征在于,所述方法包括:
获取待识别文本,基于预设的文本匹配模型对所述待识别文本进行相似文本匹配,得到文本匹配结果,并根据所述文本匹配结果确定第一情绪识别结果;
当所述第一情绪识别结果为未识别出情绪类型时,利用预设的初始文本情绪识别模型中的长短期记忆网络对所述待识别文本进行序列转换处理,得到目标文本序列;
基于所述初始文本情绪识别模型中的注意力机制对所述目标文本序列进行概率计算,得到所述目标文本序列的概率值,对所述概率值进行情绪分析,得到第二情绪识别结果;
当所述第二情绪识别结果为未识别出情绪类型时,将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果;
其中,所述基于预设的文本匹配模型对所述待识别文本进行相似文本匹配,得到文本匹配结果,包括:对预获取的高频语句集进行索引生成处理,得到多个关联索引;将所述待识别文本输入至所述文本匹配模型中,得到待识别语义向量;依次随机多个所述关联索引中的标准关联索引,并分别计算所述待识别语义向量与所述标准关联索引对应的语义向量之间的相似度;当所述相似度大于或者等于预设的相似阈值时,所述文本匹配结果为文本匹配成功;当所述相似度小于所述相似阈值时,所述文本匹配结果为文本匹配失败;
所述将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果,包括:对所述待识别文本进行向量化,得到文本向量;将所述文本向量输入至所述标准文本情绪识别模型中主架构内的第一个transformer中进行向量转换,得到文本序列;利用所述标准文本情绪识别模型中与所述第一个transformer对应的学生分类器对所述文本序列进行概率计算,得到输出概率;根据所述输出概率和预设的不确定性值计算公式计算所述输出概率对应的不确定值;当所述不确定值小于预设的设定参数时,根据所述输出概率和预设的情绪参考表确定最终文本情绪识别结果;当所述不确定值大于或者等于预设的设定参数时,利用所述标准文本情绪识别模型中主架构中的下一个transformer及对应的学生分类器对所述文本向量进行文本情绪识别,直至所述不确定值小于所述设定参数或计算到最后一层transformer和分类器时,将文本情绪识别的结果作为最终文本情绪识别结果。
2.如权利要求1所述的文本情绪识别方法,其特征在于,所述对预获取的高频语句集进行索引生成处理,得到多个关联索引,包括:
对所述高频语句集进行情绪类别标注,得到所述高频语句集中的高频语句对应的类别标签;
对所述高频语句集进行向量化,得到语义向量集;
将所述语义向量集中的语义向量与所述语义向量对应的类别标签进行关联处理,并对关联后的语义向量和类别标签建立关联索引,得到多个关联索引。
3.如权利要求1所述的文本情绪识别方法,其特征在于,所述基于所述初始文本情绪识别模型中的注意力机制对所述目标文本序列进行概率计算,包括:
根据预设的权重系数公式计算所述目标文本序列的权重系数;
利用所述权重系数计算所述目标文本序列的上下文序列;
根据所述上下文序列和预设的概率计算公式计算所述目标文本序列对应的概率值。
4.如权利要求3所述的文本情绪识别方法,其特征在于,所述预设的权重系数公式,包括:
其中,为权重系数,H为目标文本序列,softmax为归一化指数函数,/>为变量参数。
5.如权利要求1至4中任一项所述的文本情绪识别方法,其特征在于,所述利用预设的初始文本情绪识别模型中的长短期记忆网络对所述待识别文本进行序列转换处理,得到目标文本序列,包括:
通过所述长短期记忆网络中的输入门和所述待识别文本的词向量计算所述长短期记忆网络记忆单元的保留值;
通过所述长短期记忆网络中的遗忘门和所述待识别文本的词向量计算所述长短期记忆网络记忆单元的遗忘值;
根据所述保留值和所述遗忘值计算所述长短期记忆网络记忆单元的状态更新值;
利用所述长短期记忆网络中的输出门计算所述长短期记忆网络记忆单元的状态更新值对应的隐藏单元的输出向量;
对每条文本分别计算正向和反向的隐藏单元的输出向量并拼接,得到目标文本序列。
6.一种文本情绪识别装置,用于实现如权利要求1至5中任意一项所述的文本情绪识别方法,其特征在于,所述装置包括:
文本匹配模块,用于获取待识别文本,基于预设的文本匹配模型对所述待识别文本进行相似文本匹配,得到文本匹配结果,并根据所述文本匹配结果确定第一情绪识别结果;
序列转换模块,用于当所述第一情绪识别结果为未识别出情绪类型时,利用预设的初始文本情绪识别模型中的长短期记忆网络对所述待识别文本进行序列转换处理,得到目标文本序列;
情绪分析模块,用于基于所述初始文本情绪识别模型中的注意力机制对所述目标文本序列进行概率计算,得到所述目标文本序列的概率值,对所述概率值进行情绪分析,得到第二情绪识别结果;
情绪识别模块,用于当所述第二情绪识别结果为未识别出情绪类型时,将所述待识别文本输入至预设的标准文本情绪识别模型中进行文本情绪识别,得到最终文本情绪识别结果。
7.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至5中任意一项所述的文本情绪识别方法。
8.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任意一项所述的文本情绪识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210166887.6A CN114548114B (zh) | 2022-02-23 | 2022-02-23 | 文本情绪识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210166887.6A CN114548114B (zh) | 2022-02-23 | 2022-02-23 | 文本情绪识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114548114A CN114548114A (zh) | 2022-05-27 |
CN114548114B true CN114548114B (zh) | 2024-02-02 |
Family
ID=81677049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210166887.6A Active CN114548114B (zh) | 2022-02-23 | 2022-02-23 | 文本情绪识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114548114B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116108836B (zh) * | 2023-04-10 | 2023-07-11 | 之江实验室 | 文本情感识别方法、装置、计算机设备及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111223498A (zh) * | 2020-01-10 | 2020-06-02 | 平安科技(深圳)有限公司 | 情绪智能识别方法、装置及计算机可读存储介质 |
CN112951233A (zh) * | 2021-03-30 | 2021-06-11 | 平安科技(深圳)有限公司 | 语音问答方法、装置、电子设备及可读存储介质 |
CN113314150A (zh) * | 2021-05-26 | 2021-08-27 | 平安普惠企业管理有限公司 | 基于语音数据的情绪识别方法、装置及存储介质 |
-
2022
- 2022-02-23 CN CN202210166887.6A patent/CN114548114B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111223498A (zh) * | 2020-01-10 | 2020-06-02 | 平安科技(深圳)有限公司 | 情绪智能识别方法、装置及计算机可读存储介质 |
CN112951233A (zh) * | 2021-03-30 | 2021-06-11 | 平安科技(深圳)有限公司 | 语音问答方法、装置、电子设备及可读存储介质 |
CN113314150A (zh) * | 2021-05-26 | 2021-08-27 | 平安普惠企业管理有限公司 | 基于语音数据的情绪识别方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114548114A (zh) | 2022-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022141861A1 (zh) | 情感分类方法、装置、电子设备及存储介质 | |
CN112560453B (zh) | 语音信息校验方法、装置、电子设备及介质 | |
CN113722483B (zh) | 话题分类方法、装置、设备及存储介质 | |
CN113157927B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN114822812A (zh) | 角色对话模拟方法、装置、设备及存储介质 | |
CN113807973B (zh) | 文本纠错方法、装置、电子设备及计算机可读存储介质 | |
CN114880449B (zh) | 智能问答的答复生成方法、装置、电子设备及存储介质 | |
CN113344125B (zh) | 长文本匹配识别方法、装置、电子设备及存储介质 | |
CN114548114B (zh) | 文本情绪识别方法、装置、设备及存储介质 | |
CN113360654B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN113205814B (zh) | 语音数据标注方法、装置、电子设备及存储介质 | |
CN112269875B (zh) | 文本分类方法、装置、电子设备及存储介质 | |
CN116821373A (zh) | 基于图谱的prompt推荐方法、装置、设备及介质 | |
CN116450829A (zh) | 医疗文本分类方法、装置、设备及介质 | |
CN116701574A (zh) | 文本语义相似度计算方法、装置、设备及存储介质 | |
CN116341646A (zh) | Bert模型的预训练方法、装置、电子设备及存储介质 | |
CN113723114A (zh) | 基于多意图识别的语义分析方法、装置、设备及存储介质 | |
CN114462411B (zh) | 命名实体识别方法、装置、设备及存储介质 | |
CN113656703B (zh) | 基于新上线课程的智能推荐方法、装置、设备及存储介质 | |
CN113672722B (zh) | 线上课程智能推荐方法、装置、电子设备及存储介质 | |
CN111680513B (zh) | 特征信息的识别方法、装置及计算机可读存储介质 | |
CN113782001B (zh) | 一种特定领域语音识别方法、装置、电子设备及存储介质 | |
CN116578690B (zh) | 一种基于人工智能的保险客服服务方法与系统 | |
CN114723488B (zh) | 课程推荐方法、装置、电子设备及存储介质 | |
CN112528183B (zh) | 基于大数据的网页组件布局方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |