CN111950275A - 基于循环神经网络的情绪识别方法、装置及存储介质 - Google Patents
基于循环神经网络的情绪识别方法、装置及存储介质 Download PDFInfo
- Publication number
- CN111950275A CN111950275A CN202010785309.1A CN202010785309A CN111950275A CN 111950275 A CN111950275 A CN 111950275A CN 202010785309 A CN202010785309 A CN 202010785309A CN 111950275 A CN111950275 A CN 111950275A
- Authority
- CN
- China
- Prior art keywords
- sentence
- speaker
- text
- emotion recognition
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能识别领域,尤其涉及一种基于循环神经网络的情绪识别方法、装置及存储介质。本发明的方法包括:获取对话内容中每个句子的文本特征;将每个所述句子的文本特征进行编码;针对每个所述句子,基于句子的文本特征更新说话人状态特征;基于句子的说话人以及上一句子的说话人确定说话人切换状态;获取句子的情绪识别结果;通过上述方式,在计算情绪标签概率时,通过说话人切换状态形成的切换嵌入强化了句子的上下文特征和说话人状态特征,提高了情绪识别准确率,能够更加准确地建模说话人之间和说话人自身的依赖关系;基于说话人自身的句子建模说话人状态特征,简化了计算过程,在并未影响情绪识别准确率的前提下提高了计算效率。
Description
【技术领域】
本发明涉及人工智能识别领域,尤其涉及一种基于循环神经网络的情绪识别方法、装置及存储介质。
【背景技术】
在自然语言处理领域,对话情绪识别技术受到越来越多的关注。随着社交媒体平台和会话代理的普及,对话语料愈发增长,从对话中挖掘说话人整体的动态情绪变化变得可行,且通过将对话情绪识别被广泛应用于意见挖掘、医疗健康、呼叫中心等场景,不仅可以挖掘获得说话人的情绪观点,还有助于构建具有情感的智能机器人对话系统。
早期的对话情绪识别研究主要基于呼叫中心的对话语料,利用基于词典的方法和音频特征识别情绪。近年来,对话情绪识别的研究主要基于卷积神经网络、循环神经网络、图卷积网络、Transformer等深度学习算法,利用纯文本语料或包含文本、音频、视频数据在内的多模态数据训练情绪识别模型。在这些对话情绪识别方法中,基于词典的方法只根据对话中的单句识别情绪。一些基于深度学习的方法,利用卷及神经网络或其他模型作为句子编码器,为当前句子生成句向量并直接输入全连接网络,最后利用softmax函数输出情绪标签的概率分布。但是,这些方法忽略了对话上下文信息,无法从全局角度建模句子和说话人之间的依赖关系,从而限制了情绪分类准确率的提升。
为了解决忽略上下文信息的问题,现有技术中的DialogueRNN,KET,DialogueGCN等模型把上下文的句向量输入循环神经网络或Transformer,以建模说话人之间的相互影响。不仅如此,DialogueRNN和DialogueGCN分别利用循环神经网络和图卷积网络捕获说话人的自身依赖,以建模属于同一说话人的所有句子之间的相互影响。但是,现有技术中的方法还存在如下问题:一方面,忽略了对话中的说话人切换信息,不能察觉说话人是否发生变化,影响了模型对说话人之间的依赖关系和说话人自身依赖关系的理解,从而限制了情绪识别准确率的提升;另一方面,这些方法建模说话人自身依赖关系时所使用的模型比较复杂,不易实现且影响计算效率。
因此,有必要提供一种新的基于循环神经网络的情绪识别方法、装置及存储介质。
【发明内容】
本发明的目的在于提供一种基于循环神经网络的情绪识别方法、装置及存储介质,以解决现有技术中情绪识别准确率低以及计算效率低的技术问题。
本发明的技术方案如下:提供一种基于循环神经网络的情绪识别方法,包括:
获取对话内容中每个句子的文本特征;
将每个所述句子的文本特征进行编码,以获取每个句子的上下文特征;
针对每个所述句子,基于所述句子的文本特征更新所述句子的说话人的说话人状态特征,其中,更新前的所述说话人状态特征是基于所述说话人的之前所有句子的文本特征而获取的;
针对每个所述句子,基于所述句子的说话人以及上一句子的说话人确定所述句子的说话人切换状态;
针对每个所述句子,基于所述句子的上下文特征、所述句子的说话人的说话人状态特征以及所述句子的说话人切换状态,获取所述句子的情绪识别结果。
优选地,所述获取对话内容中每个句子的文本特征,包括:
采用自然语言工具,将对话内容中的每个句子进行分词,得到每个句子的词序列;
利用GloVe模型,将所述句子的词序列中的每个词分别转换为对应的词向量;
将所述句子的词序列输入至卷积神经网络中,获取每个句子的句向量,将所述句向量作为所述文本特征。
优选地,所述每个将所述句子的文本特征进行编码,以获取每个句子的上下文特征,包括:
基于每个所述句子的文本特征,通过第一长短期记忆模型进行处理,得到每个所述句子的上下文特征。
优选地,所述基于每个所述句子的文本特征,通过第一长短期记忆模型进行处理,得到每个所述句子的上下文特征,包括:
获取所述对话内容中的第一个句子的文本特征,将所述第一个句子的文本特征输入至第一长短期记忆网络模型中,得到第一输出结果;
获取与所述第一个句子相邻的第二个句子的文本特征,将所述第一输出结果和所述第二个句子的文本特征输入至所述第一长短期记忆网络模型中,得到第二输出结果;
针对每个所述句子,将上一句子的输出结果以及所述句子的文本特征输入至所述第一长短期记忆网络模型中,得到所述句子的上下文特征;
重复上述步骤,直至得到每个所述句子的上下文特征。
优选地,所述说话人状态特征是通过如下步骤获取的:
获取所述说话人在对话内容中的多个句子,将所述多个句子的文本特征输入至第二长短期记忆网络模型中,提取所述说话人的状态特征。
优选地,所述获取所述说话人在对话内容中的多个句子,将所述多个句子的文本特征输入至第二长短期记忆网络模型中,提取所述说话人的状态特征,包括:
获取所述说话人的第一句子的文本特征向量,将所述说话人的初始化特征以及所述第一句子的文本特征向量输入至第二长短期记忆网络模型中,得到第一输出特征;
获取与所述第一句子相邻的第二句子的文本特征向量,将所述第一输出特征和所述第二句子的文本特征向量输入至所述第二长短期记忆网络模型中,得到第二输出特征;
重复执行上述步骤,直至所述说话人的当前句子,将上一轮的输出特征以及所述当前句子的文本特征向量输入至所述第二长短期记忆网络模型中,得到所述说话人的状态特征。
优选地,所述基于所述句子的说话人以及上一句子的说话人确定所述句子的说话人切换状态,包括:
当所述句子的说话人与上一句子的说话人相同时,将第一数值作为当前句子的说话人切换状态;
当所述句子的说话人与上一句子的说话人不同时,将第二数值作为所述句子的说话人切换状态;
所述基于当前句子的说话人以及上一句子的说话人确定当前句子的说话人切换状态之后,还包括:
将所述句子的文本特征、所述句子的上下文特征、所述句子的说话人状态特征以及所述句子的说话人切换特征上传至区块链中,以使得所述区块链对所述句子的文本特征、所述句子的上下文特征、所述句子的说话人状态特征以及所述句子的说话人切换特征进行加密存储。
本发明的另一技术方案如下:提供一种基于循环神经网络的情绪识别装置,所述装置包括:
句子编码器,用于获取对话内容中每个句子的文本特征;
上下文编码器,用于将每个所述句子的文本特征进行编码,以获取每个句子的上下文特征;
说话人编码器,用于针对每个所述句子,基于所述句子的文本特征更新所述句子的说话人的说话人状态特征,其中,更新前的所述说话人状态特征是基于所述说话人的之前所有句子的文本特征而获取的;
说话人转换模块,用于针对每个所述句子,基于所述句子的说话人以及上一句子的说话人确定所述句子的说话人切换状态;以及
情绪识别模块,用于针对每个所述句子,基于所述句子的上下文特征、所述句子的说话人的说话人状态特征以及所述句子的说话人切换状态,获取所述句子的情绪识别结果。
本发明的另一技术方案如下:提供一种基于循环神经网络的情绪识别装置,所述装置包括处理器、以及与所述处理器耦接的存储器,所述存储器存储有用于实现上述的基于循环神经网络的情绪识别方法的程序指令;所述处理器用于执行所述存储器存储的所述程序指令以进行基于循环神经网络的情绪识别。
本发明的另一技术方案如下:提供一种存储介质,所述存储介质内存储有能够实现上述的基于循环神经网络的情绪识别方法的程序指令。
本发明的有益效果在于:本发明的基于循环神经网络的情绪识别方法、装置及存储介质,获取对话内容中每个句子的文本特征,并将所述句子的文本特征进行编码,以获取每个句子的上下文特征;然后针对每个句子,基于所述句子的文本特征更新所述句子的说话人的说话人状态特征;然后针对每个句子,基于所述句子的说话人以及上一句子的说话人确定所述句子的说话人切换状态;最后针对每个句子,基于所述句子的上下文特征、所述句子的说话人的说话人状态特征以及所述句子的说话人切换状态获取所述句子的情绪识别结果;通过上述方式,在计算情绪标签概率时,通过说话人切换状态形成的切换嵌入强化了句子的上下文特征和说话人状态特征,提高了情绪识别准确率,同时,通过感知对话中的说话人切换状态,能够更加准确地建模说话人之间和说话人自身的依赖关系;基于说话人自身的句子建模说话人状态特征,简化了计算过程,在并未影响情绪识别准确率的前提下提高了计算效率。
【附图说明】
图1为本发明第一实施例的基于循环神经网络的情绪识别方法的流程图;
图2为本发明第一实施例的基于循环神经网络的情绪识别方法中的模型原理图;
图3为本发明第二实施例的基于循环神经网络的情绪识别方法的流程图;
图4为本发明第三实施例的基于循环神经网络的情绪识别装置的结构示意图;
图5为本发明第四实施例的基于循环神经网络的情绪识别装置的结构示意图;
图6为本发明实施例的存储介质的结构示意图。
【具体实施方式】
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
图1是本发明第一实施例的基于循环神经网络的情绪识别方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限。如图1和图2所示,该基于循环神经网络的情绪识别方法包括步骤:
S101,获取对话内容中每个句子的文本特征。
在步骤S101中,首先,采用自然语言工具,比如深度学习框架提供的分词工具,将对话内容中的每个句子进行分词,得到每个句子的词序列。然后选择合适的向量转化模型,例如选择将词表征为实数值向量的GloVe模型,将句子的词序列中的每个词分别转换为实数值向量,V是词向量的维度,例如,V可以为300。具体地,所得句子ui的词序列为{x1,x2,…,xt},其中,t为句子ui的句子长度,xj为句子ui中第j个单词所对应的V维的词向量。
随后,将句子ui的词序列输入至卷积神经网络中,该卷积神经网络作为本实施例的句子编码器,利用句子的各词向量提取句子的文本特征,该卷积神经网络包括一个卷积层、一个汇集层(pooling layer)以及一个全连接层(fully connected layer),卷积层使用多种尺寸不同的卷积过滤器对句子的词序列的n-gram特征进行提取,假设Ui∈R(t×V)表示一个句子的输入,t是句子的长度,V是词向量的维度,xj为句子中第j个单词所对应的V维的词向量,Wa∈RK1×V为卷积过滤器,K1是n-gram的长度,即句子上的滑动窗口的长度,用于在句子的不同位置抽取特征。在一个可选的实施方式中,分别采用高度分别为3、4和5的三种卷积过滤器,每种卷积过滤器的数量为100,每种卷积过滤器对应100个特征图(feature map)。卷积层输出的特征图被输入至汇集层中,首先进行最大池化操作(取最大值操作),提取出每个特征图最强的特征,最大限度减少参数量,随后利用修正线性单元(Relu:Rectified Linear Unit)这个激活函数进行处理,将处理结果输出至全连接层,全连接层输出该句子的文本特征,即句向量ut。
S102,将每个所述句子的文本特征进行编码,以获取每个句子的上下文特征。
在步骤S102中,为了建模对话上下文对当前句子的影响即说话人之间的依赖关系,使用了一个长短期记忆网络作为上下文编码器。该编码器的输入是对话中所有句子的句向量,这些向量由句子编码器产生,输出是融合了上下文信息的句子编码,即当前句子的上下文特征ct。实验表明,由长短期记忆网络构成的上下文编码器可以有效捕获上下文信息,建模了当前句子和对话中其他句子之间的依赖关系。也就是说,在步骤S102中,将对话内容中的句向量进行上下文编码,得到的上下文特征向量为包含句子之间语义关系的文本表示向量。
在一个可选的实施方式中,基于所述句子的文本特征向量,通过长短期记忆模型进行处理,得到所述句子的上下文特征向量。首先,根据所述句子的文本特征向量,通过所述长短期记忆模型,得到所述句子的前向长短期记忆特征向量与后向长短期记忆特征向量;然后,通过所述句子的前向长短期记忆特征向量与后向长短期记忆特征向量的拼接,得到所述句子的上下文特征。
具体地,对于对话内容中的第一个句子,获取所述第一个句子的文本特征向量;将所述第一个句子的文本特征向量输入至第一长短期记忆网络模型中,得到第一输出结果;获取与所述第一个句子相邻的第二个句子的文本特征向量;将所述第一输出结果和所述第二个句子的文本特征向量输入至所述第一长短期记忆网络模型中,得到第二输出结果;针对每个句子,,将上一轮的输出结果以及所述句子的文本特征向量输入至所述第一长短期记忆网络模型中,得到所述句子的上下文特征向量;重复上述步骤,直至得到每个所述句子的上下文特征。
本实施例采用第一长短期记忆网络(LSTM)模型构成的上下文编码器,其中LSTM由三个门组成,“遗忘门,输入门,输出门”,遗忘门决定让那些信息通过一个单元(cell,也可以称为细胞),输入门决定让多少新的信息加入到单元(cell),输出门决定输出什么值。具体地,LSTM在时刻t接收前一时刻的信息时,细胞(LSTM的神经元)首先要决定遗忘掉部分信息,遗忘门控制着遗忘的参数。该门的输入是当前时刻的输入xt和前一时刻的输出ht-1,遗忘门的公式如下所示:
ft=σ(Wf·[ht-1,xt]+bf)
其中ft是遗忘门的循环权重,即用来表示在时间t步,当前网络要遗忘多少信息;σ是激活函数(sigmoid函数),用于把值的范围控制在0到1之间;Wf是遗忘门的输入权重,bf是遗忘门的偏置。
在丢弃无用的信息之后,细胞需要决定吸收哪些新输入的信息,输入门的公式如下所示:
it=σ(Wi·[ht-1,xt]+bi)
其中it是输入门的循环权重,用来表示在时间t步,要往网络中输入多少信息;σ是激活函数(sigmoid函数),用于把值的范围控制在0到1之间;Wi是输入门的输入权重,bf是遗输入门的偏置。
当前时刻细胞候选项:
Ct’=tanh(Wc·[ht-1,xt]+bc),其中,Ct’为细胞的候选项,Wc是细胞候选项的输入权重,xt是当前时刻的输入xt,ht-1是前一时刻的输出,bc是细胞候选项的偏置;tanh是双曲函数,用于把值的范围控制在-1到1之间。
对细胞状态进行更新,得到新的细胞状态,由旧的细胞状态选择性遗忘和候选细胞状态计算得来:
Ct=ft*Ct-1+it*Ct’,其中,其中Ct是新的细胞状态值,即时间t步网络的输出,用来存储当前网络的长记忆;ft是遗忘门的循环权重,Ct-1是上一时刻的细胞状态值,即是时间t-1步网络的输出,用来存储t时间步之前的长记忆;it是输入门的循环权重,用来表示在时间t步,要往网络中输入多少信息;Ct’是当前时刻的细胞候选项,即更新们,用来表示在时间t步,当前网络要更新多少信息。
最后由输出门发挥作用,决定当前时刻隐藏层的输出向量ht,输出门的定义:
ot=σ(Wo·[ht-1,xt]+bo)
其中,ot是输入门的权重,σ是激活函数(sigmoid函数),Wo是输出门的连接权重,bo是输出门的偏置,xt是当前时刻的输入,即时间t步网络的输入;ht-1是前一时刻的输出,即时间t-1步网络的输出,用来存储t时间步之前的短记忆。
当前时刻隐藏层的输出是激活后的细胞状态经由输出门向外输出:
ht=ot*tanh(Ct)
其中,ot是输入门的权重,用来表示在时间t步,当前网络要输出多少信息;Ct是更新后的当前时刻的细胞状态值,ht是当前时刻的输出,即时间t步网络的输出,用来存储当前网络的短记忆;tanh是双曲函数,用于把值的范围控制在-1到1之间。
其中,Wf,Wi,Wc,Wo,bf,bi,bc,bo,是网络的参数,网络通过训练这些参数让性能更优。
S103,针对每个所述句子,基于所述句子的文本特征更新所述句子的说话人的说话人状态特征,其中,更新前的所述说话人状态特征是基于所述说话人的之前所有句子的文本特征而获取的。
在步骤S103中,为了建模对话中说话人的自身依赖关系,本实施例使用了另一个长短期记忆网络作为说话人编码器,为对话的每个参与者(说话人)都设置了相应的说话人状态,每个对话参与者(说话人)的说话人状态仅由该参与者(说话人)自己所说的句子更新。在本实施例中,分别建模每个说话人的历史句子,作为记忆单元,然后通过注意力机制将每个说话人的记忆与当前句子的表示进行融合,从而模拟说话人的状态。针对对话内容中的每个句子,利用该句子对该句子对应的说话人的说话人状态进行更新,具体地,对于当前句子ut,为了描述简单,句子及该句子的句向量均用同一符号表示,当前句子说话人的状态特征由当前句子说话人前一时刻的状态特征以及当前句子的文本特征ut进行更新,该句子ut的说话人为q=q(ut),则说话人q在t时刻的状态特征sq,t由以下公式更新:
sq,t=LSTM(ut)
其中,sq,0初始化为零向量。不同于DialogueRNN和DialogueGCN中相对复杂的、需要考虑其他人所说句子的说话人编码器,本实施例的说话人编码器实现更加简单,效果同样出色。对于其他说话人,其说话人状态特征不更新。
对于一个说话人,其说话人状态的生成可以采用下述方式实现:获取该说话人在对话内容中的多个句子,将所述多个句子的文本特征输入至第二长短期记忆网络模型中,提取该说话人的状态特征。具体地,对于该说话人的第一句子,获取所述第一句子的文本特征向量;将该说话人的初始化特征以及所述第一句子的文本特征向量输入至第二长短期记忆网络模型中,得到第一输出特征;获取与所述第一句子相邻的第二句子的文本特征向量;将所述第一输出特征和所述第二句子的文本特征向量输入至所述第二长短期记忆网络模型中,得到第二输出特征;重复执行上述步骤,直至所述说话人的当前句子,将上一轮的输出特征以及所述当前句子的文本特征向量输入至所述第二长短期记忆网络模型中,得到该说话人的状态特征st。
在一个可选的实施方式中,该说话人的状态特征包含说话人的话语情感信息,通过说话人的状态特征感知该说话人的情绪变化,有利于对话内容中该说话人的句子的情绪识别。
在另一个可选的实施方式中,该说话人的状态特征除了包括话语情感信息,还可以包括该说话人的属性信息,例如,该属性信息包括年龄、性别、兴趣爱好、说话风格、归属地及受教育程度中的一种或多种。
S104,针对每个所述句子,基于所述句子的说话人以及上一句子的说话人确定所述句子的说话人切换状态。
在步骤S104中,为了更加准确地建模说话人之间的依赖(步骤S102)和说话人的自身依赖(步骤S103),需要让模型感知到说话人的切换。基于此目的,本实施例中提出了说话人切换状态的概念。对于对话内容中的当前句子ut,当前句子为第t个句子,其说话人切换状态依赖于t时刻(第t个句子)的说话人q(ut)和t-1时刻(第t-1个句子)的说话人q(ut-1):如果这两个说话人相同,则t时刻(第t个句子)的说话人切换状态为第一数值,否则为第二数值,具体地,第一数值可以为1,第二数值可以为0,以下公式描述了t时刻说话人切换状态bt的计算:
本实施例中使用一个嵌入层G将说话人切换状态嵌入到一个100维的空间,该嵌入层G的参数在模型训练期间更新。
S105,针对每个所述句子,基于所述句子的上下文特征、所述句子的说话人的说话人状态特征以及所述句子的说话人切换状态获取所述句子的情绪识别结果。
在步骤S105中,情绪标签类别包括快乐、悲伤、中立、兴奋、愤怒以及沮丧,对于当前句子而言,将当前句子的上下文特征ct、当前句子的说话人的状态特征st以及说话人切换状态连接在一起形成一个新的向量,将该新的向量输入至一个全连接层,并通过归一化指数函数输出当前句子的每种情绪标签类别的概率,最终输出对话内容中每一句话的情绪标签类别概率分布。
图3是本发明第一实施例的基于循环神经网络的情绪识别方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图3所示的流程顺序为限。如图3所示,该基于循环神经网络的情绪识别方法包括步骤:
S201,获取对话内容中每个句子的文本特征。
S202,将每个所述句子的文本特征进行编码,以获取每个句子的上下文特征。
S203,针对每个所述句子,基于所述句子的文本特征更新所述句子的说话人的说话人状态特征,其中,更新前的所述说话人状态特征是基于所述说话人的之前所有句子的文本特征而获取的。
S204,针对每个所述句子,基于所述句子的说话人以及上一句子的说话人确定所述句子的说话人切换状态。
S205,将所述句子的文本特征、所述句子的上下文特征、所述句子的说话人状态特征以及所述句子的说话人切换特征上传至区块链中,以使得所述区块链对所述句子的文本特征、所述句子的上下文特征、所述句子的说话人状态特征以及所述句子的说话人切换特征进行加密存储。
S206,针对每个所述句子,基于所述句子的上下文特征、所述句子的说话人的说话人状态特征以及所述句子的说话人切换状态获取所述句子的情绪识别结果。
在步骤S205中,分别基于所述句子的文本特征、所述句子的上下文特征、所述句子的说话人状态特征以及所述句子的说话人切换特征得到对应的摘要信息,具体来说,摘要信息由所述句子的文本特征、所述句子的上下文特征、所述句子的说话人状态特征以及所述句子的说话人切换特征进行散列处理得到,比如利用sha256s算法处理得到。将摘要信息上传至区块链可保证其安全性和对用户的公正透明性。用户设备可以从区块链中下载得该摘要信息,以便查证所述句子的文本特征、所述句子的上下文特征、所述句子的说话人状态特征以及所述句子的说话人切换特征是否被篡改。本示例所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
其他步骤具体参见第一实施例的说明,在此不进行一一赘述。
图4是本发明第三实施例的基于循环神经网络的情绪识别装置的结构示意图。如图4所示,该装置30包括句子编码器31、上下文编码器32、说话人编码器33、说话人转换模块34以及情绪识别模块35,其中,句子编码器31用于获取对话内容中每个句子的文本特征;上下文编码器32用于将每个所述句子的文本特征进行编码,以获取每个句子的上下文特征;说话人编码器33用于针对每个所述句子,基于所述句子的文本特征更新所述句子的说话人的说话人状态特征,其中,更新前的所述说话人状态特征是基于所述说话人的之前所有句子的文本特征而获取的;说话人转换模块34用于针对每个所述句子,基于所述句子的说话人以及上一句子的说话人确定所述句子的说话人切换状态;情绪识别模块35用于针对每个所述句子,基于所述句子的上下文特征、所述句子的说话人的说话人状态特征以及所述句子的说话人切换状态获取所述句子的情绪识别结果。
进一步地,句子编码器31用于采用自然语言工具,将对话内容中的每个句子进行分词,得到每个句子的词序列;利用GloVe模型,将所述句子的词序列中的每个词分别转换为对应的词向量;将所述句子的词序列输入至卷积神经网络中,获取每个句子的句向量,将所述句向量作为所述文本特征。进一步地,上下文编码器32用于基于每个所述句子的文本特征,通过第一长短期记忆模型进行处理,得到每个所述句子的上下文特征。更进一步地,上下文编码器32用于获取所述对话内容中的第一个句子的文本特征,将所述第一个句子的文本特征输入至第一长短期记忆网络模型中,得到第一输出结果;获取与所述第一个句子相邻的第二个句子的文本特征,将所述第一输出结果和所述第二个句子的文本特征输入至所述第一长短期记忆网络模型中,得到第二输出结果;针对每个所述句子,重复执行上述步骤,直至所述当前句子,将上一轮句子的输出结果以及所述当前句子的文本特征输入至所述第一长短期记忆网络模型中,得到所述当前句子的上下文特征;重复上述步骤,直至得到每个所述句子的上下文特征。
进一步地,说话人编码器33还用于获取所述说话人在对话内容中的多个句子,将所述多个句子的文本特征输入至第二长短期记忆网络模型中,提取所述说话人的状态特征。更进一步地,说话人编码器33用于获取所述说话人的第一句子的文本特征向量,将所述说话人的初始化特征以及所述第一句子的文本特征向量输入至第二长短期记忆网络模型中,得到第一输出特征;获取与所述第一句子相邻的第二句子的文本特征向量,将所述第一输出特征和所述第二句子的文本特征向量输入至所述第二长短期记忆网络模型中,得到第二输出特征;重复执行上述步骤,直至所述说话人的当前句子,将上一轮的输出特征以及所述当前句子的文本特征向量输入至所述第二长短期记忆网络模型中,得到所述说话人的状态特征。
进一步地,用于当所述句子的说话人与所述上一句子的说话人相同时,将第一数值作为当前句子的说话人切换状态;当所述句子的说话人与所述上一句子的说话人不同时,将第二数值作为所述句子的说话人切换状态。更进一步地,第一数值可以为1,第二数值可以为0。
图5是本发明第四实施例的基于循环神经网络的情绪识别装置的结构示意图。如图5所示,该基于循环神经网络的情绪识别装置40包括处理器41及和处理器41耦接的存储器42。
存储器42存储有用于实现上述任一实施例该基于循环神经网络的情绪识别的程序指令。
处理器41用于执行存储器42存储的程序指令以进行基于循环神经网络的情绪识别。
其中,处理器41还可以称为CPU(Central Processing Unit,中央处理单元)。处理器41可能是一种集成电路芯片,具有信号的处理能力。处理器41还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
参阅图6,图6为本发明实施例的存储介质的结构示意图。本发明实施例的存储介质存储有能够实现上述所有方法的程序指令51,其中,该程序指令51可以以软件产品的形式存储在上述存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式所述方法的全部或部分步骤。而前述的存储装置包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。以上仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围。
以上所述的仅是本发明的实施方式,在此应当指出,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出改进,但这些均属于本发明的保护范围。
Claims (10)
1.一种基于循环神经网络的情绪识别方法,其特征在于,包括:
获取对话内容中每个句子的文本特征;
将每个所述句子的文本特征进行编码,以获取每个句子的上下文特征;
针对每个所述句子,基于所述句子的文本特征更新所述句子的说话人的说话人状态特征,其中,更新前的所述说话人状态特征是基于所述说话人的之前所有句子的文本特征而获取的;
针对每个所述句子,基于所述句子的说话人以及上一句子的说话人确定所述句子的说话人切换状态;
针对每个所述句子,基于所述句子的上下文特征、所述句子的说话人的说话人状态特征以及所述句子的说话人切换状态,获取所述句子的情绪识别结果。
2.根据权利要求1所述的基于循环神经网络的情绪识别方法,其特征在于,所述获取对话内容中每个句子的文本特征,包括:
采用自然语言工具,将对话内容中的每个句子进行分词,得到每个句子的词序列;
利用GloVe模型,将所述句子的词序列中的每个词分别转换为对应的词向量;
将所述句子的词序列输入至卷积神经网络中,获取每个句子的句向量,将所述句向量作为所述文本特征。
3.根据权利要求1所述的基于循环神经网络的情绪识别方法,其特征在于,所述将每个所述句子的文本特征进行编码,以获取每个句子的上下文特征,包括:
基于每个所述句子的文本特征,通过第一长短期记忆模型进行处理,得到每个所述句子的上下文特征。
4.根据权利要求3所述的基于循环神经网络的情绪识别方法,其特征在于,所述基于每个所述句子的文本特征,通过第一长短期记忆模型进行处理,得到每个所述句子的上下文特征,包括:
获取所述对话内容中的第一个句子的文本特征,将所述第一个句子的文本特征输入至第一长短期记忆网络模型中,得到第一输出结果;
获取与所述第一个句子相邻的第二个句子的文本特征,将所述第一输出结果和所述第二个句子的文本特征输入至所述第一长短期记忆网络模型中,得到第二输出结果;
针对每个所述句子,将上一句子的输出结果以及所述句子的文本特征输入至所述第一长短期记忆网络模型中,得到所述句子的上下文特征;
重复上述步骤,直至得到每个所述句子的上下文特征。
5.根据权利要求1所述的基于循环神经网络的情绪识别方法,其特征在于,所述说话人状态特征是通过如下步骤获取的:
获取所述说话人在对话内容中的多个句子,将所述多个句子的文本特征输入至第二长短期记忆网络模型中,提取所述说话人的状态特征。
6.根据权利要求5所述的基于循环神经网络的情绪识别方法,其特征在于,所述获取所述说话人在对话内容中的多个句子,将所述多个句子的文本特征输入至第二长短期记忆网络模型中,提取所述说话人的状态特征,包括:
获取所述说话人的第一句子的文本特征向量,将所述说话人的初始化特征以及所述第一句子的文本特征向量输入至第二长短期记忆网络模型中,得到第一输出特征;
获取与所述第一句子相邻的第二句子的文本特征向量,将所述第一输出特征和所述第二句子的文本特征向量输入至所述第二长短期记忆网络模型中,得到第二输出特征;
重复执行上述步骤,直至所述说话人的当前句子,将上一轮的输出特征以及所述当前句子的文本特征向量输入至所述第二长短期记忆网络模型中,得到所述说话人的状态特征。
7.根据权利要求1所述的基于循环神经网络的情绪识别方法,其特征在于,所述基于所述句子的说话人以及上一句子的说话人确定所述句子的说话人切换状态,包括:
当所述句子的说话人与所述上一句子的说话人相同时,将第一数值作为所述句子的说话人切换状态;
当所述句子的说话人与所述上一句子的说话人不同时,将第二数值作为所述句子的说话人切换状态;
所述基于所述句子的说话人以及上一句子的说话人确定所述句子的说话人切换状态之后,还包括:
将所述句子的文本特征、所述句子的上下文特征、所述句子的说话人状态特征以及所述句子的说话人切换特征上传至区块链中,以使得所述区块链对所述句子的文本特征、所述句子的上下文特征、所述句子的说话人状态特征以及所述句子的说话人切换特征进行加密存储。
8.一种基于循环神经网络的情绪识别装置,其特征在于,所述装置包括:
句子编码器,用于获取对话内容中每个句子的文本特征;
上下文编码器,用于将每个所述句子的文本特征进行编码,以获取每个句子的上下文特征;
说话人编码器,用于针对每个所述句子,基于所述句子的文本特征更新所述句子的说话人的说话人状态特征,其中,更新前的所述说话人状态特征是基于所述说话人的之前所有句子的文本特征而获取的;
说话人转换模块,用于针对每个所述句子,基于所述句子的说话人以及上一句子的说话人确定所述句子的说话人切换状态;以及
情绪识别模块,用于针对每个所述句子,基于所述句子的上下文特征、所述句子的说话人的说话人状态特征以及所述句子的说话人切换状态,获取所述句子的情绪识别结果。
9.一种基于循环神经网络的情绪识别装置,其特征在于,所述装置包括处理器、以及与所述处理器耦接的存储器,所述存储器存储有用于实现如权利要求1~7中任一项所述的基于循环神经网络的情绪识别方法的程序指令;所述处理器用于执行所述存储器存储的所述程序指令以进行基于循环神经网络的情绪识别。
10.一种存储介质,其特征在于,所述存储介质内存储有能够实现如权利要求1~7中任一项所述的基于循环神经网络的情绪识别方法的程序指令。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010785309.1A CN111950275B (zh) | 2020-08-06 | 2020-08-06 | 基于循环神经网络的情绪识别方法、装置及存储介质 |
PCT/CN2020/118498 WO2021135457A1 (zh) | 2020-08-06 | 2020-09-28 | 基于循环神经网络的情绪识别方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010785309.1A CN111950275B (zh) | 2020-08-06 | 2020-08-06 | 基于循环神经网络的情绪识别方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111950275A true CN111950275A (zh) | 2020-11-17 |
CN111950275B CN111950275B (zh) | 2023-01-17 |
Family
ID=73331721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010785309.1A Active CN111950275B (zh) | 2020-08-06 | 2020-08-06 | 基于循环神经网络的情绪识别方法、装置及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111950275B (zh) |
WO (1) | WO2021135457A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112989822A (zh) * | 2021-04-16 | 2021-06-18 | 北京世纪好未来教育科技有限公司 | 识别对话中句子类别的方法、装置、电子设备和存储介质 |
CN113609289A (zh) * | 2021-07-06 | 2021-11-05 | 河南工业大学 | 一种基于多模态对话文本的情感识别方法 |
CN114020897A (zh) * | 2021-12-31 | 2022-02-08 | 苏州浪潮智能科技有限公司 | 一种对话情感识别方法及相关装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114153973A (zh) * | 2021-12-07 | 2022-03-08 | 内蒙古工业大学 | 基于t-m bert预训练模型的蒙古语多模态情感分析方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030182123A1 (en) * | 2000-09-13 | 2003-09-25 | Shunji Mitsuyoshi | Emotion recognizing method, sensibility creating method, device, and software |
DE60213195D1 (de) * | 2002-02-13 | 2006-08-31 | Sony Deutschland Gmbh | Verfahren, System und Computer Programm zur Sprach-/Sprechererkennung unter Verwendung einer Emotionszustandsänderung für die unüberwachte Anpassung des Erkennungsverfahren |
CN101930735A (zh) * | 2009-06-23 | 2010-12-29 | 富士通株式会社 | 语音情感识别设备和进行语音情感识别的方法 |
CN104036776A (zh) * | 2014-05-22 | 2014-09-10 | 毛峡 | 一种应用于移动终端的语音情感识别方法 |
CN107545897A (zh) * | 2016-06-23 | 2018-01-05 | 松下知识产权经营株式会社 | 对话行为推定方法、对话行为推定装置以及程序 |
CN107609009A (zh) * | 2017-07-26 | 2018-01-19 | 北京大学深圳研究院 | 文本情感分析方法、装置、存储介质和计算机设备 |
CN109299267A (zh) * | 2018-10-16 | 2019-02-01 | 山西大学 | 一种文本对话的情绪识别与预测方法 |
CN110956953A (zh) * | 2019-11-29 | 2020-04-03 | 中山大学 | 基于音频分析与深度学习的争吵识别方法 |
CN111274390A (zh) * | 2020-01-15 | 2020-06-12 | 深圳前海微众银行股份有限公司 | 一种基于对话数据的情感原因确定方法及装置 |
JP2020095732A (ja) * | 2016-06-23 | 2020-06-18 | パナソニックIpマネジメント株式会社 | 対話行為推定方法、対話行為推定装置及びプログラム |
CN111339440A (zh) * | 2020-02-19 | 2020-06-26 | 东南大学 | 面向新闻文本基于层级状态神经网络的社会情绪排序方法 |
CN111344717A (zh) * | 2019-12-31 | 2020-06-26 | 深圳市优必选科技股份有限公司 | 交互行为预测方法、智能装置和计算机可读存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107153642A (zh) * | 2017-05-16 | 2017-09-12 | 华北电力大学 | 一种基于神经网络识别文本评论情感倾向的分析方法 |
WO2019100350A1 (en) * | 2017-11-24 | 2019-05-31 | Microsoft Technology Licensing, Llc | Providing a summary of a multimedia document in a session |
CN110162636B (zh) * | 2019-05-30 | 2020-05-19 | 中森云链(成都)科技有限责任公司 | 基于d-lstm的情绪原因识别方法 |
CN110704588B (zh) * | 2019-09-04 | 2023-05-30 | 平安科技(深圳)有限公司 | 基于长短期记忆网络的多轮对话语义分析方法和系统 |
-
2020
- 2020-08-06 CN CN202010785309.1A patent/CN111950275B/zh active Active
- 2020-09-28 WO PCT/CN2020/118498 patent/WO2021135457A1/zh active Application Filing
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030182123A1 (en) * | 2000-09-13 | 2003-09-25 | Shunji Mitsuyoshi | Emotion recognizing method, sensibility creating method, device, and software |
DE60213195D1 (de) * | 2002-02-13 | 2006-08-31 | Sony Deutschland Gmbh | Verfahren, System und Computer Programm zur Sprach-/Sprechererkennung unter Verwendung einer Emotionszustandsänderung für die unüberwachte Anpassung des Erkennungsverfahren |
CN101930735A (zh) * | 2009-06-23 | 2010-12-29 | 富士通株式会社 | 语音情感识别设备和进行语音情感识别的方法 |
CN104036776A (zh) * | 2014-05-22 | 2014-09-10 | 毛峡 | 一种应用于移动终端的语音情感识别方法 |
CN107545897A (zh) * | 2016-06-23 | 2018-01-05 | 松下知识产权经营株式会社 | 对话行为推定方法、对话行为推定装置以及程序 |
JP2020095732A (ja) * | 2016-06-23 | 2020-06-18 | パナソニックIpマネジメント株式会社 | 対話行為推定方法、対話行為推定装置及びプログラム |
CN107609009A (zh) * | 2017-07-26 | 2018-01-19 | 北京大学深圳研究院 | 文本情感分析方法、装置、存储介质和计算机设备 |
CN109299267A (zh) * | 2018-10-16 | 2019-02-01 | 山西大学 | 一种文本对话的情绪识别与预测方法 |
CN110956953A (zh) * | 2019-11-29 | 2020-04-03 | 中山大学 | 基于音频分析与深度学习的争吵识别方法 |
CN111344717A (zh) * | 2019-12-31 | 2020-06-26 | 深圳市优必选科技股份有限公司 | 交互行为预测方法、智能装置和计算机可读存储介质 |
CN111274390A (zh) * | 2020-01-15 | 2020-06-12 | 深圳前海微众银行股份有限公司 | 一种基于对话数据的情感原因确定方法及装置 |
CN111339440A (zh) * | 2020-02-19 | 2020-06-26 | 东南大学 | 面向新闻文本基于层级状态神经网络的社会情绪排序方法 |
Non-Patent Citations (1)
Title |
---|
张钰莎 等: "基于MFCC特征提取和改进SVM的语音情感数据挖掘分类识别方法研究", 《计算机应用与软件》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112989822A (zh) * | 2021-04-16 | 2021-06-18 | 北京世纪好未来教育科技有限公司 | 识别对话中句子类别的方法、装置、电子设备和存储介质 |
CN112989822B (zh) * | 2021-04-16 | 2021-08-27 | 北京世纪好未来教育科技有限公司 | 识别对话中句子类别的方法、装置、电子设备和存储介质 |
CN113609289A (zh) * | 2021-07-06 | 2021-11-05 | 河南工业大学 | 一种基于多模态对话文本的情感识别方法 |
CN114020897A (zh) * | 2021-12-31 | 2022-02-08 | 苏州浪潮智能科技有限公司 | 一种对话情感识别方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111950275B (zh) | 2023-01-17 |
WO2021135457A1 (zh) | 2021-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111950275B (zh) | 基于循环神经网络的情绪识别方法、装置及存储介质 | |
CN109918680B (zh) | 实体识别方法、装置及计算机设备 | |
CN109887484B (zh) | 一种基于对偶学习的语音识别与语音合成方法及装置 | |
JP2020520492A (ja) | 文書要約自動抽出方法、装置、コンピュータ機器及び記憶媒体 | |
CN106448670A (zh) | 基于深度学习和强化学习的自动回复对话系统 | |
CN110163181B (zh) | 手语识别方法及装置 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
JP6677419B2 (ja) | 音声対話方法及び装置 | |
CN109344242B (zh) | 一种对话问答方法、装置、设备及存储介质 | |
CN115309877B (zh) | 对话生成方法、对话模型训练方法及装置 | |
CN111914076B (zh) | 一种基于人机对话的用户画像构建方法、系统、终端及存储介质 | |
CN113987179A (zh) | 基于知识增强和回溯损失的对话情绪识别网络模型、构建方法、电子设备及存储介质 | |
CN112131368B (zh) | 对话生成方法、装置、电子设备及存储介质 | |
CN112214585A (zh) | 回复消息生成方法、系统、计算机设备及存储介质 | |
CN112632244A (zh) | 一种人机通话的优化方法、装置、计算机设备及存储介质 | |
CN111767697B (zh) | 文本处理方法、装置、计算机设备以及存储介质 | |
CN113590078A (zh) | 虚拟形象合成方法、装置、计算设备及存储介质 | |
CN110942774A (zh) | 一种人机交互系统、其对话方法、介质和设备 | |
CN114360502A (zh) | 语音识别模型的处理方法、语音识别方法及装置 | |
CN109979461B (zh) | 一种语音翻译方法及装置 | |
CN111563161A (zh) | 一种语句识别方法、语句识别装置及智能设备 | |
CN109829040B (zh) | 一种智能对话方法及装置 | |
CN111241820A (zh) | 不良用语识别方法、装置、电子装置及存储介质 | |
CN111178082A (zh) | 一种句向量生成方法、装置及电子设备 | |
CN109241262B (zh) | 基于关键词生成回复语句的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |