CN111522917A - 对话情感检测方法及装置、存储介质、电子设备 - Google Patents

对话情感检测方法及装置、存储介质、电子设备 Download PDF

Info

Publication number
CN111522917A
CN111522917A CN202010318221.9A CN202010318221A CN111522917A CN 111522917 A CN111522917 A CN 111522917A CN 202010318221 A CN202010318221 A CN 202010318221A CN 111522917 A CN111522917 A CN 111522917A
Authority
CN
China
Prior art keywords
capsule
vector
emotion
current
capsule vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010318221.9A
Other languages
English (en)
Inventor
何从庆
朱翔宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JD Digital Technology Holdings Co Ltd
Original Assignee
JD Digital Technology Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JD Digital Technology Holdings Co Ltd filed Critical JD Digital Technology Holdings Co Ltd
Priority to CN202010318221.9A priority Critical patent/CN111522917A/zh
Publication of CN111522917A publication Critical patent/CN111522917A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本公开属于自然语言处理技术领域,涉及一种对话情感检测方法及装置、存储介质、电子设备。该方法包括:利用门控循环神经网络模型得到分别与上一轮对话文本和当前对话文本对应的上一胶囊向量和当前胶囊向量;通过归一化指数函数对上一胶囊向量和当前胶囊向量进行归一化处理,得到与当前胶囊向量对应的交互胶囊向量;利用动态路由算法对交互胶囊向量进行非线性压缩变换得到情感胶囊向量,以确定当前对话文本的情感。本公开通过对上一轮对话文本和当前对话文本的交互处理确定当前对话文本的情感,可以精准捕捉当前对话文本的上下文关系和话语重要性关系,多维度考虑情感检测的影响因素,提高了情感检测的准确性,也提高了情感检测的可解释性。

Description

对话情感检测方法及装置、存储介质、电子设备
技术领域
本公开涉及自然语言处理技术领域,尤其涉及一种对话情感检测方法与对话情感检测装置、计算机可读存储介质及电子设备。
背景技术
对话情感识别在情感性对话系统中具有不可否定的重要性,在情感性对话系统中,机器人能够理解用户的情绪和情感,从而产生情感上连贯和有同理心的反应。目前,有许多学者在对话情感识别任务中做了相关的工作。
但是,在实现本发明过程中发明人发现现有的研究工作大部分都是使用递归神经网络处理对话序列,然而这些工作忽略了多轮对话之间的交互关系,导致对话情感检测的准确度低和可解释性差的问题,而这对于用户的下一轮情感起着至关重要的作用。Ghosal等人基于图神经网络提出了对话图卷积网络,利用图卷积传播多轮对话之间的传播关系,然而这项工作没有考虑对话中的话语重要性关系。
鉴于此,本领域亟需开发一种新的对话情感检测方法及装置。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种对话情感检测方法、对话情感检测装置、计算机可读存储介质及电子设备,进而至少在一定程度上克服由于相关技术的限制而导致的情感检测的准确度低和可解释性差等问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本发明实施例的第一个方面,提供一种对话情感检测方法,所述方法包括:利用门控循环神经网络模型得到分别与上一轮对话文本和当前对话文本对应的上一胶囊向量和当前胶囊向量;通过归一化指数函数对所述上一胶囊向量和所述当前胶囊向量进行归一化处理,得到与所述当前胶囊向量对应的交互胶囊向量;利用动态路由算法对所述交互胶囊向量进行非线性压缩变换得到情感胶囊向量,以确定所述当前对话文本的情感。
在本发明的一种示例性实施例中,所述利用门控循环神经网络模型得到分别与上一轮对话文本和当前对话文本对应的上一胶囊向量和当前胶囊向量,包括:获取上一轮对话文本和当前对话文本,并对所述上一轮对话文本和所述当前对话文本进行分词处理,得到对应的分词处理结果;将所述分词处理结果进行映射,得到分别与所述上一轮对话文本和所述当前对话文本对应的词向量;将所述词向量输入至门控循环神经网络模型中,得到与所述上一轮对话文本和所述当前对话文本对应的上一胶囊向量和当前胶囊向量。
在本发明的一种示例性实施例中,所述将所述分词处理结果进行映射,得到分别与所述上一轮对话文本和所述当前对话文本对应的词向量,包括:将所述分词处理结果转化为数字序列,一个所述数字序列对应所述分词处理结果中的一个词;利用词向量生成模型对所述数字序列进行向量转换,得到与所述数字序列对应的词向量。
在本发明的一种示例性实施例中,所述利用动态路由算法对所述交互胶囊向量进行非线性压缩变换得到情感胶囊向量,以确定所述当前对话文本的情感,包括:利用动态路由算法对所述交互胶囊向量进行非线性压缩变换得到情感胶囊向量;通过损失函数计算所述情感胶囊向量的损失,以根据所述损失确定所述当前对话文本的情感。
在本发明的一种示例性实施例中,所述利用动态路由算法对所述交互胶囊向量进行非线性压缩变换得到情感胶囊向量,包括:利用动态路由算法中的参数确定与所述交互胶囊向量对应的胶囊副本向量和耦合系数;对所述胶囊副本向量和所述耦合系数进行加权求和计算,得到待变换情感胶囊向量;对所述待变换情感胶囊向量进行非线性压缩变换,得到情感胶囊向量。
在本发明的一种示例性实施例中,所述参数包括共享权值和路由归一化指数。
在本发明的一种示例性实施例中,所述利用动态路由算法中的参数确定与所述交互胶囊向量对应的胶囊副本向量和耦合系数,包括:通过动态路由算法中的所述共享权值对所述交互胶囊向量进行计算,得到胶囊副本向量;利用所述动态路由算法中的所述路由归一化指数确定与所述交互胶囊向量对应的耦合系数。
根据本发明实施例的第二个方面,提供一种对话情感检测装置,所述装置包括:文本处理模块,被配置为利用门控循环神经网络模型得到分别与上一轮对话文本和当前对话文本对应的上一胶囊向量和当前胶囊向量;向量归一模块,被配置为通过归一化指数函数对所述上一胶囊向量和所述当前胶囊向量进行归一化处理,得到与所述当前胶囊向量对应的交互胶囊向量;情感确定模块,被配置为利用动态路由算法对所述交互胶囊向量进行非线性压缩变换得到情感胶囊向量,以确定所述当前对话文本的情感。
根据本发明实施例的第三个方面,提供一种电子设备,包括:处理器和存储器;其中,存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现上述任意示例性实施例的对话情感检测方法。
根据本发明实施例的第四个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意示例性实施例中的对话情感检测方法。
由上述技术方案可知,本发明示例性实施例中的对话情感检测方法、对话情感检测装置、计算机存储介质及电子设备至少具备以下优点和积极效果:
在本公开的示例性实施例提供的方法及装置中,通过对上一轮对话文本和当前对话文本的交互处理,可以确定当前对话文本的情感。一方面,精准捕捉当前对话文本的上下文关系和话语重要性关系,多维度考虑情感检测的影响因素,提高了情感检测的准确性,也节约了情感检测的检测资源和成本;另一方面,根据该方法可以训练并优化对应模型,便于后续多轮对话中的情感检测,提高了情感检测效率,也提高了情感检测的可解释性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出本公开示例性实施例中一种对话情感检测方法的流程图;
图2示意性示出本公开示例性实施例中得到上一胶囊向量和当前胶囊向量的方法的流程示意图;
图3示意性示出本公开示例性实施例中得到词向量的方法的流程示意图;
图4示意性示出本公开示例性实施例中确定当前对话文本的情感的方法的流程示意图;
图5示意性示出本公开示例性实施例中得到情感胶囊向量的方法的流程示意图;
图6示意性示出本公开示例性实施例中得到胶囊副本向量和耦合系数的方法的流程示意图;
图7示意性示出本公开示例性实施例中应用场景下对话情感检测方法的流程示意图;
图8示意性示出本公开示例性实施例中对话情感检测模型的模型结构图;
图9示意性示出本公开示例性实施例中对话情感检测模型中交互注意力层的结构图;
图10示意性示出本公开示例性实施例中一种对话情感检测装置的结构示意图;
图11示意性示出本公开示例性实施例中一种用于实现对话情感检测方法的电子设备;
图12示意性示出本公开示例性实施例中一种用于实现对话情感检测方法的计算机可读存储介质。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
本说明书中使用用语“一个”、“一”、“该”和“所述”用以表示存在一个或多个要素/组成部分/等;用语“包括”和“具有”用以表示开放式的包括在内的意思并且是指除了列出的要素/组成部分/等之外还可存在另外的要素/组成部分/等;用语“第一”和“第二”等仅作为标记使用,不是对其对象的数量限制。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。
针对相关技术中存在的问题,本公开提出了一种对话情感检测方法。图1示出了对话情感检测方法的流程图,如图1所示,对话情感检测方法至少包括以下步骤:
步骤S110.利用门控循环神经网络模型得到分别与上一轮对话文本和当前对话文本对应的上一胶囊向量和当前胶囊向量。
步骤S120.通过归一化指数函数对上一胶囊向量和当前胶囊向量进行归一化处理,得到与当前胶囊向量对应的交互胶囊向量。
步骤S130.利用动态路由算法对交互胶囊向量进行非线性压缩变换得到情感胶囊向量,以确定当前对话文本的情感。
在本公开的示例性实施例中,通过对上一轮对话文本和当前对话文本的交互处理,可以确定当前对话文本的情感。一方面,精准捕捉当前对话文本的上下文关系和话语重要性关系,多维度考虑情感检测的影响因素,提高了情感检测的准确性,也节约了情感检测的检测资源和成本;另一方面,根据该方法可以训练并优化对应模型,便于后续多轮对话中的情感检测,提高了情感检测效率,也提高了情感检测的可解释性。
下面对对话情感检测方法的各个步骤进行详细说明。
在步骤S110中,利用门控循环神经网络模型得到分别与上一轮对话文本和当前对话文本对应的上一胶囊向量和当前胶囊向量。
在本公开的示例性实施例中,当两个或者两人以上进行对话时,可以将其中一人的发言看作一轮,以进一步确定对应的胶囊向量。其中,胶囊向量实质上是一个多维向量。举例而言,当上一轮对话文本的句长为5,且针对该句长中的一个词设置为10维向量,那么与该上一轮对话文本对应的上一胶囊向量即为一个5×10维的向量,当前胶囊向量同理,在此不再赘述。具体根据对话得到对应的胶囊向量的方式如图2所示。
在可选的实施例中,图2示出了得到上一胶囊向量和当前胶囊向量的方法的流程示意图,如图2所示,该方法至少包括以下步骤:在步骤S210中,获取上一轮对话文本和当前对话文本,并对上一轮对话文本和当前对话文本进行分词处理,得到对应的分词处理结果。举例而言,当前发言人为A时,可以确定此时A说话文本为当前对话文本,而在A之前是由B发言,可以将B的说话文本确定为上一轮对话文本。进一步的,对上一轮对话文本和当前对话文本进行分词处理,得到分词处理结果。分词处理就是将连续的字序列按照一定的规范重新组合成词序列的过程,具体的可以利用分词处理模型、分词处理算法和中文分词工具进行处理,本示例性实施例对此不做特殊限定。
在步骤S220中,将分词处理结果进行映射,得到分别与上一轮对话文本和当前对话文本对应的词向量。
在可选的实施例中,图3示出了得到词向量的方法的流程示意图,如图3所示,该方法至少包括以下步骤:在步骤S310中,将分词处理结果转化为数字序列,一个数字序列对应分词处理结果中的一个词。具体的,对分词处理结果的转换可以是将分词处理结果中的每个词都对应给定一个数值,因此确定出分词处理结果中的每个词的数值时,就可以对应得到数字序列。举例而言,该数字序列可以是
Figure BDA0002460292870000071
其中,k表示第k轮对话,n表示该轮对话的句子长度。
在步骤S320中,利用词向量生成模型对数字序列进行向量转换,得到与数字序列对应的词向量。在将自然语言交给机器学习中的算法处理时,首先要将语言数学化。向量则是把语言抽象出来交给机器处理的东西,可以认为向量是对机器输入的主要方式。词向量就是用来将语言中的词进行数学化的一种方式,亦即将一个词表示成一个向量。在众多的词向量生成模型中,谷歌的Word2vec模型是应用较为广泛的。其中,W ord2vec模型是一群用来产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。网络以词表现,并且需猜测相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示词对词之间的关系,该向量为神经网络之隐藏层。因此,利用word2vec模型对得到的数字序列进行映射处理,可以得到对应的词向量。
在本示例性实施例中,利用word2vec模型对分词处理结果对应的数字序列进行映射处理,可以精准捕获对话中的有用句法和语义特性,有利于准确确定对话文本的情感。
在步骤S230中,将词向量输入至门控循环神经网络模型中,得到与上一轮对话文本和当前对话文本对应的上一胶囊向量和当前胶囊向量。门控循环神经网络模型是在简单循环神经网络的基础上对网络的结构做了调整,加入了门控机制,用来控制神经网络中信息的传递,可以精准捕捉当前会话的上下文信息。具体的,可以通过公式(1)~(4)实现:
zt=σ(Wzxt+Uzht-1) (1)
rt=σ(Wtxt+Utht-1) (2)
Figure BDA0002460292870000081
Figure BDA0002460292870000082
其中,在时间步t时,zt是更新门,xt为第t个时间步的输入向量,Wz是随机初始化的权重矩阵,ht-1保存的是前一个时间步t-1的信息,Uz同样是随机初始化的权重矩阵;更新门将着两部分信息相加并进入到激活函数σ中。rt是重置门,Ut同样是随机初始化的权重矩阵;更新门将着两部分信息相加并进入到激活函数σ中。
Figure BDA0002460292870000083
表示当前记忆内容,首先计算重置门rt和ht-1的哈达玛乘积,即rt和ht-1的对应元素的乘积,W是随机初始化的权重矩阵,U是随机初始化的权重矩阵;然后将两部分乘积输入激活函数tanh中,得到当前记忆内容。最后一步,计算当前t时刻需要的ht,zt是更新门的激活结果,分别计算(1-zt)与ht-1的哈达玛乘积表示前一时间步保留到最终记忆的信息,该信息加上当前记忆
Figure BDA0002460292870000084
保留至最终记忆的信息就等于最终门控循环单元输出的内容。
因此,当将与上一轮对话文本和当前对话文本对应的词向量分别输入至门控循环神经网络模型时,可以输出对应的上一胶囊向量和当前胶囊向量。
在本示例性实施例中,利用门控循环神经网络模型对上一轮对话文本和当前对话文本进行处理,可以得到对应的上一胶囊向量和当前胶囊向量,便于精准捕捉当前对话的上下文信息。
在步骤S120中,通过归一化指数函数对上一胶囊向量和当前胶囊向量进行归一化处理,得到与当前胶囊向量对应的交互胶囊向量。
在本公开的一种示例性实施例中,归一化指数函数可以是softmax函数。具体的,首先利用门控循环神经网络模型输出与uk-1对应的上一胶囊向量hk-1,再经过交互注意力层得到mk-1,利用门控循环神经网络模型输出与uk对应的当前胶囊向量hk,经过交互注意力机制得到交互注意力矩阵,即hk·(mk-1)T;然后经过softmax函数进行归一化处理,得到交互胶囊向量为gk。具体的可以参考公式(5):
gk=softmax(hk·(mk-1)T) (5)
其中,mk-1表示根据上一轮对话文本得到交互胶囊向量,因此,当k=1时,m1=g1
进一步的,将归一化处理结果与hk相乘得到当前胶囊向量对应的交互胶囊向量,具体的可以参考公式(6):
mk=hk·gk (6)
在步骤S130中,利用动态路由算法对交互胶囊向量进行非线性压缩变换得到情感胶囊向量,以确定当前对话文本的情感。
在本公开的一种示例性实施例中,当根据当前胶囊向量对应的交互胶囊向量确定当前对话文本的情感时,可以将交互注意力层得到的交互胶囊向量作为底层胶囊,然后经过动态路由机制得到高层的情感胶囊向量作为输出。每种情感胶囊向量作为一种情况,因此可以对应划分为开心胶囊、沮丧胶囊、中性胶囊、生气胶囊、激动胶囊和悲伤胶囊。
在可选的实施例中,图4示出了确定当前对话文本的情感的方法的流程示意图,如图4所示,该方法至少包括以下步骤:在步骤S410中,利用动态路由算法对交互胶囊向量进行非线性压缩变换得到情感胶囊向量。
在可选的实施例中,图5示出了得到情感胶囊向量的方法的流程示意图,如图5所示,该方法至少包括:在步骤S510中,利用动态路由算法中的参数确定与交互胶囊向量对应的胶囊副本向量和耦合系数。
在可选的实施例中,参数包括共享权值和路由归一化指数。
在可选的实施例中,图6示出了得到胶囊副本向量和耦合系数的方法的流程示意图,如图6所示,该方法至少包括以下步骤:在步骤S610中,通过动态路由算法中的共享权值对交互胶囊向量进行计算,得到胶囊副本向量。交互胶囊向量映射到胶囊副本向量可以采用共享权值的方法,即在每一个交互胶囊向量映射到所有的胶囊副本向量时采用唯一的参数矩阵W。具体计算方式可以参考公式(7):
Figure BDA0002460292870000101
在步骤S620中,利用动态路由算法中的路由归一化指数与交互胶囊向量对应的耦合系数。其中,路由归一化指数是随机初始化的向量,具体的耦合系数计算方式可以参考公式(8):
Figure BDA0002460292870000102
在本示例性实施例中,通过共享权值和路由归一化指数可以计算得到胶囊副本向量和耦合系数,计算方式简单,并可以进一步得到情感胶囊向量。
在步骤S520中,对胶囊副本向量和耦合系数进行加权求和计算,得到待变换情感胶囊向量。当计算得到胶囊副本向量和耦合系数之后,可以根据胶囊副本向量和耦合系数进行加权求和计算得到待变换情感胶囊向量。具体的,可以参考公式(9):
Figure BDA0002460292870000103
在步骤S530中,对待变换情感胶囊向量进行非线性压缩变换,得到情感胶囊向量。对得到的待变换情感胶囊向量进行非线性压缩变换可以得到最终的情感胶囊向量。具体的,可以参考公式(10):
Figure BDA0002460292870000104
其中,
Figure BDA0002460292870000105
表示第k轮对话的情感胶囊,一共生成6个情感胶囊,分别为开心胶囊、沮丧胶囊、中性胶囊、生气胶囊、激动胶囊、悲伤胶囊。这里用
Figure BDA0002460292870000106
(即向量的大小)表示胶囊属于每类的概率大小。对于每轮对话胶囊的概率用y表示,亦即
Figure BDA0002460292870000107
其中,v1,v2,v3,v4,v5,v6分别表示开心胶囊、沮丧胶囊、中性胶囊、生气胶囊、激动胶囊、悲伤胶囊的概率大小。
Figure BDA0002460292870000111
其中,m+和m-是超参数,一般设置为m+=0.9和m-=0.1。λ表示如果这个情感胶囊不存在进行降权,可以阻止最初的学习缩减胶囊的长度。在本发明中,λ=0.5。
在步骤S420中,通过损失函数计算所述情感胶囊向量的损失,以根据损失确定所述当前对话文本的情感。
当计算出的损失函数的数值较大,表明当前预测准确度较低,可以对应调整动态路由算法中的共享权值和路由归一化指数;当计算出的损失函数的数值较小,在可允许的误差范围内,可以确定当前确定的情感胶囊向量十分准确,无需调整,可以直接得到当前对话文本的情感。
在本示例性实施例中,利用动态路由算法和损失函数计算和优化情感胶囊向量的准确度,以确保确定情感的真实性较好,检测精度较高。
下面结合一应用场景对本公开实施例中的对话情感检测方法做出详细说明。
图7示出了在应用场景下对话情感检测方法的流程示意图,如图7所示,在步骤S710中,获取数据集,并处理数据集,可以将数据集划分为训练集、验证集和测试集。其中,数据集可以包括多轮对话数据,以及每轮对话对应的情感作为训练数据。其中,情感一般划分为6类,分别为开心、沮丧、中性、生气、激动和悲伤。
在步骤S720中,构建交互注意力机制的文本对话情感检测网络模型,并利用训练数据训练该模型。
图8示出了对话情感检测模型的模型结构图,如图8所示,该模型包括三层结构。其中,810表示对话胶囊层,820表示交互注意力层,830表示情感胶囊层,uH-1表示上一轮对话文本,uH表示当前对话文本。具体的,对话胶囊层810的处理方式与步骤S110相同,情感胶囊层830的处理方式与步骤S130相同,在此不再赘述。
图9示出了对话情感检测模型中交互注意力层的结构图,如图9所示,当接受到对话胶囊层810输出的上一胶囊向量和当前胶囊向量时,可以利用归一化指数函数进行归一化处理,得到与当前胶囊向量对应的交互胶囊向量。
在步骤S730中,将测试集输入训练好的交互注意力机制的文本对话情感检测网络模型中,可以得到与当前会话者的而当前对话文本的情感。
在本公开的示例性实施例中,通过对上一轮对话文本和当前对话文本的交互处理,可以确定当前对话文本的情感。一方面,可以精准捕捉当前对话文本的上下文关系和话语重要性关系,多维度考虑情感检测的影响因素,提高了情感检测的准确性,也节约了情感检测的检测资源和成本;另一方面,根据该方法可以训练并优化对应模型,便于后续多轮对话中的情感检测,提高了情感检测效率,也提高了情感检测的可解释性。
此外,在本公开的示例性实施例中,还提供一种对话情感检测装置。
图10示出了对话情感检测装置的结构示意图,如图10所示,对话情感检测装置1000可以包括:文本处理模块1010、向量归一模块1020和情感确定模块1030。其中:
文本处理模块1010,被配置为利用门控循环神经网络模型得到分别与上一轮对话文本和当前对话文本对应的上一胶囊向量和当前胶囊向量;向量归一模块1020,被配置为通过归一化指数函数对上一胶囊向量和当前胶囊向量进行归一化处理,得到与当前胶囊向量对应的交互胶囊向量;情感确定模块1030,被配置为利用动态路由算法对交互胶囊向量进行非线性压缩变换得到情感胶囊向量,以确定当前对话文本的情感。
上述对话情感检测装置1000的具体细节已经在对应的对话情感检测方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及对话情感检测装置1000的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
下面参照图11来描述根据本发明的这种实施例的电子设备1100。图11显示的电子设备1100仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图11所示,电子设备1100以通用计算设备的形式表现。电子设备1100的组件可以包括但不限于:上述至少一个处理单元1110、上述至少一个存储单元1120、连接不同系统组件(包括存储单元1120和处理单元1110)的总线1130、显示单元1140。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1110执行,使得所述处理单元1110执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施例的步骤。
存储单元1120可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)1121和/或高速缓存存储单元1122,还可以进一步包括只读存储单元(ROM)1123。
存储单元1120还可以包括具有一组(至少一个)程序模块1125的程序/实用工具1124,这样的程序模块1125包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1130可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1100也可以与一个或多个外部设备1300(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1100交互的设备通信,和/或与使得该电子设备1100能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1150进行。并且,电子设备1100还可以通过网络适配器1160与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1140通过总线1130与电子设备1100的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1100使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施例的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施例中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施例的步骤。
参考图12所示,描述了根据本发明的实施例的用于实现上述方法的程序产品1200,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。

Claims (10)

1.一种对话情感检测方法,其特征在于,所述方法包括:
利用门控循环神经网络模型得到分别与上一轮对话文本和当前对话文本对应的上一胶囊向量和当前胶囊向量;
通过归一化指数函数对所述上一胶囊向量和所述当前胶囊向量进行归一化处理,得到与所述当前胶囊向量对应的交互胶囊向量;
利用动态路由算法对所述交互胶囊向量进行非线性压缩变换得到情感胶囊向量,以确定所述当前对话文本的情感。
2.根据权利要求1所述的对话情感检测方法,其特征在于,所述利用门控循环神经网络模型得到分别与上一轮对话文本和当前对话文本对应的上一胶囊向量和当前胶囊向量,包括:
获取上一轮对话文本和当前对话文本,并对所述上一轮对话文本和所述当前对话文本进行分词处理,得到对应的分词处理结果;
将所述分词处理结果进行映射,得到分别与所述上一轮对话文本和所述当前对话文本对应的词向量;
将所述词向量输入至门控循环神经网络模型中,得到与所述上一轮对话文本和所述当前对话文本对应的上一胶囊向量和当前胶囊向量。
3.根据权利要求2所述的对话情感检测方法,其特征在于,所述将所述分词处理结果进行映射,得到分别与所述上一轮对话文本和所述当前对话文本对应的词向量,包括:
将所述分词处理结果转化为数字序列,一个所述数字序列对应所述分词处理结果中的一个词;
利用词向量生成模型对所述数字序列进行向量转换,得到与所述数字序列对应的词向量。
4.根据权利要求1所述的对话情感检测方法,其特征在于,所述利用动态路由算法对所述交互胶囊向量进行非线性压缩变换得到情感胶囊向量,以确定所述当前对话文本的情感,包括:
利用动态路由算法对所述交互胶囊向量进行非线性压缩变换得到情感胶囊向量;
通过损失函数计算所述情感胶囊向量的损失,以根据所述损失确定所述当前对话文本的情感。
5.根据权利要求4所述的对话情感检测方法,其特征在于,所述利用动态路由算法对所述交互胶囊向量进行非线性压缩变换得到情感胶囊向量,包括:
利用动态路由算法中的参数确定与所述交互胶囊向量对应的胶囊副本向量和耦合系数;
对所述胶囊副本向量和所述耦合系数进行加权求和计算,得到待变换情感胶囊向量;
对所述待变换情感胶囊向量进行非线性压缩变换,得到情感胶囊向量。
6.根据权利要求5所述的对话情感检测方法,其特征在于,所述参数包括共享权值和路由归一化指数。
7.根据权利要求6所述的对话情感检测方法,其特征在于,所述利用动态路由算法中的参数确定与所述交互胶囊向量对应的胶囊副本向量和耦合系数,包括:
通过动态路由算法中的所述共享权值对所述交互胶囊向量进行计算,得到胶囊副本向量;
利用所述动态路由算法中的所述路由归一化指数确定与所述交互胶囊向量对应的耦合系数。
8.一种对话情感检测装置,其特征在于,包括:
文本处理模块,被配置为利用门控循环神经网络模型得到分别与上一轮对话文本和当前对话文本对应的上一胶囊向量和当前胶囊向量;
向量归一模块,被配置为通过归一化指数函数对所述上一胶囊向量和所述当前胶囊向量进行归一化处理,得到与所述当前胶囊向量对应的交互胶囊向量;
情感确定模块,被配置为利用动态路由算法对所述交互胶囊向量进行非线性压缩变换得到情感胶囊向量,以确定所述当前对话文本的情感。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7中任意一项所述的对话情感检测方法。
10.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器被配置为经由执行所述可执行指令来执行权利要求1-7中任意一项所述的对话情感检测方法。
CN202010318221.9A 2020-04-21 2020-04-21 对话情感检测方法及装置、存储介质、电子设备 Pending CN111522917A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010318221.9A CN111522917A (zh) 2020-04-21 2020-04-21 对话情感检测方法及装置、存储介质、电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010318221.9A CN111522917A (zh) 2020-04-21 2020-04-21 对话情感检测方法及装置、存储介质、电子设备

Publications (1)

Publication Number Publication Date
CN111522917A true CN111522917A (zh) 2020-08-11

Family

ID=71903397

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010318221.9A Pending CN111522917A (zh) 2020-04-21 2020-04-21 对话情感检测方法及装置、存储介质、电子设备

Country Status (1)

Country Link
CN (1) CN111522917A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109101537A (zh) * 2018-06-27 2018-12-28 北京慧闻科技发展有限公司 基于深度学习的多轮对话数据分类方法、装置和电子设备
CN109885670A (zh) * 2019-02-13 2019-06-14 北京航空航天大学 一种面向话题文本的交互注意力编码情感分析方法
CN110032630A (zh) * 2019-03-12 2019-07-19 阿里巴巴集团控股有限公司 话术推荐设备、方法及模型训练设备
CN110321417A (zh) * 2019-05-30 2019-10-11 山东大学 一种对话生成方法、系统、可读存储介质及计算机设备
CN110619044A (zh) * 2019-08-16 2019-12-27 华南师范大学 一种情感分析方法、系统、存储介质及设备
CN110826336A (zh) * 2019-09-18 2020-02-21 华南师范大学 一种情感分类方法、系统、存储介质及设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109101537A (zh) * 2018-06-27 2018-12-28 北京慧闻科技发展有限公司 基于深度学习的多轮对话数据分类方法、装置和电子设备
CN109885670A (zh) * 2019-02-13 2019-06-14 北京航空航天大学 一种面向话题文本的交互注意力编码情感分析方法
CN110032630A (zh) * 2019-03-12 2019-07-19 阿里巴巴集团控股有限公司 话术推荐设备、方法及模型训练设备
CN110321417A (zh) * 2019-05-30 2019-10-11 山东大学 一种对话生成方法、系统、可读存储介质及计算机设备
CN110619044A (zh) * 2019-08-16 2019-12-27 华南师范大学 一种情感分析方法、系统、存储介质及设备
CN110826336A (zh) * 2019-09-18 2020-02-21 华南师范大学 一种情感分类方法、系统、存储介质及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
邱锡鹏: "《神经网络与深度学习》", 31 March 2020, 机械工业出版社, pages: 208 - 210 *

Similar Documents

Publication Publication Date Title
CN111198937B (zh) 对话生成及装置、计算机可读存储介质、电子设备
US11861307B2 (en) Request paraphrasing system, request paraphrasing model and request determining model training method, and dialogue system
WO2019200923A1 (zh) 基于拼音的语义识别方法、装置以及人机对话系统
CN111339255B (zh) 目标情感分析的方法、模型训练方法、介质和设备
CN113205817B (zh) 语音语义识别方法、系统、设备及介质
CN111312245B (zh) 一种语音应答方法、装置和存储介质
US10810993B2 (en) Sample-efficient adaptive text-to-speech
CN110427625B (zh) 语句补全方法、装置、介质及对话处理系统
CN112214591B (zh) 一种对话预测的方法及装置
CN111625634B (zh) 词槽识别方法及装置、计算机可读存储介质、电子设备
US20220300718A1 (en) Method, system, electronic device and storage medium for clarification question generation
CN114676234A (zh) 一种模型训练方法及相关设备
CN115309877B (zh) 对话生成方法、对话模型训练方法及装置
CN111653270A (zh) 语音处理方法、装置、计算机可读存储介质及电子设备
CN112905772B (zh) 语义相关性分析方法、装置及相关产品
CN110913229A (zh) 基于rnn的解码器隐状态确定方法、设备和存储介质
CN115983294B (zh) 翻译模型的训练方法、翻译方法及设备
CN112349294A (zh) 语音处理方法及装置、计算机可读介质、电子设备
CN109002498B (zh) 人机对话方法、装置、设备及存储介质
CN112989794A (zh) 模型训练方法、装置、智能机器人和存储介质
CN116050425A (zh) 建立预训练语言模型的方法、文本预测方法及装置
CN112818688B (zh) 文本处理方法、装置、设备及存储介质
CN111522917A (zh) 对话情感检测方法及装置、存储介质、电子设备
CN116306612A (zh) 一种词句生成方法及相关设备
CN113948060A (zh) 一种网络训练方法、数据处理方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Room 221, 2 / F, block C, 18 Kechuang 11th Street, Daxing District, Beijing, 100176

Applicant after: Jingdong Technology Holding Co.,Ltd.

Address before: Room 221, 2 / F, block C, 18 Kechuang 11th Street, Daxing District, Beijing, 100176

Applicant before: Jingdong Digital Technology Holding Co.,Ltd.

Address after: Room 221, 2 / F, block C, 18 Kechuang 11th Street, Daxing District, Beijing, 100176

Applicant after: Jingdong Digital Technology Holding Co.,Ltd.

Address before: Room 221, 2 / F, block C, 18 Kechuang 11th Street, Daxing District, Beijing, 100176

Applicant before: JINGDONG DIGITAL TECHNOLOGY HOLDINGS Co.,Ltd.