CN111949761A - 考虑情感和主题的对话问题生成方法和系统、存储介质 - Google Patents
考虑情感和主题的对话问题生成方法和系统、存储介质 Download PDFInfo
- Publication number
- CN111949761A CN111949761A CN202010642828.2A CN202010642828A CN111949761A CN 111949761 A CN111949761 A CN 111949761A CN 202010642828 A CN202010642828 A CN 202010642828A CN 111949761 A CN111949761 A CN 111949761A
- Authority
- CN
- China
- Prior art keywords
- emotion
- keywords
- topic
- block
- keyword
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 129
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000002996 emotional effect Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 230000005012 migration Effects 0.000 claims description 3
- 238000013508 migration Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 230000009286 beneficial effect Effects 0.000 abstract description 10
- 230000001149 cognitive effect Effects 0.000 abstract description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241000288105 Grus Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
Description
技术领域
本发明涉及对话问题生成领域,具体涉及一种考虑情感和主题的对话问题生成方法和系统、存储介质。
背景技术
对话问题生成是近几年新兴的一个任务。在该任务中给定一篇文章和一段基于文章的历史问答对来生成下一个问题,而生成的问题应与历史对话连贯且与文章的主题关联。对话式问题生成可用于人机对话,辅导系统,儿童故事机童话提问,问诊系统等。
目前,对话问题生成,旨在通过多轮对话逐渐地接收和传递文章信息。例如,申请号为CN201910267076.3的发明专利:一种基于强化动态推理的对话式问题生成方法。该发明专利提供的对话问题生成模型根据段落和对话历史记录生成问题,提出了一种称为强化动态推理网络的新方法,该方法基于通用的编码器-解码器框架,但以动态方式并入了推理过程,以更好地理解所询问的内容和接下来要询问的内容。
但是,上述模型只考虑了根据对话历史记录来提高对话问题生成的连贯性,而没有考虑到文章的情感和主题。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种考虑情感和主题的对话问题生成方法和系统、存储介质,解决了现有的对话问题生成模型只考虑根据对话历史记录来提高对话问题生成的连贯性,而没有考虑到文章的情感和主题的技术问题。
(二)技术方案
为实现以上目的,本发明通过以下技术方案予以实现:
一种考虑情感和主题的对话问题生成方法,包括
获取文章P和与文章P相关的对话历史记录Hi;
将文章P分割成N个段落块Pc,将段落块Pc和对话历史记录Hi输入预先训练的问题焦点预测模型,确定问题焦点段落块Fi;
优选的,预先训练的问题焦点预测模型包括嵌入层,上下文层,注意力层,建模层和输出层;
对问题焦点段落块Fi进行编码,得到问题焦点段落块隐藏状态序列 h。
用预训练的LDA模型预测焦点段落块Fi的情感类别,用情感迁移网络模型预测焦点段落块Fi的主题类别。
采用GloVe模型处理情感类别和主题类别中的所有关键词,得到关键词嵌入k={ket,ktp},其中ket表示情感关键词嵌入,ktp表示主题关键词嵌入;
采用注意力机制求出关键词嵌入k与问题焦点段落块Fi的相关性 c={cet,ctp},其中cet表示情感关键词相关性,ctp表示主题关键词相关性;
求得情感类别的所有关键词条件概率p1:
和主题类别中的所有关键词条件概率p2:
优选的,情感类别包括七个类别:快乐,喜欢,悲伤,愤怒,恐惧,厌恶和惊奇。
一种考虑情感和主题的对话问题生成系统,包括:
获取模块,用于获取文章P和与文章P相关的对话历史记录Hi;
确定模块,用于将文章P分割成N个段落块Pc,将段落块Pc和对话历史记录Hi输入预先训练的问题焦点预测模型,确定问题焦点段落块 Fi;
一种计算机可读存储介质,其上存储有计算机程序,在处理器执行计算机程序时可实现上述任一项的方法。
(三)有益效果
本发明提供了一种考虑情感和主题的对话问题生成方法和系统、存储介质。与现有技术相比,具备以下有益效果:
本发明首先将文章P分割成N个段落块Pc,并将段落块Pc和对话历史记录Hi输入预先训练的问题焦点预测模型,确定问题焦点段落块 Fi;然后在所述问题焦点段落块Fi中预测情感关键词和主题关键词最后根据所述情感关键词和主题关键词最终生成对话问题q。本发明将文章P的情感和主题纳入对话问题生成的环节中,与现有的对话问题生成模型只考虑根据对话历史记录相比,进一步提高了对话问题生成的连贯性,且生成的问题的认知水平不再局限于浅层级,而是达到了生成了更具逻辑性和深层意义的问题的有益效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中一种考虑情感和主题的对话问题生成方法流程示意图;
图2为本发明实施例中对话问题生成的流程图;
图3为本发明实施例中一种考虑情感和主题的对话问题生成系统的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例通过提供一种考虑情感和主题的对话问题生成方法和系统、存储介质,解决了现有的对话问题生成模型只考虑根据对话历史记录来提高对话问题生成的连贯性,而没有考虑到文章的情感和主题的技术问题,实现生成更具连贯性、逻辑性和深层意义的问题的有益效果。
本申请实施例中的技术方案为解决所述技术问题,总体思路如下:
本发明实施例首先将文章P分割成N个段落块Pc,并将段落块Pc和对话历史记录Hi输入预先训练的问题焦点预测模型,确定问题焦点段落块Fi;然后在所述问题焦点段落块Fi中预测情感关键词和主题关键词最后根据所述情感关键词和主题关键词最终生成对话问题q。由此,将文章P的情感和主题纳入对话问题生成的环节中,与现有的对话问题生成模型只考虑根据对话历史记录相比,进一步提高了对话问题生成的连贯性,且生成的问题的认知水平不再局限于浅层级,而是达到了生成了更具逻辑性和深层意义的问题的有益效果。
为了更好的理解所述技术方案,下面将结合说明书附图以及具体的实施方式对所述技术方案进行详细的说明。
实施例:
如图1所示,本发明实施例提供了一种考虑情感和主题的对话问题生成方法,包括:
获取文章P和与所述文章P相关的对话历史记录Hi;
将所述文章P分割成N个段落块Pc,将所述段落块Pc和对话历史记录Hi输入预先训练的问题焦点预测模型,确定问题焦点段落块Fi;
由此,将文章P的情感和主题纳入对话问题生成的环节中,与现有的对话问题生成模型只考虑根据对话历史记录相比,进一步提高了对话问题生成的连贯性,且生成的问题的认知水平不再局限于浅层级,而是达到了生成了更具逻辑性和深层意义的问题的有益效果。
具体包括:
步骤一:获取文章P和对话历史记录Hi。
获取文章P和与文章P相关的对话历史记录Hi,所述文章P和对话历史记录Hi可以从网络,书籍或者其他任意可以获取的地方获取。
步骤二:将所述文章P分割成N个段落块Pc,将所述段落块Pc和对话历史记录Hi输入预先训练的问题焦点预测模型,确定问题焦点段落块Fi。
上述问题焦点预测模型包括:嵌入层,上下文层,注意力层,建模层和输出层。
2.1嵌入层
计算机处理文本为了得到单词之间的语义信息,需要将文本表示成由实数组成的向量,这样可以通过统计学和数学公式来计算单词间的语义信息。
嵌入层对每个单词进行处理,采用的词向量工具是Glove,基于全局词频统计的词表征工具。它可以把一个单词表示成一个由实数组成的向量,向量可以捕捉单词之间的一些语义特性,如相似性、类比性。
将文章P分割成N个段落块Pc,则文章P可表示为P= (P1,…,PN),其中Pc表示文章P中的第C个段落块,C∈(1,…,N)。采用GloVe(d=300)向量作为词嵌入,将段落块Pc映射成第一词向量序列其中表示第一词向量序列中第i个词的d维词嵌入向量,m表示段落块Pc包含m个词。
2.2上下文层
上下文层采用Bi-GRU模型,Bi-GRU是GRU模型从两个相反的方向对序列进行编码,然后链接两个GRU的状态,形成自身的状态。
2.3注意力层
其中,表示第i轮对话时,对第c个段落块编码后隐藏状态序列中的第t个词,t=1,…,m;表示第i轮对话时,对对话历史记录Hi编码后隐藏序列中的第j个词,j=1,…,n;是可训练参数。将与合并输入公式(1)中能够度量与的相关性,即得到注意力权值tanh函数可以将一个实数,映射到(0,1)的区间。
2.4建模层
2.5输出层
本步骤确定最终生成的问题中需要的关键词,所述关键词包括情感关键词和主题关键词,从相应的词典中匹配获得。
上述相应的词典分为情感词典和主题词典。其中,本发明实施例使用的情感词典是《大连理工大学情感本体库》,其中包含27,466个情感关键词,包括七个类别:快乐,喜欢,悲伤,愤怒,恐惧,厌恶和惊奇;主题词典使用预训练潜在狄利克雷分配(LDA)获得,包括十个类别,其中每个类别包括100个关键词。
较一般的关键词预测方法直接使用编码器预测关键词的隐藏序列不同,本发明实施例采用基于先验知识的序列注意机制来补充编码器中的信息不足。由于类别(情感或主题)是知识表示的高级抽象,因此将上述词典中的类别信息用作此处提到的先验知识。具体包括:
3.1段落编码
将上述问题焦点段落块Fi进行编码,编码器中使用的RNN是Bi- LSTM,Bi-LSTM是LSTM模型从两个相反的方向对序列进行编码,然后链接两个LSTM的状态,形成自身的状态。
将问题焦点段落块序列Fi=(f1,f2,...,fT)输入到Bi-LSTM编码器中,其中f表示序列中的一个词,T表示序列总长度。序列中第k个词fk的隐藏状态将更新为:
是fk通过LSTM前向传播在第k个时间步得到的隐藏状态,是 fk通过LSTM后向传播在第T-k+1个时间步得到的隐藏状态,这里都初始化为零向量。得到第k个词的隐藏状态此时hk包含了上下文信息。将编码后得到的问题焦点段落块隐藏状态序列表示为h=(h1,h2,...,hT)。循环神经网络每个循环单元当前时间步的隐藏状态hk由该时间步的输入fk和上一个时间步的隐藏状态决定。
3.2问题结构预测:
本步骤旨在检测字典中的情感关键词和主题关键词是否应出现在对话问题q中。本发明实施例定义了以下四种特定情况:
qs=0:没有关键词,采用常规的编码器-解码器模型。
qs=1:只有主题关键词,用异步编码器从主题关键词开始生成问题。
qs=2:只有情感关键词,用异步编码器从情感关键词开始生成问题。
qs=3:有主题关键词和情感关键词。用本发明实施例提出的双向异步解码器生成问题。
其中,qs表示问题结构的状态信号变量。
用预训练的LDA模型预测主题类别。模型是根据主题词典训练得到,将问题焦点段落块Fi输入上述LDA模型预测主题类别。
用情感迁移网络模型预测情感类别,该模型基于情感词典构建和训练词典匹配卷积神经网络,将问题焦点段落块Fi和情感词典输入训练好的词典匹配卷积神经网络,得到情感类别。
根据两个模型判断问题焦点段落块是否有主题类别和情感类别从而预测问题的结构,获得主题类别和情感类别中的所有关键词。
3.3关键词预测
3.3.1计算相关性
为了将先验知识整合到关键词预测的过程中,将上一步得到的主题类别和情感类别中的所有关键词用GloVe(d=300)向量作为关键词嵌入k={ket,ktp},其中ket表示情感关键词嵌入,ktp表示主题关键词嵌入。并采用注意力机制求出关键词嵌入k与问题焦点段落块Fi的相关性,具体的相关性计算过程如公式(7)-(9)所示。
其中,*∈{et,tp}代表情感关键词或主题关键词,公式中的参数其右上角加星号表示其代表情感关键词或主题关键词的参数。k表示关键词嵌入,当求上式求情感关键词与问题焦点段落块的相关性时,k*就表示情感关键词或者主题关键词嵌入。Vα,Wα,Uα是可训练参数。hi表示编码后的问题焦点段落块隐藏状态序列中的单词。由k*和hi预测两者的相关性,得到注意力权值ei。
对注意力权值ei进行归一化得到关键词注意力权重αi。
将关键词注意力权重αi与编码后的问题焦点段落块隐藏状态序列中的单词hi加权求和,此时得到的结果就是关键词嵌入k={ket,ktp}) 与问题焦点段落块Fi的相关性c。
3.3.2预测关键词
求出关键词嵌入k={ket,ktp})与问题焦点段落块Fi的相关性c后,预测问题焦点段落块Fi中的关键词,其关键词的条件概率分别通过公式 (10)和(11)来计算。
公式(10)和(11)都可以看作一个多类分类器,其中,h是编码后的问题焦点段落块隐藏状态序列,w1表示所述情感类别中的关键词,,w2表示所述主题类别中的关键词,cet和ctp是由公式(9)计算出的关键词嵌入k={ket,ktp})与问题焦点段落块Fi的相关性。是可训练参数,softmax用于多分类过程中,它将多个神经元的输出映射到(0,1)区间内,可以看成概率来理解从而进行多分类。
最终的问题同时具有情感关键词和主题关键词,因此一个至关重要的问题是如何基于两个关键词实现问题生成。
对于有两个关键词的情况时,需要考虑情感关键词和主题关键词是位于中间序列的哪一侧,有两种情况:一种是主题关键词位于中间序列左侧,情感关键词位于中间序列右侧;一种是情感关键词位于中间序列左侧,主题关键词位于中间序列右侧。这里使用双向异步解码器,该解码器利用情感和主题都通用的句法约束从两侧的关键词异步生成问题。假设问题是其中qmd是两个关键词的中间序列,qce,qct表示通过情感关键词和主题关键词两侧的部分。
4.1中间序列的生成
中间序列的生成分为两步异步策略。首先处理情感关键词以形成包含情感信息的序列。然后使用了情感注意力机制,使用隐序列来控制下一步的生成。表示情感关键词和主题关键词。表示引入情感关键词后在第i个时间步的解码状态。表示引入主题关键词后在第j个时间步的解码状态。
中间序列的生成如公式(12)所示,依次从j=1到j=K生成中间序列qmd。中间序列的第j个时间步生成的词由上一个时间步生成的词第j个时间步的主题关键词解码状态和第j个时间步的情感注意力单元输入解码器中求得。
把每个时间步求得的注意力权重与对应时间步的情感关键词解码状态加权求和得到了情感注意力单元。
4.2关键词两侧序列的生成
生成中间序列后,将中间序列和情感关键词连接起来形成一个新的序列ymd,f,将中间序列和主题关键词连接起来形成新的序列,且去对这个新序列进行反向排序生成一个反向序列ymd,b,然后分别解码正向序列和反向序列得到qce,qct。
其中,qmd,f,qmd,b分别是中间部分的前向形式和反向形式。h是编码后的问题焦点段落块隐藏状态序列。
pf,pb代表用LSTM网络来解码从编码器输出的序列来生成前向序列和反向序列,具体公式如下:
其中,Ws,Wk是可训练参数,ck是在第k个时间步的基于注意力解码状态。
bk是循环神经网络在第k个时间步的状态变量,由如下公式得到:
bk=LSTM2(qk-1,bk-1) (21)
ck=∑i=1,…,T ai,khi (22)
加权系数ai,k由如下公式求得,其中Wh是可训练参数。
4.3方向的选择
因为得到的qct是反向序列,所以再重新对qct进行反向排序得到正向序列qct,f。将qce和qct,f连接起来形成一个序列。当主题关键词在中间序列左侧,情感关键词在中间序列右侧时形成序列qf。当情感关键词在中间序列左侧,主题关键词在中间序列右侧时形成序列qb生成的序列qf,qf和序列qb长度均为T′。
这里的决策网络使用的是具有sigmoid功能的全层来选择问题的方向,Sigmoid函数单增以及反函数单增等性质,其常被用作神经网络的激活函数,将变量映射到0,1之间。由此最终生成同时考虑主题和情感关键词的问题,其中Wd为可训练参数。具体公式如下所示:
基于上述对步骤四的介绍,本发明实施例最终生成同时考虑主题和情感关键词的问题,生成的问题更具有深层语义。以下给出步骤四的一个具体示例,具体内容如下所述:
问题焦点段落块:他用两手攀着上面,两脚再向上缩;他肥胖的身子向左微倾,显出努力的样子。这时我看见他的背影,我的泪很快地流下来了。
主题关键词:背影
情感关键词:泪水
对话问题生成的流程图如图2所示。
最终生成的问题:为什么此时我看见他的背影会使我的泪水很快地流下来?
如图3所示,本发明实施例还提供一种考虑情感和主题的对话问题生成系统,具体包括:
获取模块,用于获取文章P和与所述文章P相关的对话历史记录 Hi;
确定模块,用于将所述文章P分割成N个段落块Pc,将所述段落块 Pc和对话历史记录Hi输入预先训练的问题焦点预测模型,确定问题焦点段落块Fi;
可理解的是,本发明实施例提供的考虑情感和主题的对话问题生成系统与本发明实施例提供的考虑情感和主题的对话问题生成方法相对应,其有关内容的解释、举例和有益效果等部分可以参考考虑情感和主题的对话问题生成方法中的相应部分,此处不再赘述。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,在处理器执行所述计算机程序时可实现上述对话问题生成方法。
综上所述,与现有技术相比,具备以下有益效果:
1、本发明实施例首先将文章P分割成N个段落块Pc,并将段落块 Pc和对话历史记录Hi输入预先训练的问题焦点预测模型,确定问题焦点段落块Fi;然后在所述问题焦点段落块Fi中预测情感关键词和主题关键词最后根据所述情感关键词和主题关键词最终生成对话问题q。如此一来,将文章P的情感和主题纳入对话问题生成的环节中,与现有的对话问题生成模型只考虑根据对话历史记录相比,进一步提高了对话问题生成的连贯性,且生成的问题的认知水平不再局限于浅层级,而是达到了生成了更具逻辑性和深层意义的问题的有益效果。
2、本发明实施例考虑对话问题生成中的主题,有利于生成更有意义的问题;考虑对话问题生成中的情感,一方面能够调动回答者的积极性,另一方面也能提出反映文章段落中想突出表达重点的问题。
3、本发明实施例由于引用了先验知识,能够产生不同表达形式的对话问题,同时由于采用主题词典和情感词典预测文章段落块的主题和情感,基于先验知识能够生成具有推理性的问题。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
2.如权利要求1所述的考虑情感和主题的对话问题生成方法,其特征在于,所述预先训练的问题焦点预测模型包括嵌入层,上下文层,注意力层,建模层和输出层;
采用GloVe模型处理所述情感类别和主题类别中的所有关键词,得到关键词嵌入k={ket,ktp},其中ket表示情感关键词嵌入,ktp表示主题关键词嵌入;
采用注意力机制求出所述关键词嵌入k与所述问题焦点段落块Fi的相关性c={cet,ctp},其中cet表示情感关键词相关性,ctp表示主题关键词相关性;
求得所述情感类别的所有关键词条件概率p1:
和主题类别中的所有关键词条件概率p2:
8.如权利要求4所述的考虑情感和主题的对话问题生成方法,其特征在于,所述情感类别包括七个类别:快乐,喜欢,悲伤,愤怒,恐惧,厌恶和惊奇。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,在处理器执行所述计算机程序时可实现权利要求1~8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010642828.2A CN111949761B (zh) | 2020-07-06 | 2020-07-06 | 考虑情感和主题的对话问题生成方法和系统、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010642828.2A CN111949761B (zh) | 2020-07-06 | 2020-07-06 | 考虑情感和主题的对话问题生成方法和系统、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111949761A true CN111949761A (zh) | 2020-11-17 |
CN111949761B CN111949761B (zh) | 2023-12-26 |
Family
ID=73340258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010642828.2A Active CN111949761B (zh) | 2020-07-06 | 2020-07-06 | 考虑情感和主题的对话问题生成方法和系统、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111949761B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112765333A (zh) * | 2021-01-08 | 2021-05-07 | 山东师范大学 | 基于情感与提示词结合的自动对话生成方法及系统 |
CN112925896A (zh) * | 2021-04-04 | 2021-06-08 | 河南工业大学 | 一种基于联合解码的话题扩展情感对话生成方法 |
CN113128206A (zh) * | 2021-04-26 | 2021-07-16 | 中国科学技术大学 | 基于单词重要性加权的问题生成方法 |
CN114385802A (zh) * | 2022-01-10 | 2022-04-22 | 重庆邮电大学 | 一种融合主题预测和情感推理的共情对话生成方法 |
CN114692605A (zh) * | 2022-04-20 | 2022-07-01 | 东南大学 | 一种融合句法结构信息的关键词生成方法及装置 |
CN116186420A (zh) * | 2023-05-04 | 2023-05-30 | 南开大学 | 一种基于用户偏好的个性化新闻标题生成方法 |
CN116863935A (zh) * | 2023-09-04 | 2023-10-10 | 深圳有咖互动科技有限公司 | 语音识别方法、装置、电子设备与计算机可读介质 |
CN117556832A (zh) * | 2023-11-23 | 2024-02-13 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种基于语义约束的情感支持对话双向生方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108681610A (zh) * | 2018-05-28 | 2018-10-19 | 山东大学 | 生成式多轮闲聊对话方法、系统及计算机可读存储介质 |
US20180329884A1 (en) * | 2017-05-12 | 2018-11-15 | Rsvp Technologies Inc. | Neural contextual conversation learning |
US20190243917A1 (en) * | 2018-02-05 | 2019-08-08 | International Business Machines Corporation | Cognitive Ranking of Terms Used During a Conversation |
-
2020
- 2020-07-06 CN CN202010642828.2A patent/CN111949761B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180329884A1 (en) * | 2017-05-12 | 2018-11-15 | Rsvp Technologies Inc. | Neural contextual conversation learning |
US20190243917A1 (en) * | 2018-02-05 | 2019-08-08 | International Business Machines Corporation | Cognitive Ranking of Terms Used During a Conversation |
CN108681610A (zh) * | 2018-05-28 | 2018-10-19 | 山东大学 | 生成式多轮闲聊对话方法、系统及计算机可读存储介质 |
Non-Patent Citations (1)
Title |
---|
邓立明;魏晶晶;吴运兵;余小燕;廖祥文;: "基于知识图谱与循环注意力网络的视角级情感分析", 模式识别与人工智能, no. 06 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112765333A (zh) * | 2021-01-08 | 2021-05-07 | 山东师范大学 | 基于情感与提示词结合的自动对话生成方法及系统 |
CN112925896A (zh) * | 2021-04-04 | 2021-06-08 | 河南工业大学 | 一种基于联合解码的话题扩展情感对话生成方法 |
CN113128206A (zh) * | 2021-04-26 | 2021-07-16 | 中国科学技术大学 | 基于单词重要性加权的问题生成方法 |
CN114385802A (zh) * | 2022-01-10 | 2022-04-22 | 重庆邮电大学 | 一种融合主题预测和情感推理的共情对话生成方法 |
CN114692605A (zh) * | 2022-04-20 | 2022-07-01 | 东南大学 | 一种融合句法结构信息的关键词生成方法及装置 |
CN116186420A (zh) * | 2023-05-04 | 2023-05-30 | 南开大学 | 一种基于用户偏好的个性化新闻标题生成方法 |
CN116186420B (zh) * | 2023-05-04 | 2023-06-27 | 南开大学 | 一种基于用户偏好的个性化新闻标题生成方法 |
CN116863935A (zh) * | 2023-09-04 | 2023-10-10 | 深圳有咖互动科技有限公司 | 语音识别方法、装置、电子设备与计算机可读介质 |
CN116863935B (zh) * | 2023-09-04 | 2023-11-24 | 深圳有咖互动科技有限公司 | 语音识别方法、装置、电子设备与计算机可读介质 |
CN117556832A (zh) * | 2023-11-23 | 2024-02-13 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种基于语义约束的情感支持对话双向生方法 |
CN117556832B (zh) * | 2023-11-23 | 2024-04-09 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种基于语义约束的情感支持对话双向生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111949761B (zh) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111949761B (zh) | 考虑情感和主题的对话问题生成方法和系统、存储介质 | |
CN110427490B (zh) | 一种基于自注意力机制的情感对话生成方法与装置 | |
CN108763284B (zh) | 一种基于深度学习和主题模型的问答系统实现方法 | |
CN111368996B (zh) | 可传递自然语言表示的重新训练投影网络 | |
CN111160467B (zh) | 一种基于条件随机场和内部语义注意力的图像描述方法 | |
CN106448670A (zh) | 基于深度学习和强化学习的自动回复对话系统 | |
CN111858931A (zh) | 一种基于深度学习的文本生成方法 | |
CN113569932A (zh) | 一种基于文本层级结构的图像描述生成方法 | |
CN112115687A (zh) | 一种结合知识库中的三元组和实体类型的生成问题方法 | |
CN113297364A (zh) | 一种面向对话系统中的自然语言理解方法及装置 | |
CN111145914B (zh) | 一种确定肺癌临床病种库文本实体的方法及装置 | |
CN112527966A (zh) | 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 | |
CN110633473B (zh) | 基于条件随机场的隐式篇章关系识别方法与系统 | |
CN113435211A (zh) | 一种结合外部知识的文本隐式情感分析方法 | |
CN110597968A (zh) | 一种回复选择方法及装置 | |
CN115617972B (zh) | 一种机器人对话方法、装置、电子设备及存储介质 | |
CN114358201A (zh) | 基于文本的情感分类方法和装置、计算机设备、存储介质 | |
WO2023231513A1 (zh) | 对话内容的生成方法及装置、存储介质、终端 | |
CN113887836B (zh) | 一种融合事件环境信息的叙述性事件预测方法 | |
CN114429122A (zh) | 一种基于循环注意力的方面级情感分析系统和方法 | |
CN114817494A (zh) | 基于预训练和注意力交互网络的知识型检索式对话方法 | |
US11715291B2 (en) | Establishment of general-purpose artificial intelligence system | |
CN111274359B (zh) | 基于改进vhred与强化学习的查询推荐方法及系统 | |
CN115171870A (zh) | 一种基于m-BERT预训练模型的就诊引导提示方法及系统 | |
CN112579739A (zh) | 基于ELMo嵌入与门控自注意力机制的阅读理解方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |