CN114492464A - 一种基于双向异步序列的对话生成方法及系统 - Google Patents
一种基于双向异步序列的对话生成方法及系统 Download PDFInfo
- Publication number
- CN114492464A CN114492464A CN202210083371.5A CN202210083371A CN114492464A CN 114492464 A CN114492464 A CN 114492464A CN 202210083371 A CN202210083371 A CN 202210083371A CN 114492464 A CN114492464 A CN 114492464A
- Authority
- CN
- China
- Prior art keywords
- answer
- text
- dialog
- generating
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000002457 bidirectional effect Effects 0.000 title claims abstract description 11
- 239000013598 vector Substances 0.000 claims abstract description 101
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 8
- 238000012937 correction Methods 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 2
- 230000004048 modification Effects 0.000 claims description 2
- 238000013519 translation Methods 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 9
- 230000008451 emotion Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000003062 neural network model Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000013604 expression vector Substances 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000013100 final test Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于双向异步序列的对话生成方法,包括:S1获取对话文本,识别对话文本中的关键词,并生成所述关键词对应的词向量;S2基于S1中获得的词向量,生成对话文本的语句向量;S3将S2中获得的对话文本的语句向量,与知识问答库中样本问句的语句向量计算相似度,生成包括多个候选答案的答案集以及候选答案对应的词向量;S4基于S3中生成的答案集以及对应的词向量,通过双向异步序列算法,获得初始回答文本;S5对初始回答文本进行修正,输出最终的回答文本。本发明还提供了一种实施上述方法的系统。通过本发明的方法生成的回答文本附带有更多拓展内容,通过修正算法避免了重复用词的问题,进一步提高了回答文本的质量。
Description
技术领域
本发明涉及人工智能、神经网络与自然语言处理领域,尤其涉及一种基于双向异步序列的对话生成方法及系统。
背景技术
人机对话一直是自然语言处理的一个热门研究领域,多样性和不确定性是人机对话更“真实”的关键因素,且得益于神经网络的发展,数据驱动生成式对话模型在灵活性和交互自由度方面显示出巨大潜力。
在神经网络广泛应用之前,对话生成任务的主要方法依赖于统计方法和检索方法,不仅受限于特定领域,而且在大部分任务中需要人为设置规则进行导向。在神经网络出现后,尤其是卷积神经网络在图像处理领域广泛应用和循环神经网络在文本处理领域取得优秀成果后,将神经网络用于对话生成也成为热点研究项目。相对于传统的统计方法、检索方法和指定规则方法,利用神经网络进行对话生成所受的限制更低,可以在任意数据集上进行学习,并且可以取得充分拟合后的优良效果。即使用特定领域数据集,或者数据集包含大量噪声,神经网络模型依旧能够充数据集中抽取知识。并且随着多种深度学习框架的开发和开源,使得神经网络模型变得更加容易编写,更进一步的推动了神经网络模型用于对话生成的热潮。
但是现有由数据驱动的神经网路对话生成模型的性能并不佳,主要由3个方面的问题:
(1)模型倾向于毫无意义的安全普适的句子,例如“某物”和“我不知道”。这些回复是合理的,但是几乎不包含有价值的知识信息,其中产生的原因是解码器借助波束搜索倾向于选择生成一个具有最大估计概率的安全回复。
(2)编码器不能捕捉足够的知识信息来提供给解码器进行解码。
(3)由于人类多种语言的复杂性,概率式生成的质量通常难以达到语言语义学的要求。
专利文献CN113705255A公开了一种语料翻译方法、装置及电子设备,其中方法包括:第一神经网络模型对语料样本进行第一语料翻译处理任务,得到基于语料样本的前序词生成的第一语料翻译结果;第二神经网络模型对语料样本进行第二语料翻译处理任务,得到基于语料样本的上下文词集合生成的第二语料翻译结果,最后基于两个翻译结果生成翻译语句。该方法对同一句话进行翻译,通过不同的神经网络进行识别后,通过类似于完型填空的方式对翻译语句进行填充。该方法可以保证输出的翻译语句内容更加丰富,但是用于两个网络互不关联,导致生成的第一语料翻译结果与第二语料翻译结果之间的关联度不高,可能会出现两个内容毫无关联的情况,使得整个翻译语句变得毫无意义。
专利文献CN111782788A公开了一种面向开放域对话系统的情感回复自用生成方法,包括基于词嵌入表和VAD情感词典对语料库中每个样本的输入和回复语句进行预处理得到输入与回复的词嵌入序列和情感嵌入序列;将词嵌入和情感嵌入拼接对词嵌入进行扩充并向模型引入回复的情感分布信息,将拼接序列向模型引入回复的情感分布信息,将拼接序列在编码器中编码得到输入和回复包含情感信息的语义表示向量;最后通过语义表示向量预测条件先验分布和后验分布的近似并采样潜变量,通过潜变量重构回复和回复的情感分布。该方法通过采样概率生成多个回复,基于模型与VAD字典,生成具有情感的回复语句。该方法只能针对问题语句进行识别输入对应的回复语句,输出的回复语句可能会因为采样结果过于相似导致输出语句出现重复用词的情况。
发明内容
为了解决上述问题,本发明提供了一种基于双向异步序列的对话生成方法,该方法通过反向解码器和正向编码器生成具有一定关联度的前半部回答文本和后半部回答文本,从而避免出现无意义的语句;更加一步的通过惩罚权重计算方法来裁剪回答文本中无意义的重复词,从而提高回答文本的质量。
一种基于双向异步序列的对话生成方法,包括:
S1获取对话文本,识别对话文本中的关键词,并生成所述关键词对应的词向量;
S2基于S1中获得的词向量,生成对话文本的语句向量;
S3将S2中获得的对话文本的语句向量,与知识问答库中样本问句的语句向量计算相似度,生成包括多个候选答案的答案集以及候选答案对应的词向量,其中候选答案数量由人为设定,数量越高则最终输出内容的相关信息更丰富,数量越少则最终输出内容更加符合对话文本的语义;
S4基于S3获得的答案集中候选答案以及对应的词向量,通过双向异步序列算法,获得初始回答文本;
S5对初始回答文本进行修正,输出最终的回答文本。
优选的,所述S2中具体为:
S2.1将关键词的词向量转换为词向量矩阵;
S2.2通过Bi-LSTM网络生成每个关键词对应的隐藏向量;
S2.3将所有关键词的隐藏向量链接起来,获得对应对话文本的语句向量。
优选的,所述S3中知识问答库是输入样本问句与对应的候选答案三元组,通过双层Bi-LSTM网络进行训练获得。
通过同类型的神经网络进行识别与训练,使得最终输出结果与预训练内容更加贴合。
优选的,所述S4双向异步序列算法是基于反向解码器与正向解码器对答案集中候选答案以及对应的词向量进行解码。
优选的,所述反向解码器与正向解码器对答案集中候选答案以及对应的词向量进行解码,具体为:
S4.1从所述答案集中选取相似度最高的候选答案作为起始词;
S4.2基于起始词与对应的词向量,通过反向解码器倒序生成前半部回答文本;
S4.3对前半部回答文本进行翻转处理后,识别获得前半部回答文本的语句向量;
S4.4基于S4.3获得的语句向量,再次与知识问答库中样本问句的语句向量计算相似度,获得对应的答案集;
S4.5基于前半部回答文本的语义信息与S4.4获得的答案集中候选答案的词向量,通过正向解码器生成后半部回答文本;
S4.6将前半部回答文本与后半部回答文本的语句向量链接,获得初始回答文本。
基于前半部回答文本的语义信息,生成的后半部回答文本与前半部回答文本之间的关联度更高,结合生成的初始回答文本的有效内容更加丰富。
优选的,所述S5中对初始回答文本进行修正是通过检测单词或\和短句的词向量出现次数,经过惩罚权重计算对文本进行修正,通过裁剪初始回答文本中无意义的内容,从而提高了输出结果的质量。
优选的,所述惩罚权重计算,具体为:
其中,N为检测到的重复区间的长度,st为时刻t对应的生成的回复,xi为已生成的前置词向量,p(st|xi)为st在已生成的xi条件下的生成概率,对重复出现3次以上的单词或\和短句进行输出裁剪处理。
本发明还提供了一种基于上述方法的系统,该系统只需输入对话问句,便可以输出带有拓展知识信息的高质量回复文本。
一种实施上述对话生成方法的系统,包括:
输入模块,用于获取对话文本;
知识问答模块,基于获取的对话文本,生成对应的答案集;
对话生成模块,基于对话文本的语义信息,与对应的答案集生成初始回答文本;
修正模块,对初始回答文本进行重复词的裁剪修正;
输出模块,用于输出完成修正后的回答文本。
与现有技术相比,本发明的有益效果:
(1)本发明以关键词为核心,采用正反两方向异步生成的方式来生成回复文本,不同于传统的Seq2Seq依序生成,从而避免出现无效内容的出现。
(2)本发明在对话生成方法中设有重复检测惩罚权重计算,解决了词语重复出现的问题,从而提高了生成语句的语法质量。
附图说明
图1为本发明提供的对话生成方法的流程示意图;
图2为本发明提供的实施对话生成方法的系统结构示意图。
具体实施方式
构建知识问答库:首先准备一组样本问句和对应的候选答案知识三元组,通过双层Bi-LSTM网络来学习样本问句的表示方式:第一层获取样本问句关键词的词向量,通过简单的词向量矩阵链接获得对应的语句向量第二层在基础上计算第二层隐藏表示形式
在时间步长t处的隐藏状态γt更新为:
ot=σ(Wo[γt-1,qt]+bo)
γt=ot*tanh(Ct)
其中,γt-1为前一时刻的隐藏状态,qt为当前时刻的输入词,Ct为当前时刻的神经元状态,bo为常数项。
最终得到的输入问题语句的语句向量表示:
h=[h1,h2,…,hn]
使用TransH模型对知识库全体关系进行预训练获得关系向量ei,目标函数L为:
其中,r为每一个关系向量,h,t分别为其关联的头实体和尾实体,wr为训练得到的超平面参数,γ为边际超参数,h⊥,t⊥为h,t在超平面上的投影。
将关系向量ei输入双层Bi-LSTM网络的关系适配器得到中间向量,经过BERT层进去特征提取,通过池化层计算指定维度P的关系级向量rp:
rp=MAX_Pooling(BERT(Adapter(ei)),p)
重复上述过程,得到每个候选答案的最终词向量:
a=aω+rp
使用多层感知器计算样本问句的语句向量hi和候选答案的词向量aj之间的语义相似性:
R(hi,aj)=MLP([hi,aj])
使用铰链损失函数进行训练,将关系正负样本进行区分,目标函数Lh,a为:
Lh,a=∑max(0,γ-cos(h,a+)+cos(h,a-))
其中,γ为边际超参数,a+为正样本,a-为负样本,cos(h,a)为余弦相似度。
最后整合所有样本问句与对应候选答案的语义关系后,完成知识问答库构建。
如图1所示,一种基于双向异步序列的对话生成方法:
S1获取对话文本,识别对话文本中的关键词,并生成所述关键词对应的词向量;
S2基于S1中获得的词向量,生成对话文本的语句向量,具体为:
S2.1将关键词的词向量转换为词向量矩阵;
S2.2通过Bi-LSTM网络生成每个关键词对应的隐藏向量;
S2.3将所有关键词的隐藏向量链接起来,获得对应对话文本的语句向量;
S3将S2中获得的对话文本的语句向量,与知识问答库中样本问句的语句向量计算相似度,生成包括多个候选答案的答案集以及候选答案对应的词向量,其中选取相似度最高的前K个候选答案构成答案集:
其中aj为第j个相关候选知识的词向量,hi ′为对话文本的语句向量,cad为答案集内候选答案的知识相关性向量。
S4基于S3获得的答案集中候选答案以及对应的词向量,通过双向异步序列算法,获得初始回答文本;
S4.1从所述答案集中选取相似度最高的候选答案作为起始词;
S4.2基于起始词与对应的词向量,通过反向解码器倒序生成前半部回答文本:
通过计算回复前半部分序列的概率:
其中rk为起始词,倒叙生成起始前的前半部回答文本序列部分(rk-1,rk-2,…,r1)。
S4.3对前半部回答文本进行翻转处理后,识别获得前半部回答文本的语句向量;
S4.4基于S4.3获得的语句向量,再次与知识问答库中样本问句的语句向量计算相似度,获得对应的答案集:
其中选取相似度最高的前K个候选答案构成答案集:
其中aj为第j个相关候选知识的词向量,hi″为前半部回答文本的语句向量,cab为答案集内候选答案的知识相关性向量;
S4.5基于前半部回答文本的语义信息与S4.4获得的答案集中候选答案的词向量,通过正向解码器生成后半部回答文本:
筛选出相似度最高的候选答案词向量作为起始词向量efw;
其中Ct-1为前一个时间步的上下文向量。
通过生成序列的概率计算:
生成后半部的回答文本序列。
S4.6将前半部回答文本与后半部回答文本的语句向量链接,获得初始回答文本。
S5对初始回答文本进行修正,输出最终的回答文本:
在生成过程中如果检测到单词或短语的词向量表达与它之前的3个以内的已生成部分有大于两次的重复现象,则对其赋予一个惩罚权重,以降低其生成的可能性。惩罚权重的计算为:
其中,N为检测到的重复区间的长度,st为时刻t对应的生成的回复内容,xi为已生成的前置词向量,p(st|xi)为st在已生成的xi条件下的生成概率。
对生成结果进行一次检测,并对依然存在3次以上的重复现象进行输出裁剪处理,以最大程度保证最终输出结果的质量。
如图2所示,一种实施上述对话生成方法的系统,包括:
输入模块,用于获取对话文本;
知识问答模块,基于获取的对话文本,生成对应的答案集;
对话生成模块,基于对话文本的语义信息,与对应的答案集生成初始回答文本;
修正模块,对初始回答文本进行重复词的裁剪修正;
输出模块,用于输出完成修正后的回答文本。
本发明基于Reddit对话数据集上进行测试,为了客观地评价该方算法的性能,本发明在所选处的测试集中,使用了自动评估和人工评价这两种评价标准的加权求和结果对生成效果进行评价,其中自动评估指标包括:BLEU、困惑度和实体得分。
人工评价指标包括语言层面和知识层面,其中语言层面的得分标准为:
生成回复语句-不通顺-语法不正确,得分为0分;
生成回复语句-不通顺-语法正确,得分为1分;
生成回复语句-通顺-语法存在歧义,得分为2分;
生成回复语句-通顺-语法完成正确,得分为3分。
统计在语言层面评价结果的均值作为语言层面的最终得分,得分大于1分表示生成结果在语言层面效果尚可,得分大于2分表示生成结果在语言层面较好。
知识层面的得分标准为:
生成回复语句-完全没有引入相关拓展内容,得分为0分;
生成回复语句-引入部分拓展内容,得分为1分;
生成回复语句-引入了所有相关拓展内容-相关性低,得分为2分;
生成回复语句-引入了所有相关拓展内容-相关性高,得分为3分。
统计在知识层面评价结果的均值作为知识层面的最终得分,得分大于1分表示生成结果成功引入了拓展内容,得分大于2分表示生成结果成功且准确地引入了所有相关拓展内容。
最终测试结果如下表所示:
通过自动评估结果可知,本方法生成的对话内容中,重复词问题已经得到很好的解决,即BLEU值小于1;同时本发明提供的对话生成系统,相较于同类模型,其困惑度只有38.77,生成对话的质量要优于现有模型;通过人工评价结果可知,本方法生成的对话内容在语言层面或者知识层面的得分都比较高,且均值大于2,证明了本方法相较于传统的对话生成方法具有一定的优势。
Claims (8)
1.一种基于双向异步序列的对话生成方法,其特征在于,包括:
S1获取对话文本,识别对话文本中的关键词,并生成所述关键词对应的词向量;
S2基于S1中获得的词向量,生成对话文本的语句向量;
S3将S2中获得的对话文本的语句向量,与知识问答库中样本问句的语句向量计算相似度,生成包括多个候选答案的答案集以及候选答案对应的词向量;
S4基于S3获得的答案集中候选答案以及对应的词向量,通过双向异步序列算法,获得初始回答文本;
S5对初始回答文本进行修正,输出最终的回答文本。
2.根据权利要求1所述的对话生成方法,其特征在于,所述S2中具体为:
S2.1将关键词的词向量转换为词向量矩阵;
S2.2通过Bi-LSTM网络生成每个关键词对应的隐藏向量;
S2.3将所有关键词的隐藏向量链接起来,获得对应对话文本的语句向量。
3.根据权利要求1所述的对话生成方法,其特征在于,所述S3中知识问答库是输入样本问句与对应的候选答案三元组,通过双层Bi-LSTM网络进行训练获得。
4.根据权利要求1所述的对话生成方法,其特征在于,所述S4双向异步序列算法是基于反向解码器与正向解码器对答案集中候选答案以及对应的词向量进行解码。
5.根据权利要求4所述的对话生成方法,其特征在于,所述反向解码器与正向解码器对答案集中候选答案以及对应的词向量进行解码,具体为:
S4.1从所述答案集中选取相似度最高的候选答案作为起始词;
S4.2基于起始词与对应的词向量,通过反向解码器倒序生成前半部回答文本;
S4.3对前半部回答文本进行翻转处理后,识别获得前半部回答文本的语句向量;
S4.4基于S4.3获得的语句向量,再次与知识问答库中样本问句的语句向量计算相似度,获得对应的答案集;
S4.5基于前半部回答文本的语义信息与S4.4获得的答案集中候选答案的词向量,通过正向解码器生成后半部回答文本;
S4.6将前半部回答文本与后半部回答文本的语句向量链接,获得初始回答文本。
6.根据权要求1所述的对话生成方法,其特征在在于,所述S5中对初始回答文本进行修正是通过检测单词或\和短句的词向量出现次数,经过惩罚权重计算对文本进行修正。
8.一种实施权利要求1-7任一所述的对话生成方法的系统,其特征在于,包括:
输入模块,用于获取对话文本;
知识问答模块,基于获取的对话文本,生成对应的答案集;
对话生成模块,基于对话文本的语义信息,与对应的答案集生成初始回答文本;
修正模块,对初始回答文本进行重复词的裁剪修正;
输出模块,用于输出完成修正后的回答文本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210083371.5A CN114492464A (zh) | 2022-01-25 | 2022-01-25 | 一种基于双向异步序列的对话生成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210083371.5A CN114492464A (zh) | 2022-01-25 | 2022-01-25 | 一种基于双向异步序列的对话生成方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114492464A true CN114492464A (zh) | 2022-05-13 |
Family
ID=81473786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210083371.5A Pending CN114492464A (zh) | 2022-01-25 | 2022-01-25 | 一种基于双向异步序列的对话生成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114492464A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117708298A (zh) * | 2023-12-25 | 2024-03-15 | 浙江大学 | 一种用于产品展示的人机交互管理系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1427969A (zh) * | 2000-05-01 | 2003-07-02 | 网际运行公司 | 借助大量通信网络的大群体交互 |
CN108334487A (zh) * | 2017-07-14 | 2018-07-27 | 腾讯科技(深圳)有限公司 | 缺失语意信息补全方法、装置、计算机设备和存储介质 |
US10943072B1 (en) * | 2019-11-27 | 2021-03-09 | ConverSight.ai, Inc. | Contextual and intent based natural language processing system and method |
-
2022
- 2022-01-25 CN CN202210083371.5A patent/CN114492464A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1427969A (zh) * | 2000-05-01 | 2003-07-02 | 网际运行公司 | 借助大量通信网络的大群体交互 |
CN108334487A (zh) * | 2017-07-14 | 2018-07-27 | 腾讯科技(深圳)有限公司 | 缺失语意信息补全方法、装置、计算机设备和存储介质 |
US10943072B1 (en) * | 2019-11-27 | 2021-03-09 | ConverSight.ai, Inc. | Contextual and intent based natural language processing system and method |
Non-Patent Citations (2)
Title |
---|
CHAUDHURI D, 等: "Grounding dialogue systems via knowledge graph aware decoding with pretrained transformers", THE SEMANTIC WEB 18TH INTERNATIONAL CONFERENCE, 31 July 2021 (2021-07-31), pages 323 * |
王勇超等: "基于知识迁移和双向异步序列的对话生成模型", 浙江大学学报(工学版), vol. 56, no. 3, 23 March 2022 (2022-03-23), pages 520 - 530 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117708298A (zh) * | 2023-12-25 | 2024-03-15 | 浙江大学 | 一种用于产品展示的人机交互管理系统及方法 |
CN117708298B (zh) * | 2023-12-25 | 2024-05-28 | 浙江大学 | 一种用于产品展示的人机交互管理系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108549658B (zh) | 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统 | |
CN110083710B (zh) | 一种基于循环神经网络与潜变量结构的词语定义生成方法 | |
CN110096698B (zh) | 一种考虑主题的机器阅读理解模型生成方法与系统 | |
CN111414464A (zh) | 一种问题生成方法、装置、设备及存储介质 | |
CN110895932A (zh) | 基于语言种类和语音内容协同分类的多语言语音识别方法 | |
CN110222163A (zh) | 一种融合cnn与双向lstm的智能问答方法及系统 | |
CN112232053B (zh) | 一种基于多关键词对匹配的文本相似度计算系统、方法、及存储介质 | |
CN110991190B (zh) | 一种文档主题增强系统、文本情绪预测系统和方法 | |
CN111125333B (zh) | 一种基于表示学习与多层覆盖机制的生成式知识问答方法 | |
CN112309528B (zh) | 一种基于视觉问答方法的医疗影像报告生成方法 | |
CN111782788A (zh) | 一种面向开放域对话系统的情感回复自动生成方法 | |
CN110222344B (zh) | 一种针对小学生作文辅导的作文要素分析算法 | |
CN118093834B (zh) | 一种基于aigc大模型的语言处理问答系统及方法 | |
CN113657123A (zh) | 基于目标模板指导和关系头编码的蒙语方面级情感分析方法 | |
CN117094291B (zh) | 基于智能写作的自动新闻生成系统 | |
CN111144410A (zh) | 一种跨模态的图像语义提取方法、系统、设备及介质 | |
Luz et al. | Semantic parsing natural language into SPARQL: improving target language representation with neural attention | |
CN114818717A (zh) | 融合词汇和句法信息的中文命名实体识别方法及系统 | |
CN113536804A (zh) | 一种基于关键词强化的GRU和Kronecker的自然语言特征提取方法 | |
CN114428850A (zh) | 一种文本检索匹配方法和系统 | |
Liu | Neural question generation based on Seq2Seq | |
CN112349294A (zh) | 语音处理方法及装置、计算机可读介质、电子设备 | |
Zhang | Ideological and political empowering english teaching: ideological education based on artificial intelligence in classroom emotion recognition | |
CN115510230A (zh) | 一种基于多维特征融合与比较增强学习机制的蒙古语情感分析方法 | |
CN112488111B (zh) | 一种基于多层级表达引导注意力网络的指示表达理解方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |