CN111191015A - 一种神经网络电影知识智能对话方法 - Google Patents

一种神经网络电影知识智能对话方法 Download PDF

Info

Publication number
CN111191015A
CN111191015A CN201911375183.4A CN201911375183A CN111191015A CN 111191015 A CN111191015 A CN 111191015A CN 201911375183 A CN201911375183 A CN 201911375183A CN 111191015 A CN111191015 A CN 111191015A
Authority
CN
China
Prior art keywords
knowledge
movie
neural network
dialogue
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911375183.4A
Other languages
English (en)
Inventor
王璐
谢志峰
丁友东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Transpacific Technology Development Ltd
University of Shanghai for Science and Technology
Original Assignee
Beijing Transpacific Technology Development Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Transpacific Technology Development Ltd filed Critical Beijing Transpacific Technology Development Ltd
Priority to CN201911375183.4A priority Critical patent/CN111191015A/zh
Publication of CN111191015A publication Critical patent/CN111191015A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明针对电影知识对话响应中涉及大量的专有名词(如人名,地名等)且一条响应中可能涉及到多条知识的特点,提出了一种神经网络电影知识智能对话方法。首先构建电影知识库和电影知识对话数据集,然后编码器部分采用3‑hops记忆神经网络,用来编码历史对话;最后解码器部分将GRU和3‑hops记忆神经网络相结合,用GRU的隐藏状态作为3‑hops的动态查询向量,指导响应生成。结果显示该电影知识智能对话方法不仅解决了生成无意义响应的问题,又能保证生成响应的多样性。

Description

一种神经网络电影知识智能对话方法
技术领域
本发明涉及一种神经网络电影知识智能对话方法,属于自然语言处理对话领域。
背景技术
电影产业的不断发展,产生了海量的电影数据。这为研究有关电影知识对话方法提供了丰富的数据支持。传统的任务型对话系统是由几个流水线模块构成的:(1)自然语言理解(Natural Language Understanding,NLU),理解给定的语句并将其映射到预定义的语义槽中,用来检测用户意图。(2)对话状态跟踪器(Dialogue State Tracking,DST),它管理每个回合的输入以及对话历史并输出当前对话状态。(3)对话政策学习(Dialogue PolicyLearning,DPL),它根据当前的对话状态学习下一个动作。(4)自然语言生成(NaturalLanguage Generation,NLG),它将选定的操作映射到其表面并生成响应。但是传统的任务型对话系统存在几个问题:一个是信用分配问题,其中最终用户的反馈很难传播到每个上游模块。第二个问题是在将一个组件调整到新环境或使用新数据重新训练时,需要相应地调整所有其他组件以确保全局优化,插槽和功能可能会相应更改。这个过程需要大量的人力。
端到端的面向任务的对话系统能够直接在对话数据上对模型进行训练,循环神经网络(Recurrent Neural Network,RNN)为端到端的模型做出来巨大贡献,因为他们能联系上下文信息,创建潜在的状态表示,免去了人工判断状态标签。端到端的记忆神经网络(Memory Natural Network,MemNN)及其变体在阅读理解任务上表现出了良好的效果。他们的输出是生成的一个序列或者是通过选择一组预定义的话语。
序列到序列(Seq2Seq)模型用于面向任务的对话系统时,表现出更好的语言建模能力,但它们在知识库检索中不能很好地工作。即便使用复杂的注意力模型,Seq2Seq也无法将正确的实体映射到输出。为了缓解这个问题,Gu,Jiatao,Eric,Mihail等人使用了复制增强的Seq2Seq模型。这些模型通过直接从知识库复制相关信息来输出响应。复制机制也被用于阅读理解,机器翻译和自动摘要等。虽然与对话系统无关,但与本发明工作相关的是基于MemNN的解码器和非循环生成模型:1)用于访问存储器的Mem2Seq查询生成阶段可被视为存储器增强神经网络(MANN)中使用的存储控制器。然而,电影知识对话模型与这些模型的不同之处在于:它结合复制机制使用多跳注意,而其他模型使用单个矩阵表示。2)仅依赖自我注意机制的非复发生成模型与MemNN中使用的Multi-hops注意机制有关。另外,神经知识扩散模型(Natural Knowledge Diffusion,NKD)中为了增加生成响应的多样性,在解码器部分增加了一个控制门。
发明内容
本发明针对电影知识对话的特点:1)响应中涉及大量的专有名词(如人名,地名等);2)一条响应中可能涉及到多条知识,提出了一种神经网络电影知识智能对话方法。
为达到上述目的,本发明采用如下技术方案:
一种神经网络电影知识智能对话方法,具体操作步骤如下:
1)将收集的电影数据,以三元组的形式存储成电影知识库,并构建电影知识对话数据集;
2)用记忆神经网络编码器将历史对话编码;
3)将门控循环单单元(GRU)与记忆神经网络编码器结合,用GRU的隐藏状态作为记忆神经网络的动态查询向量,直到响应生成。
所述步骤1)先将收集到电影知识存储成知识三元组的形式,再通过模板填充的方式构建电影知识对话数据集。
所述步骤2)中的编码器是标准的相邻权重复制模式的MemNN;编码器的输入是分词后的历史对话,嵌入矩阵将输入的历史对话编码成两个向量mi,ci,u是查询向量q的嵌入表示,接着计算u和记忆向量m的匹配程度pi
pi=soft max(uTmi) (1)
第k层输出向量为ok
ok=∑ipici (1)
下一层输入uk+1为当前层的输出ok和当前层查询向量uk的加和,如公式(3)所示:
uk+1=uk+ok (2)
所述步骤3)中的解码部分用了RNN的变体GRU和MemNN;因为要生成适当的响应,既需要用到历史对话的信息也要用到知识库的信息,所以解码器中MemNN存储的信息为历史对话和相关的知识三元组,GRU被用来作为MemNN的动态查询向量,对于每一步GRU的输入为上一时刻的输出和上一时刻生成的查询向量,如公式(4)所示:
Figure BDA0002340760770000021
其中ht作为查询向量传递给MemNN,是MemNN生成单词,其中查询向量ht初始化为编码器的输出向量o,在每个时刻,都有两个概率分布产生,一个是所有词汇的概率分布(Pvocab),另一个是包含历史对话和知识三元组的所有记忆内容的概率分布(Pptr),因为我们更倾向于产生比较松散的词汇表的概率分布,所以在第一跳的时候产生Pvocab,更具体的讲,在第一跳的时候我们的注意力将放在检索记忆内容;由于我们倾向产生一个更加清晰明确的Pptr概率分布,所以在第三跳的时候产生Pptr的概率分布,具体来说,最后一跳会选择受指针监督的清晰具体的词汇;具体的Pvocab的计算如公式(5)所示:
Figure BDA0002340760770000031
其中,w1是训练的权重参数,Pptr的计算如公式(6)所示:
Figure BDA0002340760770000032
解码器通过指向MemNN中的输入字来生成词汇,这与指针网络中使用的注意力类似。
控制门:若生成的词汇不在记忆内容中,Pptr产生休止符‘#’。一旦休止符被选中,模型就会从Pvocab分布中生成词汇,反之休止符没有被选中,则产生的词汇来源于记忆内容中。所以休止符就相当于一个硬门,控制着每一时刻输出的词汇应该从词汇表中产生还是从记忆内容中产生。
鉴于电影数据一个属性可能有多个属性值的特点,Mem2Seq方法产生的响应会出现实体被过度使用的情况,因此,如果知识库中的某个词被指针选中输出后,就减小该词出现的概率,我们提出一种解决方法:在解码器输出部分加上一个控制门,把已经输出过的知识库中的实体的概率乘上一个非常小的系数来降低它的概率,以保证在前面出现过的实体词,不会在后面出现,增加响应的多样性。
与现有技术相比,本发明具有如下的突出的实质性特点和显著的优点:
本发明方法首先构建电影知识库和电影知识对话数据集,然后编码器部分采用3-hops记忆神经网络,用来计算输入问题与历史对话的相似度;最后,解码器部分将GRU和3-hops记忆神经网络相结合,用GRU的隐藏状态作为3-hops的动态查询向量,指导响应生成。结果显示本发明方法不仅解决了生成无意义响应的问题,又能保证生成响应的多样性。
附图说明
图1是电影知识对话方法的整体流程图。
图2是基于3-hops记忆神经网络的编码器网络结构图。
图3是基于3-hops记忆神经网络和GRU的解码器网络结构图。
图4是生成结果两组示例。
具体实施方式
本发明的优先实施例结合附图说明如下:
一种神经网络电影知识智能对话方法,整体方法流程如图1,具体操作步骤如下:
1)将收集的电影数据,以三元组的形式存储成电影知识库,并构建电影知识对话数据集;
电影知识库数据:本实施例一共采集了21098条电影数据,每条电影数据包含电影名称,电影ID,导演,演员,类型,产地,上映时间等属性。将这些数据按照知识三元组的形式存储,即(主体,关系,客体)的形式。
电影知识对话数据:在电影知识数据的基础上,以字符串相加的方式生成。部分问题模板如表1所示:
表1电影知识库及电影知识对话示例
Figure BDA0002340760770000041
这些问题涉及了电影的导演,演员,类型,产地,上映时间等信息,每组对话有5轮,我们一共生成了10000组对话,如表2所示:
图2数据集大小
实体 每组对话论数 对话组数
783596 5 10000
此数据集易于扩展,可以更换不同的模板来生成新的对话,例如:
模板一:
用户:<电影名字>的导演是谁?
响应:<电影名字>的导演是<导演名字>
用户:它是谁演的?
响应:是<演员1>,<演员2>,<演员3>,<演员4>
用户:它是什么类型的?
响应:<类型1>,<类型2>
用户:什么时候上映的?
响应:<上映时间>
用户:哪里产的?
响应:<地区1>/<地区2>
模板二:
用户:<电影名字>的谁导的?
响应:<电影名字>的导演是<导演名字>
用户:它的演员有谁啊?
响应:是<演员1>,<演员2>,<演员3>,<演员4>
用户:大概是什么类型的?
响应:<类型1>,<类型2>
用户:什么时候出的?
响应:<上映时间>
用户:哪个国家的?
响应:<地区1>/<地区2>
2)用记忆神经网络编码器将历史对话编码;
如图2所示,编码器是标准的相邻权重复制模式的MemNN;编码器的输入是分词后的历史对话,嵌入矩阵将输入的历史对话编码成两个向量mi,ci,u是查询向量q的嵌入表示,接着计算u和记忆向量m的匹配程度pi
pi=soft max(uTmi) (1)
第k层输出向量ok为:
ok=∑ipici (6)
下一层输入uk+1为当前层的输出ok和当前层查询向量uk的加和,如公式(3)所示:
uk+1=uk+ok (7)
3)将GRU与记忆神经网络编码器结合,用GRU的隐藏状态作为记忆神经网络的动态查询向量,直到响应生成。
如图3所示,解码部分用了RNN的变体GRU和MemNN;因为要生成适当的响应,既需要用到历史对话的信息也要用到知识库的信息,所以解码器中MemNN存储的信息为历史对话和相关的知识三元组,GRU被用来作为MemNN的动态查询向量,对于每一步GRU的输入为上一时刻的输出和上一时刻生成的查询向量,如公式(4)所示:
Figure BDA0002340760770000061
其中ht作为查询向量传递给MemNN,是MemNN生成单词,其中查询向量ht初始化为编码器的输出向量o,在每个时刻,都有两个概率分布产生,一个是所有词汇的概率分布(Pvocab),另一个是包含历史对话和知识三元组的所有记忆内容的概率分布(Pptr),因为我们更倾向于产生比较松散的词汇表的概率分布,所以在第一跳的时候产生Pvocab,更具体的讲,在第一跳的时候我们的注意力将放在检索记忆内容;由于我们倾向产生一个更加清晰明确的Pptr概率分布,所以在第三跳的时候产生Pptr的概率分布,具体来说,最后一跳会选择受指针监督的清晰具体的词汇;具体的Pvocab的计算如公式(5)所示:
Figure BDA0002340760770000062
其中,w1是训练的权重参数,Pptr的计算如公式(6)所示:
Figure BDA0002340760770000063
解码器通过指向MemNN中的输入字来生成词汇,这与指针网络中使用的注意力类似。
控制门:若生成的词汇不在记忆内容中,Pptr产生休止符‘#’。一旦休止符被选中,模型就会从Pvocab分布中生成词汇,反之休止符没有被选中,则产生的词汇来源于记忆内容中。所以休止符就相当于一个硬门,控制着每一时刻输出的词汇应该从词汇表中产生还是从记忆内容中产生。
鉴于电影数据一个属性可能有多个属性值的特点,Mem2Seq方法产生的响应会出现实体被过度使用的情况,因此,如果知识库中的某个词被指针选中输出后,就减小该词出现的概率,我们提出一种解决方法:在解码器输出部分加上一个控制门,把已经输出过的知识库中的实体的概率乘上一个非常小的系数来降低它的概率,以保证在前面出现过的实体词,不会在后面出现,增加响应的多样性。类似的方法在文献中也使用过。
记忆内容:本文把历史对话分词后存储成<单词对话轮数说话者身份>的结构,例如,“让子弹飞t1$u”表示用户在第一轮对话中说了“让子弹飞”这个词。对于知识库,本文的存储方式如表1,例如,当指针选择“让子弹飞||导演||姜文”时,“姜文”被作为响应输出。在每组对话中,只有与该组对话相关的知识才会被加载到内存中,减少了冗余数据,大大加快了计算时间。
最后,解码器生成结果如图4所示。

Claims (4)

1.一种神经网络电影知识智能对话方法,其特征在于,具体操作步骤如下:
1)将收集的电影数据,以三元组的形式存储成电影知识库,并构建电影知识对话数据集;
2)用记忆神经网络编码器将历史对话编码;
3)将门控循环单元GRU与记忆神经网络编码器结合,用GRU的隐藏状态作为记忆神经网络的动态查询向量,指导响应生成。
2.根据权利要求1所述的神经网络电影知识智能对话方法,其特征在于,所述步骤1)先将收集到电影知识存储成知识三元组的形式,再通过模板填充的方式构建电影知识对话数据集。
3.根据权利要求1所述的神经网络电影知识智能对话方法,其特征在于,所述步骤2)中的编码器是标准的相邻权重复制模式的MemNN;编码器的输入是分词后的历史对话,嵌入矩阵将输入的历史对话编码成两个向量mi,ci,u是查询向量q的嵌入表示,接着计算u和记忆向量m的匹配程度pi
pi=softmax(uTmi) (1)
第k层输出向量为ok
ok=∑ipici (1)
下一层输入uk+1为当前层的输出ok和当前层查询向量uk的加和,如公式(3)所示:
uk+1=uk+ok (2)。
4.根据权利要求1所述的神经网络电影知识智能对话方法,其特征在于,所述步骤3)中的解码部分用了RNN的变体GRU和MemNN;因为要生成适当的响应,既需要用到历史对话的信息也要用到知识库的信息,所以解码器中MemNN存储的信息为历史对话和相关的知识三元组,GRU被用来作为MemNN的动态查询向量,对于每一步GRU的输入为上一时刻的输出和上一时刻生成的查询向量,如公式(4)所示:
Figure FDA0002340760760000011
其中ht作为查询向量传递给MemNN,指导MemNN生成单词,其中查询向量ht初始化为编码器的输出向量o,在每个时刻,都有两个概率分布产生,一个是所有词汇的概率分布(Pvocab),另一个是包含历史对话和知识三元组的所有记忆内容的概率分布(Pptr),因为我们更倾向于产生比较松散的词汇表的概率分布,所以在第一跳的时候产生Pvocab,更具体的讲,在第一跳的时候我们的注意力将放在检索记忆内容;由于我们倾向产生一个更加清晰明确的Pptr概率分布,所以在第三跳的时候产生Pptr的概率分布,具体来说,最后一跳会选择受指针监督的清晰具体的词汇;具体的Pvocab的计算如公式(5)所示:
Figure FDA0002340760760000021
其中,w1是训练的权重参数,Pptr的计算如公式(6)所示:
Figure FDA0002340760760000022
解码器通过指向MemNN中的输入字来生成词汇,这与指针网络中使用的注意力类似;
控制门:若生成的词汇不在记忆内容中,Pptr产生休止符‘#’,一旦休止符被选中,模型就会从Pvocab分布中生成词汇,反之休止符没有被选中,则产生的词汇来源于记忆内容中;所以休止符就相当于一个硬门,控制着每一时刻输出的词汇应该从词汇表中产生还是从记忆内容中产生;
鉴于电影数据一个属性可能有多个属性值的特点,Mem2Seq方法产生的响应会出现实体被过度使用的情况,因此,如果知识库中的某个词被指针选中输出后,就减小该词出现的概率,我们提出一种解决方法:在解码器输出部分加上一个控制门,把已经输出过的知识库中的实体的概率乘上一个非常小的系数来降低它的概率,以保证在前面出现过的实体词,不会在后面出现,增加响应的多样性。
CN201911375183.4A 2019-12-27 2019-12-27 一种神经网络电影知识智能对话方法 Pending CN111191015A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911375183.4A CN111191015A (zh) 2019-12-27 2019-12-27 一种神经网络电影知识智能对话方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911375183.4A CN111191015A (zh) 2019-12-27 2019-12-27 一种神经网络电影知识智能对话方法

Publications (1)

Publication Number Publication Date
CN111191015A true CN111191015A (zh) 2020-05-22

Family

ID=70709516

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911375183.4A Pending CN111191015A (zh) 2019-12-27 2019-12-27 一种神经网络电影知识智能对话方法

Country Status (1)

Country Link
CN (1) CN111191015A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111382257A (zh) * 2020-05-28 2020-07-07 支付宝(杭州)信息技术有限公司 一种生成对话下文的方法和系统
CN112182162A (zh) * 2020-09-30 2021-01-05 中国人民大学 一种基于记忆神经网络的个性化对话方法和系统
CN112364148A (zh) * 2020-12-08 2021-02-12 吉林大学 一种基于深度学习方法的生成型聊天机器人
CN112818098A (zh) * 2021-01-29 2021-05-18 平安国际智慧城市科技股份有限公司 基于知识库的对话生成方法、装置、终端及存储介质
CN113705652A (zh) * 2021-08-23 2021-11-26 西安交通大学 一种基于指针生成网络的任务型对话状态追踪系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180203852A1 (en) * 2017-01-18 2018-07-19 Xerox Corporation Natural language generation through character-based recurrent neural networks with finite-state prior knowledge
CN108304388A (zh) * 2017-09-12 2018-07-20 腾讯科技(深圳)有限公司 机器翻译方法及装置
CN108628935A (zh) * 2018-03-19 2018-10-09 中国科学院大学 一种基于端到端记忆网络的问答方法
CN108829667A (zh) * 2018-05-28 2018-11-16 南京柯基数据科技有限公司 一种基于记忆网络的多轮对话下的意图识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180203852A1 (en) * 2017-01-18 2018-07-19 Xerox Corporation Natural language generation through character-based recurrent neural networks with finite-state prior knowledge
CN108304388A (zh) * 2017-09-12 2018-07-20 腾讯科技(深圳)有限公司 机器翻译方法及装置
CN108628935A (zh) * 2018-03-19 2018-10-09 中国科学院大学 一种基于端到端记忆网络的问答方法
CN108829667A (zh) * 2018-05-28 2018-11-16 南京柯基数据科技有限公司 一种基于记忆网络的多轮对话下的意图识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LIU S, CHEN H, REN Z, ET AL: "Knowledge Diffusion for Neural Dialogue Generation", 《PROCEEDINGS OF THE 56TH ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS (VOLUME 1: LONG PAPERS)》 *
MADOTTO A, WU C S, FUNG P: "Mem2Seq: Effectively Incorporating Knowledge Bases into End-to-End Task-Oriented Dialog Systems", 《ARXIV PREPRINT ARXIV:1804.08217》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111382257A (zh) * 2020-05-28 2020-07-07 支付宝(杭州)信息技术有限公司 一种生成对话下文的方法和系统
CN112182162A (zh) * 2020-09-30 2021-01-05 中国人民大学 一种基于记忆神经网络的个性化对话方法和系统
CN112182162B (zh) * 2020-09-30 2023-10-31 中国人民大学 一种基于记忆神经网络的个性化对话方法和系统
CN112364148A (zh) * 2020-12-08 2021-02-12 吉林大学 一种基于深度学习方法的生成型聊天机器人
CN112364148B (zh) * 2020-12-08 2022-05-24 吉林大学 一种基于深度学习方法的生成型聊天机器人
CN112818098A (zh) * 2021-01-29 2021-05-18 平安国际智慧城市科技股份有限公司 基于知识库的对话生成方法、装置、终端及存储介质
CN112818098B (zh) * 2021-01-29 2023-11-24 深圳平安智慧医健科技有限公司 基于知识库的对话生成方法、装置、终端及存储介质
CN113705652A (zh) * 2021-08-23 2021-11-26 西安交通大学 一种基于指针生成网络的任务型对话状态追踪系统及方法
CN113705652B (zh) * 2021-08-23 2024-05-28 西安交通大学 一种基于指针生成网络的任务型对话状态追踪系统及方法

Similar Documents

Publication Publication Date Title
US10885277B2 (en) On-device neural networks for natural language understanding
CN111191015A (zh) 一种神经网络电影知识智能对话方法
CN111651557B (zh) 一种自动化文本生成方法、装置及计算机可读存储介质
CN111462750B (zh) 语义与知识增强的端到端任务型对话系统及方法
Cheng et al. Conversational semantic parsing for dialog state tracking
CN110188176A (zh) 深度学习神经网络及训练、预测方法、系统、设备、介质
Chen et al. Knowledge as a teacher: Knowledge-guided structural attention networks
US11580975B2 (en) Systems and methods for response selection in multi-party conversations with dynamic topic tracking
CN111125333B (zh) 一种基于表示学习与多层覆盖机制的生成式知识问答方法
CN109189862A (zh) 一种面向科技情报分析的知识库构建方法
CN105706092B (zh) 四值模拟的方法和系统
Yi et al. Distilling Knowledge from an Ensemble of Models for Punctuation Prediction.
Zeyer et al. Librispeech transducer model with internal language model prior correction
CN107436942A (zh) 基于社交媒体的词嵌入方法、系统、终端设备及存储介质
Yu et al. Acoustic modeling based on deep learning for low-resource speech recognition: An overview
CN110688834A (zh) 基于深度学习模型进行智能文稿风格改写的方法和设备
CN117271780B (zh) 一种基于大语言模型自身对上下文进行压缩的方法及系统
Shin et al. End-to-end task dependent recurrent entity network for goal-oriented dialog learning
CN111522923B (zh) 一种多轮任务式对话状态追踪方法
CN115858736A (zh) 一种基于情感提示微调的情感文本生成方法
Gangadharaiah et al. Recursive template-based frame generation for task oriented dialog
CN115169472A (zh) 针对多媒体数据的音乐匹配方法、装置和计算机设备
Liu Learning task-oriented dialog with neural network methods
Hsu Language modeling for limited-data domains
Gupta A review of generative AI from historical perspectives

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200522