CN108304513B - 增加生成式对话模型结果多样性的方法及设备 - Google Patents

增加生成式对话模型结果多样性的方法及设备 Download PDF

Info

Publication number
CN108304513B
CN108304513B CN201810061563.XA CN201810061563A CN108304513B CN 108304513 B CN108304513 B CN 108304513B CN 201810061563 A CN201810061563 A CN 201810061563A CN 108304513 B CN108304513 B CN 108304513B
Authority
CN
China
Prior art keywords
sampling
memory module
encoder
value
continuous vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810061563.XA
Other languages
English (en)
Other versions
CN108304513A (zh
Inventor
陆晨昱
舒畅
何永
李传丰
武拥珍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yiyu Intelligent Technology (Jiaxing) Co.,Ltd.
Original Assignee
Yiyu Intelligent Technology Shanghai Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yiyu Intelligent Technology Shanghai Co ltd filed Critical Yiyu Intelligent Technology Shanghai Co ltd
Priority to CN201810061563.XA priority Critical patent/CN108304513B/zh
Publication of CN108304513A publication Critical patent/CN108304513A/zh
Application granted granted Critical
Publication of CN108304513B publication Critical patent/CN108304513B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明的目的是提供一种增加生成式对话模型结果多样性的方法及设备,本发明在编码与解码这两步的中间加入了一个记忆模块以及在记忆模块上采样,解码器decoder根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,生成回复所述用户的对话,来达到增加生成的回复用户的对话更多样、信息量更大的效果。

Description

增加生成式对话模型结果多样性的方法及设备
技术领域
本发明涉及计算机领域,尤其涉及一种增加生成式对话模型结果多样性的方法及设备。
背景技术
用自然语言进行人机交互将会是今后的一个重要发展方向,无论是对科研学术领域还是商业应用领域来说都是如此。尽管如今市面上已经存在各种聊天机器人,对话建模并自动生成回复仍是一个远未解决的富有挑战性的任务。传统的基于检索的方法尽管给出的回复在语法及内容上质量较高,但往往比较死板,就只有固定的那几句“套路”,并且时常答非所问。基于生成式模型的方法则不同,理论上可以从现有的对话数据中去学习如何对话,然后灵活的回复用户的不同请求。
检索式的系统通过检索数据库给出回复,只能给出数据库中现成的回复,某些时候可能检索不到合适的回复。
生成式的系统根据用户的请求逐字或逐词生成一段回复,更灵活。但现有的生成式的系统往往生成一些比较通用的回复,生成的回复多样性不足。
伴随着深度学习的飞速发展,Seq2Seq模型被证明是一种强大且灵活的技术,并已在诸如语音识别,机器翻译等应用中大展身手。我们也可以将Seq2Seq模型应用到对话建模中。然而对话与前面提到的几个任务不同,天生自带极强的多样性。也就是说,用户的同一个请求,可以有无穷多种不同的合理的回复存在。这就使得直接照搬Seq2Seq模型到对话领域在效果上不尽如人意。
发明内容
本发明的一个目的是提供一种增加生成式对话模型结果多样性的方法及设备,能够解决现有的生成式对话模型的回复多样性不足的问题。
根据本发明的一个方面,提供了一种增加生成式对话模型结果多样性的方法,该方法包括:
获取用户的生成对话的请求文本,所述请求文本为离散的输入序列;
将所述离散的输入序列用编码器进行编码,以将离散的输入序列编码到连续的向量空间,生成连续向量值;
根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值;
根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器生成回复所述用户的对话。
进一步的,上述方法中,所述编码器为循环神经网络。
进一步的,上述方法中,根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值,包括:
所述记忆模块是键值对的形式,根据所述编码器的输出的连续向量值和所述记忆模块的状态及匹配方式匹配到多个键;
计算每个匹配到的键key的概率分布;
根据计算得到的概率分布,对所有匹配到的键key在记忆模块中进行蒙特卡洛采样,取采样得到的键key对应的值为所述采样值。
进一步的,上述方法中,所述解码器为循环神经网络。
进一步的,上述方法中,根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器生成回复所述用户的对话,包括:
循环神经网络的解码器根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用beam searching算法生成回复所述用户的离散的输出序列。
根据本发明的另一方面,还提供了一种增加生成式对话模型结果多样性的设备,该设备包括:
获取装置,用于获取用户的生成对话的请求文本,所述请求文本为离散的输入序列;
编码装置,用于将所述离散的输入序列用编码器进行编码,以将离散的输入序列编码到连续的向量空间,生成连续向量值;
采样装置,用于根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值;
解码装置,用于根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器生成回复所述用户的对话。
进一步的,上述设备中,所述编码器为循环神经网络。
进一步的,上述设备中,所述采样装置,用于所述记忆模块是键值对的形式,根据所述编码器的输出的连续向量值和所述记忆模块的状态及匹配方式匹配到多个键;计算每个匹配到的键的概率分布;根据计算得到的概率分布,对所有匹配到的键key在记忆模块中进行蒙特卡洛采样,取采样得到的键key对应的值为所述采样值。
进一步的,上述设备中,所述解码器为循环神经网络。
进一步的,上述设备中,所述解码装置,用于循环神经网络的解码器根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用bedm sedrching算法生成回复所述用户的离散的输出序列。
根据本发明的另一面,还提供一种基于计算的设备,其中,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取用户的生成对话的请求文本,所述请求文本为离散的输入序列;
将所述离散的输入序列用编码器进行编码,以将离散的输入序列编码到连续的向量空间,生成连续向量值;
根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值;
根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器生成回复所述用户的对话。
根据本发明的另一面,还提供一种计算机可读存储介质,其上存储有计算机可执行指令,其中,该计算机可执行指令被处理器执行时使得该处理器:
获取用户的生成对话的请求文本,所述请求文本为离散的输入序列;
将所述离散的输入序列用编码器进行编码,以将离散的输入序列编码到连续的向量空间,生成连续向量值;
根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值;
根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器生成回复所述用户的对话。
与现有技术相比,本发明在编码与解码这两步的中间加入了一个记忆模块以及在记忆模块上采样,解码器decoder根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,生成回复所述用户的对话,来达到增加生成的回复用户的对话更多样、信息量更大的效果。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1示出根据本发明一实施例的增加生成式对话模型结果多样性的方法的原理图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
下面结合附图对本发明作进一步详细描述。
在本申请一个典型的配置中,终端、服务网络的设备和可信方均包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(fldshRAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
如图1所示,本发明提供一种增加生成式对话模型结果多样性的方法,包括:
步骤S1,获取用户的生成对话的请求文本(Query),所述请求文本为离散的输入序列;
步骤S2,将所述离散的输入序列用编码器encoder进行编码,以将离散的输入序列编码到连续的向量空间,生成连续向量值;
步骤S3,根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值;
步骤S4,根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器decoder生成回复所述用户的对话(Answer)。
在此,本发明在编码与解码这两步的中间加入了一个记忆模块以及在记忆模块上采样,解码器decoder根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,生成回复所述用户的对话,来达到增加生成的回复用户的对话更多样、信息量更大的效果。
本发明的增加生成式对话模型结果多样性的方法一实施例中,所述编码器为循环神经网络RNN,以通过循环神经网络RNN,将离散的输入序列编码到连续的向量空间,生成精确的连续向量值。
本发明的增加生成式对话模型结果多样性的方法一实施例中,步骤S3,根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值,包括:
所述记忆模块(memory module)是键值对(key-value)的形式,根据所述编码器的输出的连续向量值和所述记忆模块的状态及匹配方式匹配到多个键key;
计算每个匹配到的键key的softmax概率分布;
根据计算得到的softmax概率分布,对所有匹配到的键key在记忆模块中进行蒙特卡洛采样,取采样得到的键key对应的值value为所述采样值,以得到准确的采样值,增加后续回复用户的对话的多样性。
本发明的增加生成式对话模型结果多样性的方法一实施例中,所述解码器为循环神经网络RNN,以通过循环神经网络RNN,根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器decoder准确生成回复所述用户的对话。
本发明的增加生成式对话模型结果多样性的方法一实施例中,步骤S4,根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器decoder生成回复所述用户的对话,包括:
循环神经网络RNN的解码器根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用beam searching算法生成回复所述用户的离散的输出序列,以准确、多样的生成回复所述用户的对话。
在此,记忆模块memory module可以在beam search的基础上添加一层更高层级的多样性来源,这种层级化结构对于对话建模来说是有助益的。
根据本发明的另一面,还提供一种增加生成式对话模型结果多样性的设备,其中,该设备包括:
获取装置,用于获取用户的生成对话的请求文本,所述请求文本为离散的输入序列;
编码装置,用于将所述离散的输入序列用编码器进行编码,以将离散的输入序列编码到连续的向量空间,生成连续向量值;
采样装置,用于根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值;
解码装置,用于根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器生成回复所述用户的对话。
在此,本发明在编码与解码这两步的中间加入了一个记忆模块以及在记忆模块上采样,解码器decoder根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,生成回复所述用户的对话,来达到增加生成的回复用户的对话更多样、信息量更大的效果。
本发明的增加生成式对话模型结果多样性的设备一实施例中,所述编码器为循环神经网络RNN,以通过循环神经网络RNN,将离散的输入序列编码到连续的向量空间,生成精确的连续向量值。
本发明的增加生成式对话模型结果多样性的设备一实施例中,所述采样装置,用于所述记忆模块是键值对的形式,根据所述编码器的输出的连续向量值和所述记忆模块的状态及匹配方式匹配到多个键;根据计算得到的概率分布,对所有匹配到的键key在记忆模块中进行蒙特卡洛采样,取采样得到的键key对应的值为所述采样值,以得到准确的采样值,增加后续回复用户的对话的多样性。
本发明的增加生成式对话模型结果多样性的设备一实施例中,所述解码器为循环神经网络,以通过循环神经网络RNN,根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器decoder准确生成回复所述用户的对话。
本发明的增加生成式对话模型结果多样性的设备一实施例中,所述解码装置,用于循环神经网络的解码器根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用beam searching算法生成回复所述用户的离散的输出序列,以准确、多样的生成回复所述用户的对话。
在此,记忆模块memory module可以在beam search的基础上添加一层更高层级的多样性来源,这种层级化结构对于对话建模来说是有助益的。
根据本发明的另一面,还提供一种基于计算的设备,其中,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取用户的生成对话的请求文本,所述请求文本为离散的输入序列;
将所述离散的输入序列用编码器进行编码,以将离散的输入序列编码到连续的向量空间,生成连续向量值;
根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值;
根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器生成回复所述用户的对话。
根据本发明的另一面,还提供一种计算机可读存储介质,其上存储有计算机可执行指令,其中,该计算机可执行指令被处理器执行时使得该处理器:
获取用户的生成对话的请求文本,所述请求文本为离散的输入序列;
将所述离散的输入序列用编码器进行编码,以将离散的输入序列编码到连续的向量空间,生成连续向量值;
根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值;
根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器生成回复所述用户的对话。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
需要注意的是,本发明可在软件和/或软件与硬件的组合体中被实施,例如,可采用专用集成电路(ASIC)、通用目的计算机或任何其他类似硬件设备来实现。在一个实施例中,本发明的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本发明的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,RAM存储器,磁或光驱动器或软磁盘及类似设备。另外,本发明的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
另外,本发明的一部分可被应用为计算机程序产品,例如计算机程序指令,当其被计算机执行时,通过该计算机的操作,可以调用或提供根据本发明的方法和/或技术方案。而调用本发明的方法的程序指令,可能被存储在固定的或可移动的记录介质中,和/或通过广播或其他信号承载媒体中的数据流而被传输,和/或被存储在根据所述程序指令运行的计算机设备的工作存储器中。在此,根据本发明的一个实施例包括一个装置,该装置包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该装置运行基于前述根据本发明的多个实施例的方法和/或技术方案。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装置权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。

Claims (10)

1.一种增加生成式对话模型结果多样性的方法,其中,该方法包括:
获取用户的生成对话的请求文本,所述请求文本为离散的输入序列;
将所述离散的输入序列用编码器进行编码,以将离散的输入序列编码到连续的向量空间,生成连续向量值;
根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值;
根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器生成回复所述用户的对话;
根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值,包括:
所述记忆模块是键值对的形式,根据所述编码器的输出的连续向量值和所述记忆模块的状态及匹配方式匹配到多个键;
计算每个匹配到的键的概率分布;
根据计算得到的概率分布,对所有匹配到的键在记忆模块中进行蒙特卡洛采样,取采样得到的键对应的值为所述采样值。
2.根据权利要求1所述的方法,其中,所述编码器为循环神经网络。
3.根据权利要求1所述的方法,其中,所述解码器为循环神经网络。
4.根据权利要求3所述的方法,其中,根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器生成回复所述用户的对话,包括:
循环神经网络的解码器根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用beam searching算法生成回复所述用户的离散的输出序列。
5.一种增加生成式对话模型结果多样性的设备,其中,该设备包括:
获取装置,用于获取用户的生成对话的请求文本,所述请求文本为离散的输入序列;
编码装置,用于将所述离散的输入序列用编码器进行编码,以将离散的输入序列编码到连续的向量空间,生成连续向量值;
采样装置,用于根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值,所述采样装置,用于所述记忆模块是键值对的形式,根据所述编码器的输出的连续向量值和所述记忆模块的状态及匹配方式匹配到多个键;计算每个匹配到的键的概率分布;根据计算得到的概率分布,对所有匹配到的键在记忆模块中进行蒙特卡洛采样,取采样得到的键对应的值为所述采样值;
解码装置,用于根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器生成回复所述用户的对话。
6.根据权利要求5所述的设备,其中,所述编码器为循环神经网络。
7.根据权利要求5所述的设备,其中,所述解码器为循环神经网络。
8.根据权利要求7所述的设备,其中,所述解码装置,用于循环神经网络的解码器根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用beam searching算法生成回复所述用户的离散的输出序列。
9.一种基于计算的设备,其中,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取用户的生成对话的请求文本,所述请求文本为离散的输入序列;
将所述离散的输入序列用编码器进行编码,以将离散的输入序列编码到连续的向量空间,生成连续向量值;
根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值;
根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器生成回复所述用户的对话;
根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值,包括:
所述记忆模块是键值对的形式,根据所述编码器的输出的连续向量值和所述记忆模块的状态及匹配方式匹配到多个键;
计算每个匹配到的键的概率分布;
根据计算得到的概率分布,对所有匹配到的键在记忆模块中进行蒙特卡洛采样,取采样得到的键对应的值为所述采样值。
10.一种计算机可读存储介质,其上存储有计算机可执行指令,其中,该计算机可执行指令被处理器执行时使得该处理器:
获取用户的生成对话的请求文本,所述请求文本为离散的输入序列;
将所述离散的输入序列用编码器进行编码,以将离散的输入序列编码到连续的向量空间,生成连续向量值;
根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值;
根据所述记忆模块中采样得到采样值和所述编码器的输出的连续向量值,用解码器生成回复所述用户的对话;
根据所述编码器的输出的连续向量值在记忆模块中采样得到采样值,包括:
所述记忆模块是键值对的形式,根据所述编码器的输出的连续向量值和所述记忆模块的状态及匹配方式匹配到多个键;
计算每个匹配到的键的概率分布;
根据计算得到的概率分布,对所有匹配到的键在记忆模块中进行蒙特卡洛采样,取采样得到的键对应的值为所述采样值。
CN201810061563.XA 2018-01-23 2018-01-23 增加生成式对话模型结果多样性的方法及设备 Active CN108304513B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810061563.XA CN108304513B (zh) 2018-01-23 2018-01-23 增加生成式对话模型结果多样性的方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810061563.XA CN108304513B (zh) 2018-01-23 2018-01-23 增加生成式对话模型结果多样性的方法及设备

Publications (2)

Publication Number Publication Date
CN108304513A CN108304513A (zh) 2018-07-20
CN108304513B true CN108304513B (zh) 2020-08-11

Family

ID=62866301

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810061563.XA Active CN108304513B (zh) 2018-01-23 2018-01-23 增加生成式对话模型结果多样性的方法及设备

Country Status (1)

Country Link
CN (1) CN108304513B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110297895B (zh) * 2019-05-24 2021-09-17 山东大学 一种基于自由文本知识的对话方法及系统
CN110287285B (zh) * 2019-05-31 2023-06-16 平安科技(深圳)有限公司 一种问题意图识别方法、装置、计算机设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105159890A (zh) * 2014-06-06 2015-12-16 谷歌公司 使用神经网络产生输入序列的表示
CN106776578A (zh) * 2017-01-03 2017-05-31 竹间智能科技(上海)有限公司 用于提升对话系统对话性能的方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8504570B2 (en) * 2011-08-25 2013-08-06 Numenta, Inc. Automated search for detecting patterns and sequences in data using a spatial and temporal memory system
US10891540B2 (en) * 2015-12-18 2021-01-12 National Technology & Engineering Solutions Of Sandia, Llc Adaptive neural network management system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105159890A (zh) * 2014-06-06 2015-12-16 谷歌公司 使用神经网络产生输入序列的表示
CN106776578A (zh) * 2017-01-03 2017-05-31 竹间智能科技(上海)有限公司 用于提升对话系统对话性能的方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Key-Value Memory Networks for Directly Reading Documents;Alexander H.Miller等;《emnlp会议论文》;20161010;3-4页 *

Also Published As

Publication number Publication date
CN108304513A (zh) 2018-07-20

Similar Documents

Publication Publication Date Title
Bocklisch et al. Rasa: Open source language understanding and dialogue management
KR102486348B1 (ko) 어텐션-기반의 시퀀스 변환 신경망
Räsänen et al. Sequence prediction with sparse distributed hyperdimensional coding applied to the analysis of mobile phone use patterns
WO2019200923A1 (zh) 基于拼音的语义识别方法、装置以及人机对话系统
JP2021524623A (ja) 質問応答としてのマルチタスク学習
US20200342316A1 (en) Attention-based decoder-only sequence transduction neural networks
CN111309883A (zh) 基于人工智能的人机对话方法、模型训练方法及装置
US20230222295A1 (en) Efficient transformer language models with disentangled attention and multi-step decoding
US11294945B2 (en) Unsupervised text summarization with reinforcement learning
CN111401037B (zh) 自然语言的生成方法、装置、电子设备及存储介质
CN108304513B (zh) 增加生成式对话模型结果多样性的方法及设备
CN111125323B (zh) 一种聊天语料标注方法、装置、电子设备及存储介质
CN114861907A (zh) 数据计算方法、装置、存储介质和设备
US11797769B1 (en) Artificial intelligence system using hybrid technique for task-oriented dialog management
CN116848580A (zh) 用于针对多方对话的话语解析的结构自感知模型
WO2022142028A1 (zh) 对话状态确定方法、终端设备及存储介质
CN117252250A (zh) 大模型预训练方法及装置
CN117112744A (zh) 大语言模型的评估方法、装置及电子设备
CN116958738A (zh) 图片识别模型的训练方法和装置、存储介质及电子设备
CN110852043B (zh) 一种文本转写方法、装置、设备及存储介质
CN109190091B (zh) 编码解码方法及设备
CN113312396A (zh) 一种基于大数据的元数据处理方法及设备
CN112149426A (zh) 阅读任务处理方法及相关设备
CN116579350B (zh) 对话理解模型的鲁棒性分析方法、装置和计算机设备
Lavanya et al. Advanced Video Transcription And Summarization A Synergy of Langchain, Language Models, And VectorDB with Mozilla Deep Speech

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210104

Address after: Room 202-5, 2 / F, Huayuan Building, Pinghu Economic and Technological Development Zone, Jiaxing, Zhejiang 314200

Patentee after: Yiyu Intelligent Technology (Jiaxing) Co.,Ltd.

Address before: 201203 3rd floor, building 1, No. 400, Fangchun Road, Pudong New Area, Shanghai

Patentee before: YIYU INTELLIGENT TECHNOLOGY (SHANGHAI) Co.,Ltd.

TR01 Transfer of patent right