CN108595629B - 用于答案选择系统的数据处理方法及应用 - Google Patents

用于答案选择系统的数据处理方法及应用 Download PDF

Info

Publication number
CN108595629B
CN108595629B CN201810371451.4A CN201810371451A CN108595629B CN 108595629 B CN108595629 B CN 108595629B CN 201810371451 A CN201810371451 A CN 201810371451A CN 108595629 B CN108595629 B CN 108595629B
Authority
CN
China
Prior art keywords
answer
data
representation
question
sample data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810371451.4A
Other languages
English (en)
Other versions
CN108595629A (zh
Inventor
杨鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Huiwen Technology (Group) Co.,Ltd.
Original Assignee
Beijing Huiwen Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Huiwen Technology Development Co ltd filed Critical Beijing Huiwen Technology Development Co ltd
Priority to CN201810371451.4A priority Critical patent/CN108595629B/zh
Publication of CN108595629A publication Critical patent/CN108595629A/zh
Application granted granted Critical
Publication of CN108595629B publication Critical patent/CN108595629B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

用于答案选择系统的数据处理方法、数据处理装置和电子设备。该数据处理方法包括:获取对抗样本数据和正常样本数据,对抗样本数据包括至少一条问题数据和相对应的至少一条答案数据,且至少一条答案数据是相对于问题的错误答案;基于对抗样本数据和正常样本数据的词向量表示生成问题数据和答案数据对应的隐状态序列;基于隐状态序列,生成问题数据的最终问题表示和答案数据的最终答案表示;计算最终问题表示和最终答案表示之间的相似度;以及,计算相应的损失函数以通过反向传播调整答案选择系统的网络参数。这样,可以通过基于对抗样本数据进行特定系统模型的训练,从而提升答案选择系统的性能。

Description

用于答案选择系统的数据处理方法及应用
技术领域
本发明总体地涉及数据处理领域,且更为具体地,涉及一种用于答案选择系统的数据处理方法、数据处理装置和电子设备。
背景技术
随着互联网技术的发展,越来越多的人选择在网上搜索问题,并获取与问题相关的答案。然而,当用户通过网络获取自己所需的答案时,针对网上海量的与问题相关的答案,用户往往需要花费大量的时间才能找到自己想要的答案。
答案选择系统正是基于这样的背景应运而生,其目的在于帮助用户快速且准确地获取与问题相关的正确答案。
在答案选择系统中应用了大量的算法,并发挥着巨大的作用,其中不少算法的应用非常成功,应用领域也很广。但是,这些算法也在不同方面,例如鲁棒性、可预测性方面存在不足。
因此,需要改进的用于答案选择系统的数据处理方案。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种用于答案选择系统的数据处理方法、数据处理装置和电子设备,其通过基于对抗样本数据进行特定系统模型的训练,从而提升所述答案选择系统的性能。
根据本申请的一方面,提供了一种用于答案选择系统的数据处理方法,包括:获取对抗样本数据和正常样本数据,所述对抗样本数据包括至少一条问题数据和相对应的至少一条答案数据,且所述至少一条答案数据是相对于所述问题的错误答案;通过词嵌入层生成所述对抗样本数据和所述正常样本数据的词向量表示;通过双向长短期记忆层处理所述对抗样本数据和所述正常样本数据中的问题句子和答案句子以获得问题句子和答案的字符向量表示;结合所述字符向量表示和所述词向量表示作为所述对抗样本数据和所述正常样本数据的最终词向量表示;通过双向长短期记忆层处理所述最终词向量表示以获得所述问题数据和所述答案数据对应的隐状态序列;基于所述问题数据对应的隐状态序列,通过池化层计算出所述问题数据的第一问题表示;通过注意力机制层根据所述第一问题表示计算出所述答案数据的第一答案表示;基于所述答案数据对应的隐状态序列,通过池化层计算出所述答案数据的第二答案表示;通过注意力机制层根据所述第二答案表示计算出所述问题数据的第二问题表示;结合所述第一问题表示和所述第二问题表示作为最终问题表示;结合所述第一答案表示和所述第二答案表示作为最终答案表示;计算所述最终问题表示和所述最终答案表示之间的相似度;以及,计算相应的损失函数以通过反向传播调整所述答案选择系统的网络参数。
在上述用于答案选择系统的数据处理方法中,获取所述对抗样本数据包括:选择与至少一条问题数据对应的至少一条正确答案数据;以及,随机替换所述正确答案数据中的词语以生成所述对抗样本数据。
在上述用于答案选择系统的数据处理方法中,获取所述对抗样本数据包括:从正确答案中选择至少2个连续的词语;选择一条错误答案数据;以及,将所述至少2个连续的词语结合于所述错误答案数据之后,以生成所述对抗样本数据。
在上述用于答案选择系统的数据处理方法中,获取所述对抗样本数据包括:随机采样至少一序列词语;选择一条正确答案数据;以及,将所述至少一序列词语结合于所述正确答案数据之后,以生成所述对抗样本数据。
在上述用于答案选择系统的数据处理方法中,计算所述最终问题表示和所述最终答案表示之间的相似度包括:利用余弦函数计算所述最终问题表示和所述最终答案表示之间的相似度。
在上述用于答案选择系统的数据处理方法中,所述数据处理方法进一步包括:获取待检索问题;和,基于所述答案选择系统获得与所述待检索问题相匹配的答案。
根据本申请的另一方面,提供一种用于答案选择系统的数据处理装置,包括:数据获取单元,用于获取对抗样本数据和正常样本数据,所述对抗样本数据包括至少一条问题数据和相对应的至少一条答案数据,且所述至少一条答案数据是相对于所述问题的错误答案,所述正常样本数据包括至少一条问题数据和相对应的至少一条答案数据,且所述至少一条答案数据是相对于所述问题的正确答案;序列获取单元,用于通过词嵌入层生成所述对抗样本数据和所述正常样本数据的词向量表示;通过双向长短期记忆层处理所述对抗样本数据和所述正常样本数据中的问题句子和答案句子以获得问题句子和答案句子的字符向量表示;结合所述字符向量表示和所述词向量表示作为所述对抗样本数据和所述正常样本数据的最终词向量表示;通过双向长短期记忆层处理所述最终词向量表示以获得所述问题数据和所述答案数据对应的隐状态序列;表示获取单元,用于基于所述问题数据对应的隐状态序列,通过池化层计算出所述问题数据的第一问题表示;通过注意力机制层根据所述第一问题表示计算出所述答案数据的第一答案表示;基于所述答案数据对应的隐状态序列,通过池化层计算出所述答案数据的第二答案表示;通过注意力机制层根据所述第二答案表示计算出所述问题数据的第二问题表示;结合所述第一问题表示和所述第二问题表示作为最终问题表示;结合所述第一答案表示和所述第二答案表示作为最终答案表示;相似度计算单元,用于计算所述最终问题表示和所述最终答案表示之间的相似度;以及,系统调整单元,用于计算相应的损失函数以通过反向传播调整所述答案选择系统的网络参数。
在上述用于答案选择系统的数据处理装置中,所述数据获取单元用于:选择与至少一条问题数据对应的至少一条正确答案数据;以及,随机替换所述正确答案数据中的词语以生成所述对抗样本数据。
在上述用于答案选择系统的数据处理装置中,所述数据获取单元用于:从正确答案中选择至少2个连续的词语;选择一条错误答案数据;以及,将所述至少2个连续的词语结合于所述错误答案数据之后,以生成所述对抗样本数据。
在上述用于答案选择系统的数据处理装置中,所述数据获取单元用于:随机采样至少一序列词语;选择一条正确答案数据;以及,将所述至少一序列词语结合于所述正确答案数据之后,以生成所述对抗样本数据。
在上述用于答案选择系统的数据处理装置中,所述相似度计算单元用于利用余弦函数计算所述最终问题表示和所述最终答案表示之间的相似度。
在上述用于答案选择系统的数据处理装置中,进一步包括:问题获取单元,用于获取待检索问题;和,答案获取单元,用于基于所述答案选择系统获得与所述待检索问题相匹配的答案。
根据本申请的又一方面,提供了一种电子设备,包括:处理器;和,存储器,在所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器运行时使得所述处理器执行如上所述的数据处理方法。
本申请提供的用于答案选择系统的数据处理方法、数据处理装置和电子设备,可以通过基于对抗样本数据进行特定系统模型的训练,从而提升所述答案选择系统的性能。
附图说明
通过阅读下文优选的具体实施方式中的详细描述,本申请各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。说明书附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。显而易见地,下面描述的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。而且在整个附图中,用相同的附图标记表示相同的部件。
图1图示了根据本申请实施例的用于答案选择系统的数据处理方法的流程图;
图2A到图2C图示了根据本申请该实施例的数据处理方法中获取所述对抗样本数据的流程图;
图3图示了根据本申请实施例的数据处理方法中对所述答案选择系统的神经网络模型进行训练的流程图;
图4图示了根据本申请实施例的数据处理方法中所述答案选择系统的系统网络模型的示意图。
图5图示了根据本申请实施例的数据处理方法中所述答案选择系统的双向LSTM层的示意图。
图6图示了根据本申请实施例的用于答案选择系统的数据推荐装置的框图;
图7图示了根据本申请实施例的电子设备的框图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
如上所述,当用户通过网络搜索自己所需的答案时,针对网上海量的与问题相关的答案,用户需要花费大量的时间才能找到自己想要的答案。答案选择系统的目的便在于帮助用户快速而准确地获取与问题对应的正确答案。便于理解,可将答案选择系统定义为:给定一个问题q,和该问题对应的候选答案集合{a1,a2,…an},答案选择系统的目标是从候选答案集合中选择出该问题的正确答案。
在利用答案选择系统进行答案选择问题的过程中,需有效地捕捉问题和答案之间的复杂语义关系。目前答案选择系统的主流神经网络,例如Siamense网络、Attentive网络和Compare-Aggregate网络等,皆致力于提升问题和答案的语义表示,也得到了一定的成效。然而,答案选择领域仍面临着诸多挑战
具体地说,由于在答案选择系统中,问题和答案的长度往往很长,通过现有的神经网络模型往往很难获得长句子之间的依赖。同时,如何生成长度较长的答案的表示也是一大难点。此外,问题对应的正确答案往往包含着许多噪声信息以及与正确答案无关的信息,换言之,生成的答案表示很容易被这些噪声所干扰,无法正确捕捉句子的关键信息。另外,大部分的网络分别对答案和问题进行建模表示,忽略了答案和问题之间的关联性。并且,现有的卷积神经网络或者循环神经网络按照句子的顺序对句子进行处理,无法有效地获得句子中包含的句法信息。
以下介绍一些现有的用于答案选择系统的网络模型。
以前对答案选择的研究通常集中在特征工程,句法分析或词汇语义资源上。但是,这些方法需要许多手工制作的句法和语义特征,制作这些特征需要花费很多时间。因此,特征工程可能无法进一步改进模型的性能。
Siamense网络:Siamense网络使用相同的结构(例如卷积神经网络或者循环神经网络)将问题和答案分别编码为固定长度的向量,而不依赖于任何外部语言资源。之后,计算问题向量和答案向量之间的相似度分数。
基于注意力机制的网络:Siamense网络忽略了问题和答案之间的相互作用。为了捕捉它们之间的相互作用,提出了基于注意力机制的长短期记忆(Long Short-TermMemory:LSTM)模型解决答案选择问题。基于注意力机制的网络首先生成问题的向量表示,然后根据问题的表示,利用注意力机制生成答案的表示。
比较-聚合网络:针对自然语言推断任务首次提出比较-聚合网络。该网络相对传统循环神经网络,忽略了句子之间的语序信息,并且参数相对传统循环神经网络减少了一个数量级。此外,通过分析不同的字级的比较函数,可以在QA和SNLI数据集上取得了良好的实验结果。
但是,上述用于答案选择系统的网络模型仍存在如上所述的问题。
因此,针对上述技术问题,本申请的基本构思是基于对抗样本数据进行特定系统模型的训练,从而提升答案选择系统的性能。
基于此,本申请提出了一种用于答案选择系统的数据处理方法、数据处理装置和电子设备,其首先获取对抗样本数据和正常样本数据,然后生成所述对抗样本数据和所述正常样本数据中的问题数据和答案数据的模型表示,并进而调整所述答案选择系统的网络模型的参数。这样,通过基于对抗样本数据进行特定系统模型的训练,可以提升答案选择系统的性能。
在介绍了本申请的基本原理之后,下面将参考附图来具体介绍本申请的各种非限制性实施例。
示意性方法
图1图示了根据本申请实施例的用于答案选择系统的数据处理方法的流程图。
如图1所示,根据本申请实施例的用于答案选择系统的数据处理方法包括:S110,获取对抗样本数据和正常样本数据,所述对抗样本数据包括至少一条问题数据和相对应的至少一条答案数据,且所述至少一条答案数据是相对于所述问题的错误答案;S120,基于所述对抗样本数据和所述正常样本数据的最终词向量表示生成所述问题数据和所述答案数据对应的隐状态序列,包括:通过词嵌入层生成所述对抗样本数据和所述正常样本数据的词向量表示;通过双向长短期记忆(LSTM)层处理所述对抗样本数据和所述正常样本数据中的问题句子和答案句子以获得问题句子和答案句子的字符向量表示;结合所述字符向量表示和所述词向量表示作为所述对抗样本数据和所述正常样本数据的最终词向量表示;以及,通过双向长短期记忆层处理所述最终词向量表示以获得所述问题数据和所述答案数据对应的隐状态序列;S130,生成所述对抗样本数据和所述正常样本数据中的问题数据和答案数据的最终问题表示和最终答案表示,包括:基于所述问题数据的隐状态序列,通过池化层计算出所述问题数据的第一问题表示;通过注意力机制层根据所述第一问题表示计算出所述答案数据的第一答案表示;基于所述最终答案数据的隐状态序列,通过池化层计算出所述答案数据的第二答案表示;通过注意力机制层根据所述第二答案表示计算出所述问题数据的第二问题表示;结合所述第一问题表示和所述第二问题表示作为最终问题表示;结合所述第一答案表示和所述第二答案表示作为最终答案表示;S140,计算所述最终问题表示和所述最终答案表示之间的相似度;以及S150,计算相应的损失函数以通过反向传播调整所述答案选择系统的网络参数。
在步骤S110中,获取对抗样本数据和正常样本数据。这里,对抗样本数据和正常样本数据为彼此相对的概念。所述正常样本数据包括至少一条问题数据和相对应的至少一条答案数据,且所述至少一条答案数据是相对于所述问题的正确答案。相对于所述正常样本数据,所述对抗样本数据包括至少一条问题数据和相对应的至少一条答案数据,且所述至少一条答案数据是相对于所述问题的错误答案。也就是说,在根据本申请实施例的数据处理方法中,所述对抗样本数据是增加的用于训练所述答案选择系统的数据集,从而通过数据增强的方式优化所述的答案选择系统的性能。
特别地,在根据本申请实施例的数据处理方法中,可以通过各种方式生成对抗样本数据,以产生多种类型的对抗样本。
第一类对抗样本为:随机替换正确答案中的至少一个词语所生成的对抗样本数据。也就是说,通过给一个正常的句子加入噪音(随机交换一些词语,随机替换句子中的一些词语)生成对抗样本。具体地,首先选择出问题对应的正确答案,然后,随机交换正确答案中的一些词语生成一个对抗样本。并且,该对抗样本在训练时,作为该问题训练时候的错误答案。
第二类对抗样本为:将正确答案中至少2个连续的词语结合于错误答案之后所生成的对抗样本数据。具体地,首先从正确答案中任意采样出至少2个连续的词语,然后,从整个语料中采样一个错误答案,将刚才采样的至少2个连续词语加入到该错误答案的后边,生成一个新的错误答案。
第三类对抗样本为:将随机采样的至少一序列词语结合于正确答案之后所生成的对抗样本数据。具体地,随机采样生成一些序列词语,这里,不需要考虑这些词语之间的句法完整性。然后,将这些词语加入到问题对应的正确答案的末尾。并且,在训练时,将这个新生成的对抗样本作为该问题训练时候的正确答案。
需特别指出,所述第一类对抗样本和所述第二类对抗样本在训练时作为错误答案,通过所述第一类对抗样本和所述第二类对抗样本可有效地提高所述答案选择系统的鲁棒性,使得所述答案选择系统能够更为准确地区分正确答案和错误答案。所述第三类对抗样本在训练时作为具有错误信息的正确答案,从而通过所述第三类对抗样本可扩大所述答案选择系统的训练数据集,使得所述答案选择系统能有效地筛选出包含噪声信息的正确答案。
并且,本领域技术人员可以理解,在根据本申请实施例的数据处理方法中,也可通过其他方式生成除了上述第一类对抗样本、第二类对抗样本和第三类对抗样本之外的其他对抗样本,以有针对性地提升所述答案选择系统的性能。
因此,在根据本申请实施例的用于答案选择系统的数据处理方法中,获取所述对抗样本数据包括:选择与至少一条问题数据对应的至少一条正确答案数据;以及,随机替换所述正确答案数据中的词语以生成所述对抗样本数据。
并且,在根据本申请实施例的用于答案选择系统的数据处理方法中,获取所述对抗样本数据包括:从正确答案中选择至少2个连续的词语;选择一条错误答案数据;以及,将所述至少2个连续的词语结合于所述错误答案数据之后,以生成所述对抗样本数据。
并且,在根据本申请实施例的用于答案选择系统的数据处理方法中,获取所述对抗样本数据包括:随机采样至少一序列词语;选择一条正确答案数据;以及,将所述至少一序列词语结合于所述正确答案数据之后,以生成所述对抗样本数据。
图2A到图2C图示了根据本申请该实施例的数据处理方法中获取所述对抗样本数据的流程图。如图2A所示,获取所述对抗样本数据的步骤,包括:S210,选择与至少一条问题数据对应的至少一条正确答案数据;以及,S220,随机替换所述正确答案数据中的词语以生成所述对抗样本数据。相应地,如图2B所示,获取所述对抗样本数据的步骤包括:S230,从正确答案中选择至少2个连续的词语;S240,选择一条错误答案数据;以及,S250,将所述至少2个连续的词语结合于所述错误答案数据之后,以生成所述对抗样本数据。相应地,如图2C所示,获取所述对抗样本数据的步骤包括:S260随机采样至少一序列词语;S270,选择一条正确答案数据;以及S280,将所述至少一序列词语结合于所述正确答案数据之后,以生成所述对抗样本数据。
在步骤S120,生成所述对抗样本数据和所述正常样本数据的最终词向量表示,包括:通过词嵌入层生成所述对抗样本数据和所述正常样本数据的词向量表示;通过双向LSTM层处理所述对抗样本数据和所述正常样本数据中的问题句子和答案句子以获得问题句子和答案句子的字符向量表示;以及,结合所述字符向量表示和所述词向量表示作为所述对抗样本数据和所述正常样本数据的最终词向量表示。
在步骤S130,生成所述对抗样本数据和所述正常样本数据中的问题数据和答案数据的最终问题表示和最终答案表示,包括:基于所述最终词向量表示,通过池化层计算出所述问题数据的第一问题表示;通过注意力机制层根据所述第一问题表示计算出所述答案数据的第一答案表示;基于所述最终词向量表示,通过池化层计算出所述答案数据的第二答案表示;通过注意力机制层根据所述第二答案表示计算出所述问题数据的第二问题表示;结合所述第一问题表示和所述第二问题表示作为最终问题表示;结合所述第一答案表示和所述第二答案表示作为最终答案表示。
在步骤S140,计算所述最终问题表示和所述最终答案表示之间的相似度。
最后,在步骤S150,计算相应的损失函数以通过反向传播调整所述答案选择系统的网络参数。
以上步骤S120到步骤S150对应于利用所述对抗样本数据和所述正常样本数据训练所述答案选择系统以调整所述答案选择系统的网络参数。更明确地说,在获取所述对抗样本数据和所述正常样本数据之后,藉由所述正常样本数据和所述对抗样本数据对所述答案选择系统的系统网络模型进行训练以调整所述答案选择系统的系统网络模型的网络参数。
图3图示了根据本申请实施例的数据处理方法中对所述答案选择系统的系统网络模型进行训练的流程图。如图3所示,对所述答案选择系统的系统网络模型训练的过程,包括:S301,通过词嵌入层生成所述对抗样本数据和所述正常样本数据的词向量表示;S302,通过双向LSTM层处理所述对抗样本数据和所述正常样本数据中的问题句子和答案句子以获得问题句子和答案的字符向量表示;S303,结合所述字符向量表示和所述词向量表示作为所述对抗样本数据和所述正常样本数据的最终词向量表示;S304,通过双向长短期记忆层处理所述最终词向量表示以获得所述问题数据和所述答案数据对应的隐状态序列;S305,基于所述问题数据对应的隐状态序列,通过池化层计算出所述问题数据的第一问题表示;S306,通过注意力机制层根据所述第一问题表示计算出所述答案数据的第一答案表示;S307,基于所述答案数据对应的隐状态该序列,通过池化层计算出所述答案数据的第二答案表示;S308,通过注意力机制层根据所述第二答案表示计算出所述问题数据的第二问题表示;S309,结合所述第一问题表示和所述第二问题表示作为最终问题表示;S310,结合所述第一答案表示和所述第二答案表示作为最终答案表示;S311,计算所述最终问题表示和所述最终答案表示之间的相似度;以及S312,计算相应的损失函数以通过反向传播调整所述答案选择系统的网络参数。
图4图示了根据本申请实施例的数据处理方法中所述答案选择系统的系统网络模型的示意图。如图4所示,在根据本申请实施例的数据处理方法中,所述答案选择系统的系统网络模型包括词嵌入层、双向LSTM层、池化层、注意力机制层和全连接层。
首先,通过所述词嵌入层生成所述对抗样本数据和所述正常样本数据的词向量表示。特别地,在根据本申请实施例的数据处理方法中,使用提前训练好的具有预设维度(例如,100维)的词向量作为所述对抗样本数据和所述正常样本数据的词向量。也就是说,将所述对抗样本数据和所述正常样本数据中的词,比如苹果(apple)转换为100维的空间向量。其中,在训练的过程中,固定该词向量不变。
进一步地,通过所述双向LSTM层处理所述对抗样本数据和所述正常样本数据中的问题句子和答案句子以获得问题句子和答案句子的字符向量表示,并结合所述字符向量表示和所述词向量表示作为所述对抗样本数据和所述正常样本数据的最终词向量表示。
更具体地说,在本申请的实施例中,所述正常样本数据和所述对抗样本数据中的问题数据和答案数据中的每个词语可看作一个字符序列。本领域的技术人员可以理解,LSTM网络广泛地应用于处理序列,因此,可藉由LSTM网络将所述正常样本数据和所述对抗样本数据中的问题数据和答案数据中的每个词语对应的字符序列转化为每个词语的字符向量表示。特别地,在根据本发明实施例的数据处理方法中,采用双向LSTM层处理所述对抗样本数据和所述正常样本数据中的问题句子和答案句子以获得问题句子和答案句子的字符向量表示。双向LSTM层包括前向LSTM层和后向LSTM层,其是两个独立的单向LSTM,其中,前向LSTM层可利用未来句子的信息,后向LSTM层可利用过去句子的信息。因此,藉由双向LSTM层,所述答案选择系统能够结合历史信息和未来信息做更优的预测和分析。
图5图示了根据本申请实施例的数据处理方法中所述答案选择系统的双向LSTM层的示意图。如图5所示,所述双向LSTM层包括两个分别独立的单向LSTM层,即,前向LSTM层和后向LSTM层。在所述双向LSTM层的输出结果中,包括未来的句子信息(yt+1)和过去的句子信息(yt-1),从而所述答案选择系统同时利用未来的句子信息和过去的句子信息对所述答案选择系统的神经网络模型进行训练,以提升所述答案选择系统的可预测性和鲁棒性。值得一提的是,本领域技术人员可以理解,LSTM网络可以有效地避免梯度消失和梯度爆炸,从而藉由LSTM网络可以更好地处理句子的长依赖问题,也就是说,在本申请的该实施例中,藉由所述双向LSTM网络可更好地处理答案句子长依赖问题,以进一步地提升所述答案选择系统的性能。
在通过所述双向LSTM层处理所述对抗样本数据和所述正常样本以获得所述对抗样本数据和所述正常样本数据的最终词向量表示之后,通过双向长短期记忆层处理所述最终词向量表示以获得所述问题数据和所述答案数据对应的隐状态序列。
之后,在基于所述问题数据和所述答案数据对应的隐状态基序列,通过注意力机制捕捉问题和答案之间的关系。应注意的是,此时,对于所述答案选择系统而言,所述问题包括所述对抗样本中包含的问题和所述正常样本中包含的问题,所述答案包括所述对抗样本中包含的错误答案和所述正常样本中包含的答案,换言之,此时,所述问题为所述对抗样本数据和所述正常样本数据中问题的总和,所述答案为所述对抗样本数据和所述正常样本数据中答案的总和。
更具体地说,在藉由注意力机制捕捉问题和答案之间的关系的过程中,首先,通过池化层基于所述问题数据的隐状态序列获得所述问题数据的第一问题表示Vq1。也就是说,通过所述池化层的池化操作得到所述问题数据的第一问题表示Vq1。之后,通过注意力机制层根据所述第一问题表示Vq1计算出所述答案数据的第一答案表示Va1。之后,通过池化层基于所述答案数据的隐状态序列计算出所述答案数据的第二答案表示Va2,即,通过所述池化层的池化操作得到所述答案数据的第二答案表示Va2。相类似地,进而通过注意力机制层根据所述第二答案表示Va2计算出所述问题数据的第二问题表示Vq2。之后,通过结合所述第一问题表示Vq1和所述第二问题表示Vq2作为最终问题表示,以及,结合所述第一答案表示Va1和所述第二答案表示Va2作为最终答案表示。即,最终的问题表示为Vq=[Vq1,Vq2],且最终的答案表示为Va=[Va1,Va2]。
相应地,在获得所述最终问题表示和所述最终答案表示之后,可进一步地通过全连接层计算所述最终问题表示和所述最终答案表示之间的相似度,以捕捉所述问题数据和所述答案数据之间的关系。特别地,在本申请实施例中,所述最终问题表示和所述最终答案表示之间的相似度藉由余弦函数计算得到。
应领会的是,通过注意力机制处理所述正常样本数据和所述对抗样本数据的过程中,所述问题数据和所述答案数据之间的联系被允以充分地考虑。相应地,通过这样的方式训练完成的所述答案选择系统,在进行答案选择的过程中,同样能充分利用问题和答案之间的联系以提高所述答案选择系统的准确性和可靠性。
进一步地,在通过注意力机制捕捉到问题和答案之间的关系之后,与现有的神经网络模型相一致,最后需计算相应的损失函数以通过反向传播调整所述答案选择系统的网络参数。通过这样的方式,完成对所述答案选择系统的神经网络模型的训练。
综上,说明了通过所述对抗样本数据和所述正常样本数据训练所述答案选择系统的系统网络模型的过程。从上述过程可看出,在本申请实施例中,通过在正常样本数据中加入对抗样本数据人为地增强训练的数据集,可以从数据增强的角度优化所述答案选择系统的性能。
进一步地,在藉由所述对抗样本数据和所述正常样本数据训练完成所述答案选择系统的所述系统网络模型之后,可通过所述答案选择系统进行答案选择。更具体地说,将待检索问题输入至所述答案选择系统,进而基于所述答案选择系统获得与所述待检索问题相匹配的答案。也就是说,在根据本申请实施例的数据处理方法中,进一步包括:获取待检索问题;和,基于所述答案选择系统获得与所述待检索问题相匹配的答案。
值得一提的是,本申请所提供的所述答案选择系统可被应用于对话系统(例如,Siri)或者问答平台(例如,StackOverflow,WikiQA,InsuranceQA等),以提升相应对话系统和问答平台的提供答案的准确率,满足用户的需求。当然,本领域的技术人员可以理解,本申请实施例所提供的所述答案选择系统还可应用于其他问答系统中,本申请实施例并不意在进行任何限制。
在实际测试过程中,根据本申请实施例的用于答案选择系统的数据处理方法在InsuranceQA Dev数据集上的结果为MAP 69.5,其中第一次测试的结果为MAP 71.3,第二次测试的结果为MAP 67.5。
这里,MAP(Mean Average Precision)表示单个主题的平均准确率,其是每篇相关文档检索出后的准确率的平均值。主集合的平均准确率(MAP)是每个主题的平均准确率的平均值。MAP是反映系统在全部相关文档上性能的单值指标。系统检索出来的相关文档越靠前(排名越高),MAP就可能越高。如果系统没有返回相关文档,则准确率默认为0。
并且,根据本申请实施例的用于答案选择系统的数据处理方法在WikiQA数据集上的结果为74.57MAP和75.73MRR。其中,MRR是一个国际上通用的对搜索算法进行评价的指标,即第一个结果匹配,分数为1,第二个匹配分数为0.5,第n个匹配分数为1/n,如果没有匹配的句子分数为0。最终的分数为所有得分之和。
示意性装置
图6图示了根据本申请实施例的用于答案选择系统的数据处理装置400的示意性框图。如图6所示,根据本申请实施例的用于答案选择系统的数据处理装置400包括:数据获取单元410,用于获取对抗样本数据和正常样本数据,所述对抗样本数据包括至少一条问题数据和相对应的至少一条答案数据,且所述至少一条答案数据是相对于所述问题的错误答案,所述正常样本数据包括至少一条问题数据和相对应的至少一条答案数据,且所述至少一条答案数据是相对于所述问题的正确答案;序列获取单元420,用于通过词嵌入层生成所述对抗样本数据和所述正常样本数据的词向量表示;通过双向LSTM层处理所述对抗样本数据和所述正常样本数据中的问题句子和答案句子以获得问题句子和答案句子的字符向量表示;结合所述字符向量表示和所述词向量表示作为所述对抗样本数据和所述正常样本数据的最终词向量表示;通过双向长短期记忆层处理所述最终词向量表示以获得所述问题数据和所述答案数据对应的隐状态序列;表示获取单元430,用于基于所述问题数据的隐状态序列,通过池化层计算出所述问题数据的第一问题表示;通过注意力机制层根据所述第一问题表示计算出所述答案数据的第一答案表示;基于所述答案数据的隐状态序列,通过池化层计算出所述答案数据的第二答案表示;通过注意力机制层根据所述第二答案表示计算出所述问题数据的第二问题表示;结合所述第一问题表示和所述第二问题表示作为最终问题表示;结合所述第一答案表示和所述第二答案表示作为最终答案表示;相似度计算单元440,用于计算所述最终问题表示和所述最终答案表示之间的相似度;以及,系统调整单元450,用于计算相应的损失函数以通过反向传播调整所述答案选择系统的网络参数。
在一个示例中,在上述用于答案选择系统的数据处理装置400中,所述数据获取单元410用于:选择与至少一条问题数据对应的至少一条正确答案数据;以及,随机替换所述正确答案数据中的词语以生成所述对抗样本数据。
在一个示例中,在上述用于答案选择系统的数据处理装置400中,所述数据获取单元410用于:从正确答案中选择至少2个连续的词语;选择一条错误答案数据;以及,将所述至少2个连续的词语结合于所述错误答案数据之后,以生成所述对抗样本数据。
在一个示例中,在上述用于答案选择系统的数据处理装置400中,所述数据获取单元410用于:随机采样至少一序列词语;选择一条正确答案数据;以及,将所述至少一序列词语结合于所述正确答案数据之后,以生成所述对抗样本数据。
在一个示例中,在上述用于答案选择系统的数据处理装置400中,所述相似度计算单元440用于利用余弦函数计算所述最终问题表示和所述最终答案表示之间的相似度。
在一个示例中,在上述用于答案选择系统的数据处理装置400中,进一步包括:问题获取单元,用于获取待检索问题;和,答案获取单元,用于基于所述答案选择系统获得与所述待检索问题相匹配的答案。
这里,本领域技术人员可以理解,上述数据处理装置400中的各个单元和模块的具体功能和操作已经在上面参考图1到图5描述的用于答案选择系统的数据处理方法中详细介绍,并因此,将省略其重复描述。
如上所述,根据本申请实施例的数据处理装置400可以实现在各种终端设备中,例如运行答案选择系统的服务器。在一个示例中,根据本申请实施例的数据处理装置400可以作为一个软件模块和/或硬件模块而集成到所述终端设备中。例如,该数据处理装置400可以是该终端设备的操作系统中的一个软件模块,或者可以是针对于该终端设备所开发的一个应用程序;当然,该数据处理装置400同样可以是该终端设备的众多硬件模块之一。
替换地,在另一示例中,该数据处理装置400与该终端设备也可以是分立的设备,并且该数据处理装置400可以通过有线和/或无线网络连接到该终端设备,并且按照约定的数据格式来传输交互信息。
示意性电子设备
下面,参考图7来描述根据本申请实施例的电子设备。
图7图示了根据本申请实施例的电子设备的框图。
如图7所示,电子设备10包括一个或多个处理器11和存储器12。
处理器11可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备10中的其他组件以执行期望的功能。
存储器12可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器11可以运行所述程序指令,以实现上文所述的本申请的各个实施例的用于答案选择系统的数据处理方法的功能。在所述计算机可读存储介质中还可以存储诸如对抗样本数据,正常样本数据等各种内容。
在一个示例中,电子设备10还可以包括:输入装置13和输出装置14,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
例如,该输入装置13可以是例如键盘、鼠标等等。
该输出装置14可以向外部输出各种信息,包括基于问题选择的答案等。该输出设备14可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图7中仅示出了该电子设备10中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备10还可以包括任何其他适当的组件。
示意性计算机程序产品
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的用于答案选择系统的数据处理方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的用于答案选择系统的数据处理方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (14)

1.一种用于答案选择系统的数据处理方法,包括:
获取对抗样本数据和正常样本数据,所述对抗样本数据包括至少一条问题数据和相对应的至少一条答案数据,且所述至少一条答案数据是相对于所述问题的错误答案;
通过词嵌入层生成所述对抗样本数据和所述正常样本数据的词向量表示;
通过双向长短期记忆层处理所述对抗样本数据和所述正常样本数据中的问题句子和答案句子以获得问题句子和答案句子的字符向量表示;
结合所述字符向量表示和所述词向量表示作为所述对抗样本数据和所述正常样本数据的最终词向量表示;
通过双向长短期记忆层处理所述最终词向量表示以获得所述问题数据和所述答案数据对应的隐状态序列;
基于所述问题数据对应的隐状态序列,通过池化层计算出所述问题数据的第一问题表示;
通过注意力机制层根据所述第一问题表示计算出所述答案数据的第一答案表示;
基于所述答案数据对应的隐状态序列,通过池化层计算出所述答案数据的第二答案表示;
通过注意力机制层根据所述第二答案表示计算出所述问题数据的第二问题表示;
结合所述第一问题表示和所述第二问题表示作为最终问题表示;
结合所述第一答案表示和所述第二答案表示作为最终答案表示;
计算所述最终问题表示和所述最终答案表示之间的相似度;以及
计算相应的损失函数以通过反向传播调整所述答案选择系统的网络参数。
2.如权利要求1所述的用于答案选择系统的数据处理方法,其中,获取所述对抗样本数据包括:
选择与至少一条问题数据对应的至少一条正确答案数据;以及
随机替换所述正确答案数据中的词语以生成所述对抗样本数据。
3.如权利要求1所述的用于答案选择系统的数据处理方法,其中,获取所述对抗样本数据包括:
从正确答案中选择至少2个连续的词语;
选择一条错误答案数据;以及
将所述至少2个连续的词语结合于所述错误答案数据之后,以生成所述对抗样本数据。
4.如权利要求1所述的用于答案选择系统的数据处理方法,其中,获取所述对抗样本数据包括:
随机采样至少一序列词语;
选择一条正确答案数据;以及
将所述至少一序列词语结合于所述正确答案数据之后,以生成所述对抗样本数据。
5.如权利要求1所述的用于答案选择系统的数据处理方法,其中,计算所述最终问题表示和所述最终答案表示之间的相似度包括:
利用余弦函数计算所述最终问题表示和所述最终答案表示之间的相似度。
6.如权利要求1到5中任意一项所述的用于答案选择系统的数据处理方法,进一步包括:
获取待检索问题;和
基于所述答案选择系统获得与所述待检索问题相匹配的答案。
7.一种用于答案选择系统的数据处理装置,包括:
数据获取单元,用于获取对抗样本数据和正常样本数据,所述对抗样本数据包括至少一条问题数据和相对应的至少一条答案数据,且所述至少一条答案数据是相对于所述问题的错误答案;
序列获取单元,用于
通过词嵌入层生成所述对抗样本数据和所述正常样本数据的词向量表示;
通过双向长短期记忆层处理所述对抗样本数据和所述正常样本数据中的问题句子和答案句子以获得问题句子和答案句子的字符向量表示;
结合所述字符向量表示和所述词向量表示作为所述对抗样本数据和所述正常样本数据的最终词向量表示;
通过双向长短期记忆层处理所述最终词向量表示以获得所述问题数据和所述答案数据对应的隐状态序列;
表示获取单元,用于
基于所述问题数据对应的隐状态序列,通过池化层计算出所述问题数据的第一问题表示;
通过注意力机制层根据所述第一问题表示计算出所述答案数据的第一答案表示;
基于所述答案数据对应的隐状态序列,通过池化层计算出所述答案数据的第二答案表示;
通过注意力机制层根据所述第二答案表示计算出所述问题数据的第二问题表示;
结合所述第一问题表示和所述第二问题表示作为最终问题表示;
结合所述第一答案表示和所述第二答案表示作为最终答案表示;
相似度计算单元,用于计算所述最终问题表示和所述最终答案表示之间的相似度;以及
系统调整单元,用于计算相应的损失函数以通过反向传播调整所述答案选择系统的网络参数。
8.如权利要求7所述的用于答案选择系统的数据处理装置,其中,所述数据获取单元用于:
选择与至少一条问题数据对应的至少一条正确答案数据;以及
随机替换所述正确答案数据中的词语以生成所述对抗样本数据。
9.如权利要求7所述的用于答案选择系统的数据处理装置,其中,所述数据获取单元用于:
从正确答案中选择至少2个连续的词语;
选择一条错误答案数据;以及
将所述至少2个连续的词语结合于所述错误答案数据之后,以生成所述对抗样本数据。
10.如权利要求7所述的用于答案选择系统的数据处理装置,其中,所述数据获取单元用于:
随机采样至少一序列词语;
选择一条正确答案数据;以及
将所述至少一序列词语结合于所述正确答案数据之后,以生成所述对抗样本数据。
11.如权利要求7所述的用于答案选择系统的数据处理装置,其中,所述相似度计算单元用于利用余弦函数计算所述最终问题表示和所述最终答案表示之间的相似度。
12.如权利要求7到11中任意一项所述的用于答案选择系统的数据处理装置,进一步包括:
问题获取单元,用于获取待检索问题;和
答案获取单元,用于基于所述答案选择系统获得与所述待检索问题相匹配的答案。
13.一种电子设备,包括:
处理器;以及
存储器,在所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器运行时使得所述处理器执行如权利要求1-6中任一项所述的数据处理方法。
14.一种计算机可读存储介质,其上存储有计算机程序指令,当所述计算机程序指令被计算装置执行时,可操作来执行如权利要求1-6中任一项所述的数据处理方法。
CN201810371451.4A 2018-04-24 2018-04-24 用于答案选择系统的数据处理方法及应用 Active CN108595629B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810371451.4A CN108595629B (zh) 2018-04-24 2018-04-24 用于答案选择系统的数据处理方法及应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810371451.4A CN108595629B (zh) 2018-04-24 2018-04-24 用于答案选择系统的数据处理方法及应用

Publications (2)

Publication Number Publication Date
CN108595629A CN108595629A (zh) 2018-09-28
CN108595629B true CN108595629B (zh) 2021-08-06

Family

ID=63614841

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810371451.4A Active CN108595629B (zh) 2018-04-24 2018-04-24 用于答案选择系统的数据处理方法及应用

Country Status (1)

Country Link
CN (1) CN108595629B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109471895B (zh) * 2018-10-29 2021-02-26 清华大学 电子病历表型抽取、表型名称规范化方法及系统
CN109581871B (zh) * 2018-12-03 2022-01-21 北京工业大学 免疫对抗样本的工业控制系统入侵检测方法
CN109766424B (zh) * 2018-12-29 2021-11-19 安徽省泰岳祥升软件有限公司 一种阅读理解模型训练数据的过滤方法及装置
CN110516059B (zh) * 2019-08-30 2023-06-09 腾讯科技(深圳)有限公司 基于机器学习的问题答复方法、问答模型训练方法及装置
CN110825857B (zh) * 2019-09-24 2023-07-21 平安科技(深圳)有限公司 多轮问答识别方法、装置、计算机设备及存储介质
CN111078892B (zh) * 2019-11-25 2023-05-23 百度在线网络技术(北京)有限公司 对抗样本生成方法、装置、电子设备及存储介质
CN111046176B (zh) * 2019-11-25 2023-04-07 百度在线网络技术(北京)有限公司 对抗样本生成方法、装置、电子设备及存储介质
CN111797196B (zh) * 2020-06-01 2021-11-02 武汉大学 一种结合注意力机制lstm和神经主题模型的服务发现方法
US11520829B2 (en) 2020-10-21 2022-12-06 International Business Machines Corporation Training a question-answer dialog sytem to avoid adversarial attacks
CN113779199B (zh) * 2021-09-13 2022-12-27 北京有竹居网络技术有限公司 用于文档和摘要的一致性检测的方法、设备、装置和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106383815A (zh) * 2016-09-20 2017-02-08 清华大学 结合用户和产品信息的神经网络情感分析方法
CN106649868A (zh) * 2016-12-30 2017-05-10 首都师范大学 问答匹配方法及装置
CN107562792A (zh) * 2017-07-31 2018-01-09 同济大学 一种基于深度学习的问答匹配方法
CN107844533A (zh) * 2017-10-19 2018-03-27 云南大学 一种智能问答系统及分析方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10467268B2 (en) * 2015-06-02 2019-11-05 International Business Machines Corporation Utilizing word embeddings for term matching in question answering systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106383815A (zh) * 2016-09-20 2017-02-08 清华大学 结合用户和产品信息的神经网络情感分析方法
CN106649868A (zh) * 2016-12-30 2017-05-10 首都师范大学 问答匹配方法及装置
CN107562792A (zh) * 2017-07-31 2018-01-09 同济大学 一种基于深度学习的问答匹配方法
CN107844533A (zh) * 2017-10-19 2018-03-27 云南大学 一种智能问答系统及分析方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于LSTM的大规模知识库自动问答;周博通等;《北京大学学报(自然科学版)》;20180331;第54卷(第2期);第286-292页 *

Also Published As

Publication number Publication date
CN108595629A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
CN108595629B (zh) 用于答案选择系统的数据处理方法及应用
CN109033068B (zh) 基于注意力机制的用于阅读理解的方法、装置和电子设备
CN108959246B (zh) 基于改进的注意力机制的答案选择方法、装置和电子设备
CN108170749B (zh) 基于人工智能的对话方法、装置及计算机可读介质
EP3648099B1 (en) Voice recognition method, device, apparatus, and storage medium
US11544474B2 (en) Generation of text from structured data
US11861307B2 (en) Request paraphrasing system, request paraphrasing model and request determining model training method, and dialogue system
US20210256390A1 (en) Computationally efficient neural network architecture search
US10789431B2 (en) Method and system of translating a source sentence in a first language into a target sentence in a second language
US20190188566A1 (en) Reward augmented model training
CN111401084B (zh) 一种机器翻译的方法、设备以及计算机可读存储介质
Zhang et al. Knowing more about questions can help: Improving calibration in question answering
CN109635197B (zh) 搜索方法、装置、电子设备及存储介质
US11645479B1 (en) Method for AI language self-improvement agent using language modeling and tree search techniques
CN111611452B (zh) 搜索文本的歧义识别方法、系统、设备及存储介质
CN116628186B (zh) 文本摘要生成方法及系统
CN116541493A (zh) 基于意图识别的交互应答方法、装置、设备、存储介质
US20220383119A1 (en) Granular neural network architecture search over low-level primitives
CN115114937A (zh) 文本获取方法、装置、计算机设备及存储介质
CN110852071A (zh) 知识点检测方法、装置、设备及可读存储介质
CN108268443B (zh) 确定话题点转移以及获取回复文本的方法、装置
Radeva et al. Web Application for Retrieval-Augmented Generation: Implementation and Testing
WO2023245523A1 (zh) 用于生成训练数据的方法以及装置
CN112580365B (zh) 篇章解析方法及电子设备、存储装置
CN110929501B (zh) 文本分析方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: A201, Tonghui building, 1132 Huihe South Street, Gaobeidian, Chaoyang District, Beijing 100124

Patentee after: Beijing Huiwen Technology (Group) Co.,Ltd.

Address before: 100000 Room 203, Baolan financial innovation center, No. 137, Xiwai street, Xicheng District, Beijing

Patentee before: BEIJING HUIWEN TECHNOLOGY DEVELOPMENT Co.,Ltd.