CN112800203A - 一种融合文本和知识表征的问答匹配方法及系统 - Google Patents

一种融合文本和知识表征的问答匹配方法及系统 Download PDF

Info

Publication number
CN112800203A
CN112800203A CN202110163420.1A CN202110163420A CN112800203A CN 112800203 A CN112800203 A CN 112800203A CN 202110163420 A CN202110163420 A CN 202110163420A CN 112800203 A CN112800203 A CN 112800203A
Authority
CN
China
Prior art keywords
answer
question
knowledge
vector
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110163420.1A
Other languages
English (en)
Other versions
CN112800203B (zh
Inventor
潘昌琴
林涵阳
郑骁凌
卢进桦
刘华杰
陈羽中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Start Dima Data Processing Co ltd
Original Assignee
Jiangsu Start Dima Data Processing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Start Dima Data Processing Co ltd filed Critical Jiangsu Start Dima Data Processing Co ltd
Priority to CN202110163420.1A priority Critical patent/CN112800203B/zh
Publication of CN112800203A publication Critical patent/CN112800203A/zh
Application granted granted Critical
Publication of CN112800203B publication Critical patent/CN112800203B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及一种融合文本和知识表征的问答匹配方法及系统,该方法包括以下步骤:步骤A:从智能客服系统中获取问题以及答案记录,建立包括正确匹配问答对和错误匹配问答对的问答对训练集;步骤B:构建结合文本和知识表征的深度学习网络模型及其损失函数,以问答对训练集作为深度学习网络模型的输入,在训练集上通过最小化损失函数学习深度神经网络模型的最优参数,得到训练好的深度神经网络模型;步骤C:接收用户的提问,并将提问输入到训练好的深度学习网络模型中,输出匹配的答案。该方法及系统有利于提高针对用户提问自动给出匹配答案的精度。

Description

一种融合文本和知识表征的问答匹配方法及系统
技术领域
本发明属于自然语言处理领域,具体涉及一种融合文本和知识表征的问答匹配方法及系统。
背景技术
随着科技的进步和社会的发展,互联网在人们的生活中扮演着一个举足轻重的地位,得益于互联网,人们在购物,社交,医疗,教育等场景中得到了越来越多的便利。数字信息化已经成为当今世界发展进程中一个重要环节,海量的信息得益于互联网这个媒介能够以数字化的方式在世界范围内传播和共享,同时互联网的不断发展也时刻改变着人们访问互联网并从中获取信息的方式。随着社会信息化和互联网的快速发展,人们对于智能问答系统的需求日益增长。人们热衷于在智能问答系统上提出问题,获取答案并且同他人交流来分享自己的知识。
因自然语言处理和人工智能领域的研究已经取得了长足的进步,使得利用计算机来代替人力操作来进行智能问答系统中的答案选择任务成为了可能。答案选择是问答领域的一个重要的子任务,在大多数情况下答案选择任务被视为排序问题或分类问题。传统的答案选择模型依赖于人工定义的规则来提取特征,比如从问答对中提取词汇特征、句法结构特征、n-gram特征等,获取特征后,使用统计学习算法或排序算法识别问题的匹配答案。Filice等采用排序特征、启发式特征等多种特征,进一步挖掘了问题和答案之间的语义相关性。Tran等结合词匹配特征组、特殊组件特征组、非文本特征组、基于主题模型的特征以及基于词向量表示共计5组16个特征来预测答案的质量。Surdeanu等在学习问题答案对之间的相关性时引入了大量的特征类型,像是相似性特征,翻译特征,频度特征,实验结果表明这些特征的组合在答案选择任务中能够取得一定的成效。Tymoshenk等使用浅层和深层句法分析器得到基于核心树的句法和语义树结构,并将其应用于答案段的重排序任务。该类模型在答案选择任务上取得了一定的进展,虽然将人们从一条条对信息进行筛选评估的繁琐工作中解脱出来,但其主要缺点在于依赖人工进行特征工程,这同样也是耗费时力的。
由于与基于统计学习的答案选择算法相比具有省时省力,且在性能上有更优异表现的原因,越来越的研究人员将深度神经网络应用到答案选择任务中。在基于深度神经网络的答案选择方法中,核心问题是利用深度神经网络从问答对中获取具有区别性的语义特征,从而为给定的问题选择最适合的答案。循环神经网络RNN由于其内部存在记忆存储器,因而可以处理任意长度的输入序列,且具备获取时间序列信息的能力。由于其在序列的上下文依赖关系建模方面具有优势,因此许多模型采用循环神经网络,如长短期记忆网络LSTM、门循环单元GRU等对问题和答案的上下文相关性进行建模。Wang等使用堆叠的双向长短期记忆网络从问答句中提取前向和后向的上下文信息。Tan等使用Bi-LSTM来学习问题-答案对的特征表示,然后通过相似度函数来评估它们的语义关系。Tay等利用全息组件扩展长短期记忆网络,建立了问答对特征表示之间的语义关联模型。
Transformer网络在并行计算方面相比于循环神经网络具有一定的优势且具有更强的语义特征提取能力,并且相比于卷积神经网络能够更好地捕获长距离特征。因此,一些研究人员尝试将Transformer网络应用于答案选择任务。Laskar等在答案选择任务中利用上下文的词嵌入和Transformer编码器来进行句子相似度建模。Shao等提出了两种基于Transformer网络的答案选择模型,一种在Transformer网络后面部署了一个双向长短期记忆来获取问题-答案对的全局语义和顺序特征来进行问题-答案的匹配,另一种设计了一个灵活的神经网络结构,可以根据输入句子的长度自动选择神经特征提取器,包括基于双向长短期记忆的短句子特征提取器和基于Transformer的长句子特征提取器从而解决了长期依赖问题。
传统智能问答系统使用有监督学习,训练答案排序和问题检索模型,但该方法需要抽取复杂的文本特征,很难在特征构造上做到最优,并且该方法在新的数据集上泛化性能较差,对新数据集往往需求重新进行特征抽取和特征工程。目前基于深度学习的方法通常由于无法充分利用问答句的长距离语义依赖关系,因此存在语义信息和上下文信息丢失的问题,同时所引入的注意力机制在计算过程中只是分别计算每个句子的注意力权重或是计算表示单词对相互作用的匹配矩阵,因而无法充分获取问答对间的匹配特征,无法全面准确地提取影响智能问答精度的各项特征;并且现有的模型算法仍然难以获取文本句子中的词语在不同语境中的精确语义表示,而知识库中的信息作为重要的背景知识有助于获取句子中词语的精确表示,且能够帮助弥合问题与答案之间的语义鸿沟,这在智能问答系统中还没有得到足够的重视。
发明内容
本发明的目的在于提供一种融合文本和知识表征的问答匹配方法及系统,该方法及系统有利于提高针对用户提问自动给出匹配答案的精度。
为实现上述目的,本发明采用的技术方案是:一种融合文本和知识表征的问答匹配方法,包括以下步骤:
步骤A:从智能客服系统中获取问题以及答案记录,建立包括正确匹配问答对和错误匹配问答对的问答对训练集;
步骤B:构建结合文本和知识表征的深度学习网络模型及其损失函数,以问答对训练集作为深度学习网络模型的输入,在训练集上通过最小化损失函数学习深度神经网络模型的最优参数,得到训练好的深度神经网络模型;
步骤C:接收用户的提问,并将提问输入到训练好的深度学习网络模型中,输出匹配的答案。
进一步地,所述步骤B具体包括以下步骤:
步骤B1:构建结合文本和知识表征的深度学习网络模型,所述深度学习网络模型包括文本编码层、知识编码层、文本表征学习层、知识表征学习层、特征融合层以及输出层;
步骤B2:构建适用于所述深度学习网络模型的损失函数,所述损失函数包含交叉熵损失和L2正则化项,计算公式如下:
Figure BDA0002937360560000031
其中N表示训练集中的问答对样本数,yi为训练集中的类别标签,yi等于1表示答案与问题相匹配,yi等于0表示答案与问题不匹配,pi为输出层的输出,表示模型预测训练集中第i个样本的答案的类别标签yi是1的概率,θ包含深度学习网络的所有参数,
Figure BDA0002937360560000032
是L2正则化项;
步骤B3:遍历问答对训练集,对训练集中的每个问答对,按步骤B4-B9进行处理;
步骤B4:将问答对输入文本编码层,对问题与答案进行分词并去除停用词,之后在预训练的词向量矩阵中查询问题与答案中每个词的词向量,以问题中每个词的词向量构成的词向量序列作为问题的文本表征向量
Figure BDA0002937360560000033
以答案中每个词的词向量构成的词向量序列作为答案的文本表征向量
Figure BDA0002937360560000034
步骤B5:将问题与答案的文本表征向量输入到文本表征学习层,学习问题与答案的语义信息以及问题与答案之间的语义交互,得到问题的答案感知的文本表征向量
Figure BDA0002937360560000041
答案的问题感知的文本表征向量
Figure BDA0002937360560000042
步骤B6:将问答对输入知识编码层,对问题与答案进行分词并去除停用词,之后根据给定的知识库,分别查询在问题与答案中出现的前K个知识实体,采用TransE方法获得每个知识实体的表征向量,若问题或答案中查询到的知识实体数n小于K,则第n+1个知识实体到第K个知识实体的表征向量设置为零向量,最后以答案中K个知识实体的表征向量构成的向量序列作为答案的知识表征向量
Figure BDA0002937360560000043
以问题中K个知识实体的表征向量构成的向量序列作为问题的知识表征向量
Figure BDA0002937360560000044
步骤B7:将步骤B5得到的问题的答案感知的文本表征向量
Figure BDA0002937360560000045
答案的问题感知的文本表征向量
Figure BDA0002937360560000046
以及步骤B6得到的问题的知识表征向量
Figure BDA0002937360560000047
答案的知识表征向量
Figure BDA0002937360560000048
输入到知识表征学习层,得到问题的答案感知的知识表征向量
Figure BDA0002937360560000049
与答案的问题感知的知识表征向量
Figure BDA00029373605600000410
步骤B8:将步骤B5得到的问题的答案感知的文本表征向量
Figure BDA00029373605600000411
答案的问题感知的文本表征向量
Figure BDA00029373605600000412
以及步骤B7得到的问题的答案感知的知识表征向量
Figure BDA00029373605600000413
答案的问题感知的知识表征向量
Figure BDA00029373605600000414
输入到特征融合层,融合得到问答对的表征向量of
步骤B9:将B8步骤得到的问答对表征向量of输入到输出层,通过softmax计算答案与问题相匹配的概率;
步骤B10:根据步骤B2的损失函数计算损失并进行反向传播,通过多次迭代最小化损失函数,采用mini-batch梯度下降法进行分批优化,得到训练好的结合文本和知识表征的深度学习网络模型。
进一步地,所述步骤B5具体包括以下步骤:
步骤B51:将步骤B4获取的问题的文本表征向量
Figure BDA00029373605600000415
和答案的文本表征向量
Figure BDA00029373605600000416
分别输入到双向长短期记忆网络中,分别得到问题的上下文表征向量Hq和答案的上下文表征向量Ha
Figure BDA0002937360560000051
Figure BDA0002937360560000052
其中,
Figure BDA0002937360560000053
,dh是隐藏单元的维度,
Figure BDA0002937360560000054
分别是将
Figure BDA0002937360560000055
输入双向长短期记忆网络后,双向长短期记忆网络的前向层和后向层在第i个时间步输出的隐藏状态向量;
Figure BDA0002937360560000056
分别是将
Figure BDA0002937360560000057
输入双向长短期记忆网络后,双向长短期记忆网络的前向层和后向层在第i个时间步输出的隐藏状态向量;l是固定长度,若问题与答案进行分词并去除停用词后剩余的词数小于l,则填充零向量,若大于l,则截断到固定长度l;
步骤B52:将上下文表征向量Hq和Ha分别输入编码器,编码器由6个相同的层叠加而成,每层包含两个子层,即多头注意力机制子层和全连接前馈神经网络子层,每个子层使用残差网络和层归一化来避免信息丢失,最后分别得到问题和答案的表征向量
Figure BDA0002937360560000058
Figure BDA0002937360560000059
Figure BDA00029373605600000510
Figure BDA00029373605600000511
其中,Encoder表示通过所述编码器进行编码;
步骤B53:计算问题与答案的语义交互,得到问题的答案感知的文本表征向量
Figure BDA00029373605600000512
和答案的问题感知文本表征向量
Figure BDA00029373605600000513
Figure BDA00029373605600000514
Figure BDA00029373605600000515
Figure BDA00029373605600000516
其中,“
Figure BDA00029373605600000521
”表示哈达玛积,(.)T表示矩阵转置,
Figure BDA00029373605600000517
是评估问题与答案相似性的相似度矩阵,
Figure BDA00029373605600000518
是待学习的注意力权值矩阵。
进一步地,所述步骤B7具体包括以下步骤:
步骤B71:计算步骤B5得到的问题的答案感知的文本表征向量
Figure BDA00029373605600000519
与步骤B6得到的问题的知识表征向量
Figure BDA00029373605600000520
之间的语义交互,反映问题的文本信息与知识实体之间的语义关联性,得到问题的文本信息指导下的知识表征向量
Figure BDA0002937360560000061
计算步骤B5得到的答案的问题感知的文本表征向量
Figure BDA0002937360560000062
与步骤B6得到的答案的知识表征向量
Figure BDA0002937360560000063
之间的语义交互,反映答案的文本信息与知识实体之间的语义关联性,得到答案的文本信息指导下的知识表征向量
Figure BDA0002937360560000064
Figure BDA0002937360560000065
Figure BDA0002937360560000066
Figure BDA0002937360560000067
Figure BDA0002937360560000068
其中
Figure BDA0002937360560000069
是待学习的注意力权值矩阵,da是注意力参数大小,αq、αa是注意力权值向量;
步骤B72:将步骤B71得到的问题的文本信息指导下的知识表征向量
Figure BDA00029373605600000610
与答案的文本信息指导下的知识表征向量
Figure BDA00029373605600000611
分别输入到卷积神经网络,再计算卷积神经网络输出的表征向量之间的交互,得到问题的答案感知的知识表征向量
Figure BDA00029373605600000612
答案的问题感知的知识表征向量
Figure BDA00029373605600000613
从知识库角度体现问题和答案之间的语义匹配关系;
Figure BDA00029373605600000614
Figure BDA00029373605600000615
Figure BDA00029373605600000616
Figure BDA00029373605600000617
Figure BDA00029373605600000618
其中,CNN()表示使用卷积神经网络进行编码,“
Figure BDA00029373605600000624
”表示哈达玛积,(.)T表示矩阵转置,
Figure BDA00029373605600000619
是评估问题与答案的知识表征向量相似性的相似度矩阵,
Figure BDA00029373605600000620
是待学习的注意力权值矩阵,dc是卷积神经网络的卷积核大小。
进一步地,所述步骤B8具体包括以下步骤:
步骤B81:连接步骤B5得到的问题的答案感知文本表征向量
Figure BDA00029373605600000621
与步骤B7得到的问题的答案感知的知识表征向量
Figure BDA00029373605600000622
得到问题的表征向量
Figure BDA00029373605600000623
连接步骤B5得到的问题的答案感知的文本表征向量
Figure BDA0002937360560000071
与步骤B7得到的问题的答案感知的知识表征向量
Figure BDA0002937360560000072
得到答案的表征向量
Figure BDA0002937360560000073
其中[;]表示连接操作;
步骤B82:连接问题的表征向量Q与答案的表征向量A,得到问答对的表征向量of=[Q;A]。
本发明还提供了一种融合文本和知识表征的问答匹配系统,包括存储器、处理器以及存储于存储器上并能够在处理器上运行的程序模块,所述程序模块包括:
训练集构建模块,用于从智能客服系统中获取问题以及答案记录,构建问答对训练集;
网络训练模块,用于将问答对训练集中的问答对输入到深度学习网络模型中,得到问题与答案的表征向量,进一步融合得到问答对的表征向量,根据定义的损失函数,通过最小化损失函数学习深度神经网络模型的最优参数,得到训练好的深度神经网络模型;以及
问答匹配模块,用于利用训练好的深度学习网络模型对输入的问题进行处理,输出匹配的答案;
当处理器运行所述程序模块时,实现所述的方法步骤。
相较于现有技术,本发明具有以下有益效果:该方法及系统基于问答对训练集以及知识库中的实体信息训练一种融合文本和知识表征的深度学习网络模型,通过对文本问答对中长距离特征表示进行精确提取,并充分利用来自知识库中的信息作为背景知识,得到问答对的细粒度语义特征表示,显著提高了问答系统的问答匹配精度,具有很强的实用性和广阔的应用前景。
附图说明
图1是本发明实施例的方法实现流程图。
图2是本发明实施例的系统程序模块结构图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1所示,本实施例提供了一种融合文本和知识表征的问答匹配方法,包括以下步骤:
步骤A:从智能客服系统中获取问题以及答案记录,建立包括正确匹配问答对和错误匹配问答对的问答对训练集。
步骤B:构建结合文本和知识表征的深度学习网络模型及其损失函数,以问答对训练集作为深度学习网络模型的输入,在训练集上通过最小化损失函数学习深度神经网络模型的最优参数,得到训练好的深度神经网络模型。
步骤C:接收用户的提问,并将提问输入到训练好的深度学习网络模型中,输出匹配的答案。
所述步骤B具体包括以下步骤:
步骤B1:构建结合文本和知识表征的深度学习网络模型,所述深度学习网络模型包括文本编码层、知识编码层、文本表征学习层、知识表征学习层、特征融合层以及输出层。
步骤B2:构建适用于所述深度学习网络模型的损失函数,损失函数包含交叉熵损失和L2正则化项,计算公式如下:
Figure BDA0002937360560000081
其中N表示训练集中的问答对样本数,yi为训练集中的类别标签,yi等于1表示答案与问题相匹配,yi等于0表示答案与问题不匹配,pi为输出层的输出,表示模型预测训练集中第i个样本的答案的类别标签yi是1的概率,θ包含深度学习网络的所有参数,
Figure BDA0002937360560000082
是L2正则化项。
步骤B3:遍历问答对训练集,对训练集中的每个问答对,按步骤B4-B9进行处理。
步骤B4:将问答对输入文本编码层,对问题与答案进行分词并去除停用词,之后在预训练的词向量矩阵中查询问题与答案中每个词的词向量,以问题中每个词的词向量构成的词向量序列作为问题的文本表征向量
Figure BDA0002937360560000091
以答案中每个词的词向量构成的词向量序列作为答案的文本表征向量
Figure BDA0002937360560000092
步骤B5:将问题与答案的文本表征向量输入到文本表征学习层,学习问题与答案的语义信息以及问题与答案之间的语义交互,得到问题的答案感知的文本表征向量
Figure BDA0002937360560000093
答案的问题感知的文本表征向量
Figure BDA0002937360560000094
所述步骤B5具体包括以下步骤:
步骤B51:将步骤B4获取的问题的文本表征向量
Figure BDA0002937360560000095
和答案的文本表征向量
Figure BDA0002937360560000096
分别输入到双向长短期记忆网络中,分别得到问题的上下文表征向量Hq和答案的上下文表征向量Ha
Figure BDA0002937360560000097
Figure BDA0002937360560000098
其中,
Figure BDA0002937360560000099
,dh是隐藏单元的维度,
Figure BDA00029373605600000910
分别是将
Figure BDA00029373605600000911
输入双向长短期记忆网络后,双向长短期记忆网络的前向层和后向层在第i个时间步输出的隐藏状态向量;
Figure BDA00029373605600000912
分别是将
Figure BDA00029373605600000913
输入双向长短期记忆网络后,双向长短期记忆网络的前向层和后向层在第i个时间步输出的隐藏状态向量;l是固定长度,若问题与答案进行分词并去除停用词后剩余的词数小于l,则填充零向量,若大于l,则截断到固定长度l。
步骤B52:将上下文表征向量Hq和Ha分别输入编码器,编码器由6个相同的层叠加而成,每层包含两个子层,即多头注意力机制子层和全连接前馈神经网络子层,每个子层使用残差网络和层归一化来避免信息丢失,最后分别得到问题和答案的表征向量
Figure BDA00029373605600000914
Figure BDA00029373605600000915
Figure BDA00029373605600000916
Figure BDA00029373605600000917
其中,Encoder表示通过所述编码器进行编码。
步骤B53:计算问题与答案的语义交互,得到问题的答案感知的文本表征向量
Figure BDA00029373605600000918
和答案的问题感知文本表征向量
Figure BDA00029373605600000919
Figure BDA0002937360560000101
Figure BDA0002937360560000102
Figure BDA0002937360560000103
其中,“
Figure BDA00029373605600001020
”表示哈达玛积,(.)T表示矩阵转置,
Figure BDA0002937360560000104
是评估问题与答案相似性的相似度矩阵,
Figure BDA0002937360560000105
是待学习的注意力权值矩阵。
步骤B6:将问答对输入知识编码层,对问题与答案进行分词并去除停用词,之后根据给定的知识库,分别查询在问题与答案中出现的前K个知识实体,采用TransE方法获得每个知识实体的表征向量,若问题或答案中查询到的知识实体数n小于K,则第n+1个知识实体到第K个知识实体的表征向量设置为零向量,最后以答案中K个知识实体的表征向量构成的向量序列作为答案的知识表征向量
Figure BDA0002937360560000106
以问题中K个知识实体的表征向量构成的向量序列作为问题的知识表征向量
Figure BDA0002937360560000107
步骤B7:将步骤B5得到的问题的答案感知的文本表征向量
Figure BDA0002937360560000108
答案的问题感知的文本表征向量
Figure BDA0002937360560000109
以及步骤B6得到的问题的知识表征向量
Figure BDA00029373605600001010
答案的知识表征向量
Figure BDA00029373605600001011
输入到知识表征学习层,得到问题的答案感知的知识表征向量
Figure BDA00029373605600001012
与答案的问题感知的知识表征向量
Figure BDA00029373605600001013
所述步骤B7具体包括以下步骤:
步骤B71:计算步骤B5得到的问题的答案感知的文本表征向量
Figure BDA00029373605600001014
与步骤B6得到的问题的知识表征向量
Figure BDA00029373605600001015
之间的语义交互,反映问题的文本信息与知识实体之间的语义关联性,得到问题的文本信息指导下的知识表征向量
Figure BDA00029373605600001016
计算步骤B5得到的答案的问题感知的文本表征向量
Figure BDA00029373605600001017
与步骤B6得到的答案的知识表征向量
Figure BDA00029373605600001018
之间的语义交互,反映答案的文本信息与知识实体之间的语义关联性,得到答案的文本信息指导下的知识表征向量
Figure BDA00029373605600001019
Figure BDA0002937360560000111
Figure BDA0002937360560000112
Figure BDA0002937360560000113
Figure BDA0002937360560000114
其中
Figure BDA0002937360560000115
是待学习的注意力权值矩阵,da是注意力参数大小,αq、αa是注意力权值向量。
步骤B72:将步骤B71得到的问题的文本信息指导下的知识表征向量
Figure BDA0002937360560000116
与答案的文本信息指导下的知识表征向量
Figure BDA0002937360560000117
分别输入到卷积神经网络,再计算卷积神经网络输出的表征向量之间的交互,得到问题的答案感知的知识表征向量
Figure BDA0002937360560000118
以及答案的问题感知的知识表征向量
Figure BDA0002937360560000119
从知识库角度体现问题和答案之间的语义匹配关系。
Figure BDA00029373605600001110
Figure BDA00029373605600001111
Figure BDA00029373605600001112
Figure BDA00029373605600001113
Figure BDA00029373605600001114
其中,CNN()表示使用卷积神经网络进行编码,“
Figure BDA00029373605600001125
”表示哈达玛积,(.)T表示矩阵转置,
Figure BDA00029373605600001115
是评估问题与答案的知识表征向量相似性的相似度矩阵,
Figure BDA00029373605600001116
是待学习的注意力权值矩阵,dc是卷积神经网络的卷积核大小。
步骤B8:将步骤B5得到的问题的答案感知的文本表征向量
Figure BDA00029373605600001117
答案的问题感知的文本表征向量
Figure BDA00029373605600001118
以及步骤B7得到的问题的答案感知的知识表征向量
Figure BDA00029373605600001119
答案的问题感知的知识表征向量
Figure BDA00029373605600001120
输入到特征融合层,融合得到问答对的表征向量of。所述步骤B8具体包括以下步骤:
步骤B81:连接步骤B5得到的问题的答案感知文本表征向量
Figure BDA00029373605600001121
与步骤B7得到的问题的答案感知的知识表征向量
Figure BDA00029373605600001122
得到问题的表征向量
Figure BDA00029373605600001123
连接步骤B5得到的问题的答案感知的文本表征向量
Figure BDA00029373605600001124
与步骤B7得到的问题的答案感知的知识表征向量
Figure BDA0002937360560000121
得到答案的表征向量
Figure BDA0002937360560000122
其中[;]表示连接操作。
步骤B82:连接问题的表征向量Q与答案的表征向量A,得到问答对的表征向量of=[Q;A]。
步骤B9:将B8步骤得到的问答对表征向量of输入到输出层,通过softmax计算答案与问题相匹配的概率。
步骤B10:根据步骤B2的损失函数计算损失并进行反向传播,通过多次迭代最小化损失函数,采用mini-batch梯度下降法进行分批优化,得到训练好的结合文本和知识表征的深度学习网络模型。
本实施例提供了一种融合文本和知识表征的问答匹配系统,包括存储器、处理器以及存储于存储器上并能够在处理器上运行的程序模块,如图2所示,所述程序模块包括训练集构建模块、网络训练模块和问答匹配模块。
所述训练集构建模块用于从智能客服系统中获取问题以及答案记录,构建问答对训练集。
所述网络训练模块用于将问答对训练集中的问答对输入到深度学习网络模型中,得到问题与答案的表征向量,进一步融合得到问答对的表征向量,根据定义的损失函数,通过最小化损失函数学习深度神经网络模型的最优参数,得到训练好的深度神经网络模型。
所述问答匹配模块用于利用训练好的深度学习网络模型对输入的问题进行处理,输出匹配的答案。
当处理器运行所述程序模块时,实现上述的方法步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (6)

1.一种融合文本和知识表征的问答匹配方法,其特征在于,包括以下步骤:
步骤A:从智能客服系统中获取问题以及答案记录,建立包括正确匹配问答对和错误匹配问答对的问答对训练集;
步骤B:构建结合文本和知识表征的深度学习网络模型及其损失函数,以问答对训练集作为深度学习网络模型的输入,在训练集上通过最小化损失函数学习深度神经网络模型的最优参数,得到训练好的深度神经网络模型;
步骤C:接收用户的提问,并将提问输入到训练好的深度学习网络模型中,输出匹配的答案。
2.根据权利要求1所述的一种融合文本和知识表征的问答匹配方法,其特征在于,所述步骤B具体包括以下步骤:
步骤B1:构建结合文本和知识表征的深度学习网络模型,所述深度学习网络模型包括文本编码层、知识编码层、文本表征学习层、知识表征学习层、特征融合层以及输出层;
步骤B2:构建适用于所述深度学习网络模型的损失函数,损失函数包含交叉熵损失和L2正则化项,计算公式如下:
Figure FDA0002937360550000011
其中N表示训练集中的问答对样本数,yi为训练集中的类别标签,yi等于1表示答案与问题相匹配,yi等于0表示答案与问题不匹配,pi为输出层的输出,表示模型预测训练集中第i个样本的答案的类别标签yi是1的概率,θ包含深度学习网络的所有参数,
Figure FDA0002937360550000012
是L2正则化项;
步骤B3:遍历问答对训练集,对训练集中的每个问答对,按步骤B4-B9进行处理;
步骤B4:将问答对输入文本编码层,对问题与答案进行分词并去除停用词,之后在预训练的词向量矩阵中查询问题与答案中每个词的词向量,以问题中每个词的词向量构成的词向量序列作为问题的文本表征向量
Figure FDA0002937360550000013
以答案中每个词的词向量构成的词向量序列作为答案的文本表征向量
Figure FDA0002937360550000014
步骤B5:将问题与答案的文本表征向量输入到文本表征学习层,学习问题与答案的语义信息以及问题与答案之间的语义交互,得到问题的答案感知的文本表征向量
Figure FDA0002937360550000015
答案的问题感知的文本表征向量
Figure FDA0002937360550000021
步骤B6:将问答对输入知识编码层,对问题与答案进行分词并去除停用词,之后根据给定的知识库,分别查询在问题与答案中出现的前K个知识实体,采用TransE方法获得每个知识实体的表征向量,若问题或答案中查询到的知识实体数n小于K,则第n+1个知识实体到第K个知识实体的表征向量设置为零向量,最后以答案中K个知识实体的表征向量构成的向量序列作为答案的知识表征向量
Figure FDA0002937360550000022
以问题中K个知识实体的表征向量构成的向量序列作为问题的知识表征向量
Figure FDA0002937360550000023
步骤B7:将步骤B5得到的问题的答案感知的文本表征向量
Figure FDA0002937360550000024
答案的问题感知的文本表征向量
Figure FDA0002937360550000025
以及步骤B6得到的问题的知识表征向量
Figure FDA0002937360550000026
答案的知识表征向量
Figure FDA0002937360550000027
输入到知识表征学习层,得到问题的答案感知的知识表征向量
Figure FDA0002937360550000028
与答案的问题感知的知识表征向量
Figure FDA0002937360550000029
步骤B8:将步骤B5得到的问题的答案感知的文本表征向量
Figure FDA00029373605500000210
答案的问题感知的文本表征向量
Figure FDA00029373605500000211
以及步骤B7得到的问题的答案感知的知识表征向量
Figure FDA00029373605500000212
答案的问题感知的知识表征向量
Figure FDA00029373605500000213
输入到特征融合层,融合得到问答对的表征向量of
步骤B9:将B8步骤得到的问答对表征向量of输入到输出层,通过softmax计算答案与问题相匹配的概率;
步骤B10:根据步骤B2的损失函数计算损失并进行反向传播,通过多次迭代最小化损失函数,采用mini-batch梯度下降法进行分批优化,得到训练好的结合文本和知识表征的深度学习网络模型。
3.根据权利要求2所述的一种融合文本和知识表征的问答匹配方法,其特征在于,所述步骤B5具体包括以下步骤:
步骤B51:将步骤B4获取的问题的文本表征向量
Figure FDA00029373605500000214
和答案的文本表征向量
Figure FDA00029373605500000215
分别输入到双向长短期记忆网络中,分别得到问题的上下文表征向量Hq和答案的上下文表征向量Ha
Figure FDA00029373605500000216
Figure FDA0002937360550000031
其中,
Figure FDA0002937360550000032
dh是隐藏单元的维度,
Figure FDA0002937360550000033
分别是将
Figure FDA0002937360550000034
输入双向长短期记忆网络后,双向长短期记忆网络的前向层和后向层在第i个时间步输出的隐藏状态向量;
Figure FDA0002937360550000035
分别是将
Figure FDA0002937360550000036
输入双向长短期记忆网络后,双向长短期记忆网络的前向层和后向层在第i个时间步输出的隐藏状态向量;l是固定长度,若问题与答案进行分词并去除停用词后剩余的词数小于l,则填充零向量,若大于l,则截断到固定长度l;
步骤B52:将上下文表征向量Hq和Ha分别输入编码器,编码器由6个相同的层叠加而成,每层包含两个子层,即多头注意力机制子层和全连接前馈神经网络子层,每个子层使用残差网络和层归一化来避免信息丢失,最后分别得到问题和答案的表征向量
Figure FDA00029373605500000320
Figure FDA0002937360550000037
Figure FDA0002937360550000038
Figure FDA0002937360550000039
其中,Encoder表示通过所述编码器进行编码;
步骤B53:计算问题与答案的语义交互,得到问题的答案感知的文本表征向量
Figure FDA00029373605500000310
和答案的问题感知文本表征向量
Figure FDA00029373605500000311
Figure FDA00029373605500000312
Figure FDA00029373605500000313
Figure FDA00029373605500000314
其中,
Figure FDA00029373605500000315
表示哈达玛积,(.)T表示矩阵转置,
Figure FDA00029373605500000316
是评估问题与答案相似性的相似度矩阵,
Figure FDA00029373605500000317
是待学习的注意力权值矩阵。
4.根据权利要求3所述的一种融合文本和知识表征的问答匹配方法,其特征在于,所述步骤B7具体包括以下步骤:
步骤B71:计算步骤B5得到的问题的答案感知的文本表征向量
Figure FDA00029373605500000318
与步骤B6得到的问题的知识表征向量
Figure FDA00029373605500000319
之间的语义交互,反映问题的文本信息与知识实体之间的语义关联性,得到问题的文本信息指导下的知识表征向量
Figure FDA0002937360550000041
计算步骤B5得到的答案的问题感知的文本表征向量
Figure FDA0002937360550000042
与步骤B6得到的答案的知识表征向量
Figure FDA0002937360550000043
之间的语义交互,反映答案的文本信息与知识实体之间的语义关联性,得到答案的文本信息指导下的知识表征向量
Figure FDA0002937360550000044
Figure FDA0002937360550000045
Figure FDA0002937360550000046
Figure FDA0002937360550000047
Figure FDA0002937360550000048
其中
Figure FDA0002937360550000049
是待学习的注意力权值矩阵,da是注意力参数大小,αq、αa是注意力权值向量;
步骤B72:将步骤B71得到的问题的文本信息指导下的知识表征向量
Figure FDA00029373605500000410
与答案的文本信息指导下的知识表征向量
Figure FDA00029373605500000411
分别输入到卷积神经网络,再计算卷积神经网络输出的表征向量之间的交互,得到问题的答案感知的知识表征向量
Figure FDA00029373605500000412
答案的问题感知的知识表征向量
Figure FDA00029373605500000413
从知识库角度体现问题和答案之间的语义匹配关系;
Figure FDA00029373605500000414
Figure FDA00029373605500000415
Figure FDA00029373605500000416
Figure FDA00029373605500000417
Figure FDA00029373605500000418
其中,CNN()表示使用卷积神经网络进行编码,
Figure FDA00029373605500000419
表示哈达玛积,(.)T表示矩阵转置,
Figure FDA00029373605500000420
是评估问题与答案的知识表征向量相似性的相似度矩阵,
Figure FDA00029373605500000421
是待学习的注意力权值矩阵,dc是卷积神经网络的卷积核大小。
5.根据权利要求4所述的一种融合文本和知识表征的问答匹配方法,其特征在于,所述步骤B8具体包括以下步骤:
步骤B81:连接步骤B5得到的问题的答案感知文本表征向量
Figure FDA00029373605500000422
与步骤B7得到的问题的答案感知的知识表征向量
Figure FDA00029373605500000423
得到问题的表征向量
Figure FDA00029373605500000424
连接步骤B5得到的问题的答案感知的文本表征向量
Figure FDA0002937360550000051
与步骤B7得到的问题的答案感知的知识表征向量
Figure FDA0002937360550000052
得到答案的表征向量
Figure FDA0002937360550000053
其中[;]表示连接操作;
步骤B82:连接问题的表征向量Q与答案的表征向量A,得到问答对的表征向量of=[Q;A]。
6.一种融合文本和知识表征的问答匹配系统,其特征在于,包括存储器、处理器以及存储于存储器上并能够在处理器上运行的程序模块,所述程序模块包括:
训练集构建模块,用于从智能客服系统中获取问题以及答案记录,构建问答对训练集;
网络训练模块,用于将问答对训练集中的问答对输入到深度学习网络模型中,得到问题与答案的表征向量,进一步融合得到问答对的表征向量,根据定义的损失函数,通过最小化损失函数学习深度神经网络模型的最优参数,得到训练好的深度神经网络模型;以及
问答匹配模块,用于利用训练好的深度学习网络模型对输入的问题进行处理,输出匹配的答案;
当处理器运行所述程序模块时,实现如权利要求1-5任一项所述的方法步骤。
CN202110163420.1A 2021-02-05 2021-02-05 一种融合文本和知识表征的问答匹配方法及系统 Active CN112800203B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110163420.1A CN112800203B (zh) 2021-02-05 2021-02-05 一种融合文本和知识表征的问答匹配方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110163420.1A CN112800203B (zh) 2021-02-05 2021-02-05 一种融合文本和知识表征的问答匹配方法及系统

Publications (2)

Publication Number Publication Date
CN112800203A true CN112800203A (zh) 2021-05-14
CN112800203B CN112800203B (zh) 2021-12-07

Family

ID=75814395

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110163420.1A Active CN112800203B (zh) 2021-02-05 2021-02-05 一种融合文本和知识表征的问答匹配方法及系统

Country Status (1)

Country Link
CN (1) CN112800203B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113505207A (zh) * 2021-07-02 2021-10-15 中科苏州智能计算技术研究院 一种金融舆情研报的机器阅读理解方法及系统
CN113590799A (zh) * 2021-08-16 2021-11-02 东南大学 一种基于多视角推理的弱监督知识图谱问答方法
CN113946665A (zh) * 2021-09-13 2022-01-18 东北大学 一种基于文本提供背景信息的知识库问答方法
CN114881047A (zh) * 2022-07-12 2022-08-09 杭州远传新业科技股份有限公司 一种蔬菜病虫害图片问答方法及装置
CN117057325A (zh) * 2023-10-13 2023-11-14 湖北华中电力科技开发有限责任公司 一种应用于电网领域表单填写方法、系统和电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509519A (zh) * 2018-03-09 2018-09-07 北京邮电大学 基于深度学习的通用知识图谱增强问答交互系统及方法
CN109271506A (zh) * 2018-11-29 2019-01-25 武汉大学 一种基于深度学习的电力通信领域知识图谱问答系统的构建方法
CN110083690A (zh) * 2019-04-10 2019-08-02 华侨大学 一种基于智能问答的对外汉语口语训练方法及系统
CN110188182A (zh) * 2019-05-31 2019-08-30 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及介质
CN110222163A (zh) * 2019-06-10 2019-09-10 福州大学 一种融合cnn与双向lstm的智能问答方法及系统
CN111414461A (zh) * 2020-01-20 2020-07-14 福州大学 一种融合知识库与用户建模的智能问答方法及系统
CN111524593A (zh) * 2020-04-23 2020-08-11 厦门大学 基于上下文语言模型和知识嵌入的医疗问答方法及系统
CN111949783A (zh) * 2020-08-12 2020-11-17 中国银行股份有限公司 知识库中问答结果生成方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509519A (zh) * 2018-03-09 2018-09-07 北京邮电大学 基于深度学习的通用知识图谱增强问答交互系统及方法
CN109271506A (zh) * 2018-11-29 2019-01-25 武汉大学 一种基于深度学习的电力通信领域知识图谱问答系统的构建方法
CN110083690A (zh) * 2019-04-10 2019-08-02 华侨大学 一种基于智能问答的对外汉语口语训练方法及系统
CN110188182A (zh) * 2019-05-31 2019-08-30 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及介质
WO2020238985A1 (zh) * 2019-05-31 2020-12-03 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及存储介质
CN110222163A (zh) * 2019-06-10 2019-09-10 福州大学 一种融合cnn与双向lstm的智能问答方法及系统
CN111414461A (zh) * 2020-01-20 2020-07-14 福州大学 一种融合知识库与用户建模的智能问答方法及系统
CN111524593A (zh) * 2020-04-23 2020-08-11 厦门大学 基于上下文语言模型和知识嵌入的医疗问答方法及系统
CN111949783A (zh) * 2020-08-12 2020-11-17 中国银行股份有限公司 知识库中问答结果生成方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LIU YANG: "MFM: A Multi-level Fused Sequence Matching Model for Candidates Filtering in Multi-paragraphs Question-Answering", 《SPRINGER》 *
安波,韩先培,孙乐: "融合知识表示的知识库问答系统", 《中国科学:信息科学》 *
张衍坤: "面向社区问答匹配的混合神经网络模型", 《小型微型计算机系统》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113505207A (zh) * 2021-07-02 2021-10-15 中科苏州智能计算技术研究院 一种金融舆情研报的机器阅读理解方法及系统
CN113505207B (zh) * 2021-07-02 2024-02-20 中科苏州智能计算技术研究院 一种金融舆情研报的机器阅读理解方法及系统
CN113590799A (zh) * 2021-08-16 2021-11-02 东南大学 一种基于多视角推理的弱监督知识图谱问答方法
CN113590799B (zh) * 2021-08-16 2022-11-18 东南大学 一种基于多视角推理的弱监督知识图谱问答方法
CN113946665A (zh) * 2021-09-13 2022-01-18 东北大学 一种基于文本提供背景信息的知识库问答方法
CN113946665B (zh) * 2021-09-13 2024-05-10 东北大学 一种基于文本提供背景信息的知识库问答方法
CN114881047A (zh) * 2022-07-12 2022-08-09 杭州远传新业科技股份有限公司 一种蔬菜病虫害图片问答方法及装置
CN114881047B (zh) * 2022-07-12 2022-10-25 杭州远传新业科技股份有限公司 一种蔬菜病虫害图片问答方法及装置
CN117057325A (zh) * 2023-10-13 2023-11-14 湖北华中电力科技开发有限责任公司 一种应用于电网领域表单填写方法、系统和电子设备
CN117057325B (zh) * 2023-10-13 2024-01-05 湖北华中电力科技开发有限责任公司 一种应用于电网领域表单填写方法、系统和电子设备

Also Published As

Publication number Publication date
CN112800203B (zh) 2021-12-07

Similar Documents

Publication Publication Date Title
CN112800203B (zh) 一种融合文本和知识表征的问答匹配方法及系统
CN109840287B (zh) 一种基于神经网络的跨模态信息检索方法和装置
CN109614471B (zh) 一种基于生成式对抗网络的开放式问题自动生成方法
CN110390397B (zh) 一种文本蕴含识别方法及装置
CN111444340A (zh) 文本分类和推荐方法、装置、设备及存储介质
CN112818105B (zh) 一种融合上下文信息的多轮对话方法及系统
CN111191002B (zh) 一种基于分层嵌入的神经代码搜索方法及装置
CN112990296B (zh) 基于正交相似度蒸馏的图文匹配模型压缩与加速方法及系统
CN109063164A (zh) 一种基于深度学习的智能问答方法
CN113761893B (zh) 一种基于模式预训练的关系抽取方法
CN112699216A (zh) 端到端的语言模型预训练方法、系统、设备及存储介质
CN114297399A (zh) 知识图谱生成方法、系统、存储介质及电子设备
CN116402066A (zh) 多网络特征融合的属性级文本情感联合抽取方法及系统
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN113988075A (zh) 基于多任务学习的网络安全领域文本数据实体关系抽取法
CN116186216A (zh) 基于知识增强和双图交互的问题生成方法及系统
CN111553140A (zh) 数据处理方法、数据处理设备及计算机存储介质
CN111651569A (zh) 一种电力领域的知识库问答方法及系统
CN117634615A (zh) 一种基于模态无关对比学习的多任务代码检索方法
CN117076608A (zh) 一种基于文本动态跨度的整合外部事件知识的脚本事件预测方法及装置
CN116680407A (zh) 一种知识图谱的构建方法及装置
CN115062123A (zh) 一种对话生成系统的知识库问答对生成方法
CN114756679A (zh) 基于交谈注意力机制的中文医学文本实体关系联合抽取方法
CN114647717A (zh) 一种智能问答方法及装置
M'Charrak Deep learning for natural language processing (nlp) using variational autoencoders (vae)

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant