CN111368058B - 一种基于迁移学习的问答匹配方法 - Google Patents

一种基于迁移学习的问答匹配方法 Download PDF

Info

Publication number
CN111368058B
CN111368058B CN202010159530.6A CN202010159530A CN111368058B CN 111368058 B CN111368058 B CN 111368058B CN 202010159530 A CN202010159530 A CN 202010159530A CN 111368058 B CN111368058 B CN 111368058B
Authority
CN
China
Prior art keywords
question
model
answer
target domain
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010159530.6A
Other languages
English (en)
Other versions
CN111368058A (zh
Inventor
苏磊
张顺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kunming University of Science and Technology
Original Assignee
Kunming University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kunming University of Science and Technology filed Critical Kunming University of Science and Technology
Priority to CN202010159530.6A priority Critical patent/CN111368058B/zh
Publication of CN111368058A publication Critical patent/CN111368058A/zh
Application granted granted Critical
Publication of CN111368058B publication Critical patent/CN111368058B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及一种基于迁移学习的问答匹配方法,属于信息检索技术领域。本发明首先将不同领域的问答数据集进行预处理、采用word2vec模型训练多领域共通常用的问答对的词向量,其次选择深度学习模型双向长短期记忆网络模型作为基础的神经网络,随机初始化BiLSTM模型的参数,利用Word2vec初始化该模型的embedding层的参数,在源域数据集上预训练该答案选择模型,保存该模型的参数,其次选定初始化目标域的数据集,在目标域上模型中,将源域的模型中的参数迁移到目标域模型中,用该数据集训练和微调该模型。BiLSTM模型计算问题和候选答案的向量表示,最后采用余弦相似度计算问题与候选答案的相似度,选出该问题的最佳答案。

Description

一种基于迁移学习的问答匹配方法
技术领域
本发明涉及一种基于迁移学习的问答匹配方法,属于信息检索技术领域。
背景技术
随着互联网的普及,互联网信息的不断增长,网络上充斥着越来越多的冗余信息,因此用户在互联网上搜索所需的信息无疑是在“大海捞针”,近年来随着搜索引擎的版本更新,在很大程度上降低了用户查找信息的难度,但这类搜索引擎依旧存在一定的缺陷与不足。这类的搜索引擎返回用户查询的结果太多,难以快速定位到所需信息;其搜索模式都是基于关键词精准匹配来查找相关信息的方式,难以用少量关键词准确表达用户的查询意图;缺乏对搜索用户查询语句的理解,其按相关度返回网页,检索到的答案仍需要用户的手动筛选,用户如果要得到自己真正所需要的信息,还需要再进一步手工去点击链接,重新定位。
智能问答系统改变传统搜索引擎返回超链接的方式,直接理解用户的自然语言问题和意图,快速、准确地直接给予文本答案,提高了用户查找效率,改善了信息检索的用户体验。但在特定领域的问答匹配任务中,由于数据来源有限、人工标注样本的成本和难度过高,只能获取到少量的标注数据样本,使得在标注数据样本少量的情况下难以获得较高的问答匹配准确率,因此利用迁移学习方法来提高问答匹配准确率具有重要意义。
发明内容
本发明要解决的技术问题是提供一种基于迁移学习的问答匹配方法,主要解决在特定领域的问答匹配任务中,由于数据来源有限、人工标注样本的成本和难度过高,只能获取到少量的标注数据样本,使得在标注数据样本少量的情况下难以获得较高的问答匹配准确率的缺陷,充分利用迁移学习和深度学习相结合,更快、更好地为用户提供更合理、准确的文本答案。
本发明的技术方案是:一种基于迁移学习的问答匹配方法,具体步骤为:
Step1:将源领域数据集中的问题及候选答案集进行预处理,预处理包括但不限于分词和词向量训练,得到问题及候选答案的词向量;
Step2:将Step1中的问题和候选答案的词向量作为输入送入深度学习模型中,在深度学习模型中使用BiLSTM对其进行编码,生成问题特征向量和候选答案特征向量以及保存训练参数;
Step3:将目标域数据集中的问题以及候选答案集进行与Step1相同的预处理操作,得到词向量;然后将目标域数据集词向量作为输入送入深度学习模型中,在目标域采用与Step2相同的模型进行编码,之后将Step2中保存的源域模型参数迁移到目标域的训练模型当中,作为目标域训练模型的初始化参数进行目标域数据集训练;
Step4:生成目标域中问题与候选答案的特征向量,通过余弦相似度计算问题与候选答案的相似度,相似度分数最高的,则作为该问题的最佳答案反馈给用户。
进一步地,将所述Step1和所述Step3中得到的问题及候选答案的词向量分别组成问答对,再将问答对进行分词,去除停用词操作,最后使用表示学习方法对其进行向量化表示。这里主要通过加载word2vec词向量进行训练从而得到问答对的词向量表示。
进一步地,所述Step3将Step2得到的问答对向量作为输入送入深度学习模型中,模型会使用BiLSTM对其进行编码,然后使用源领域中参数迁移到目标域的训练模型中,作为目标域的初始化训练参数进行训练,通过门控的方法选择出与问题相关的候选答案输入,并且得到问题和答案的向量表示,最后通过计算问题和答案的向量表示的余弦相似度,最终选择相似度得分最高的答案作为该问题的最终答案。
本发明的有益效果是:本发明使用深度学习(BiLSTM)与迁移学习(参数迁移)相结合的方法,能够解决特定问答匹配任务中由于标注样本数据不足而难以获得较高的问答匹配准确率的问题,能够为用户获得更准确的文本答案,提高问答匹配任务中检索答案的质量,在一定程度上改善了用户使用体验。
附图说明
图1是本发明迁移学习的问答匹配流程图;
图2是本发明典型深度模型在问答匹配中的一般框架示意图;
图3是本发明步骤流程图;
具体实施方式
下面结合附图和具体实施方式,对本发明作进一步说明。
实施例1:如图1-3所示,一种基于迁移学习的问答匹配方法,首先将不同领域的问答数据集进行预处理、采用word2vec模型训练多领域共通常用的问答对的词向量,其次选择深度学习模型双向长短期记忆网络(BiLSTM)模型作为基础的神经网络,随机初始化BiLSTM模型的参数,利用Word2vec初始化该模型的embedding层的参数,在源域数据集上预训练该答案选择模型,保存该模型的参数,其次选定初始化目标域的数据集,在目标域上模型中,将源域的模型中的参数迁移到目标域模型中,用该数据集训练和微调该模型。BiLSTM模型计算问题和候选答案的向量表示,最后采用余弦相似度计算问题与候选答案的相似度,选出该问题的最佳答案。
具体步骤为:
Step1:将源领域数据集中的问题及候选答案集进行预处理,预处理包括但不限于分词和词向量训练,得到问题及候选答案的词向量;
Step2:将Step1中的问题和候选答案的词向量作为输入送入深度学习模型中,在深度学习模型中使用BiLSTM对其进行编码,生成问题特征向量和候选答案特征向量以及保存训练参数;
Step3:将目标域数据集中的问题以及候选答案集进行与Step1相同的预处理操作,得到词向量;然后将目标域数据集词向量作为输入送入深度学习模型中,在目标域采用与Step2相同的模型进行编码,之后将Step2中保存的源域模型参数迁移到目标域的训练模型当中,作为目标域训练模型的初始化参数进行目标域数据集训练;
Step4:生成目标域中问题与候选答案的特征向量,通过余弦相似度计算问题与候选答案的相似度,相似度分数最高的,则作为该问题的最佳答案反馈给用户。
进一步地,将所述Step1和所述Step3中得到的问题及候选答案的词向量分别组成问答对,再将问答对进行分词,去除停用词操作,最后使用表示学习方法对其进行向量化表示。这里主要通过加载word2vec词向量进行训练从而得到问答对的词向量表示。所述Step1和所述Step3中问答数据集来源于IT知识问答网站Segment Faults数据集,问答对数据数量约为55000条,豆瓣电影以及从百度问答爬取的问答语料,约为43214条。
进一步地,所述Step3将Step2得到的问答对向量作为输入送入深度学习模型中,模型会使用BiLSTM对其进行编码,然后使用源领域中参数迁移到目标域的训练模型中,作为目标域的初始化训练参数进行训练,通过门控的方法选择出与问题相关的候选答案输入,并且得到问题和答案的向量表示,最后通过计算问题和答案的向量表示的余弦相似度,最终选择相似度得分最高的答案作为该问题的最终答案。
进一步地,所述Step3的具体步骤为:
Step3.1:将Step2得到的源领域数据集的问答对向量表示作为InputModole的输入,使用BiLSTM读入问答对向量,得到隐藏状态为:
ht=BiLSTM(xt,ht-1)         (1)
其中,xt=L[wt],L是embedding matrix,wt是问答序列时刻t的词语,ht是t时刻的隐藏状态,ht=LSTM(xt,ht-1)表示当前的隐藏状态由前一个隐藏状态和当前的输入xt计算得到,xt表示输入的问答对的向量表示,其中LSTM的定义为:
zt=σ(W(z)xt+U(z)ht-1+b(z))       (2)
rt=σ(W(r)xt+U(r)ht-1+b(r))       (3)
Figure GDA0004152240100000041
Figure GDA0004152240100000042
其中,о是点积,即两个向量元素对应相乘,σ表示sigmoid函数,值域为0~1,W(z),W(r)
Figure GDA0004152240100000043
U(z),U(r),
Figure GDA0004152240100000044
n均为超参数,zt为LSTM的遗忘门,rt是重置门,若rt近似为0,则上一个隐含状态将被丢弃,rt提供了丢弃与未来无关的过去隐含状态的机制,也就是说,rt决定了过去有多少信息被遗忘,
Figure GDA0004152240100000045
为候选隐含状态,其使用rt来控制包含过去时刻信息的上一个隐含状态的流入,ht是隐含状态,利用zt来对上一个隐含状态ht-1和候选隐含状态进行更新,zt可以控制过去的隐含状态在当前时刻的重要性,若zt一直近似1,则过去的隐含状态将一直通过时间保存并传递至当前时刻,能更好地捕捉时序数据中间隔较大的依赖关系,式(1)是式(2)-(5)的缩写;
使用LSTM读入问题和候选答案,得到最后一个隐藏状态为:
Figure GDA0004152240100000046
Figure GDA0004152240100000047
Step3.2:基于迁移学习的问答匹配方法,将需要迁移的源域知识编码为BiLSTM模型中的参数,K0为源域和目标域的共同参数,Ks和KT为源域和目标域的特有参数。则源域和目标域的参数可用下列公式表示:
Ks=K0+KS&KT=K0+KT      (8)
Step3.3:结合Dropout的双向LSTM(BiLSTM)模型作为基本模型。对于源域中的数据样本的输入序列Ts,模型在源域上的任务可表示为:
y=BiLSTM(KS*Ts)            (9)
对于目标中数据样本的输入序列Tt,模型在目标域上的任务可表示为:
y=BiLSTM(KT*Tt)              (10)
设FTL(x)为迁移学习的方法,根据(9)和(10),源域和目标域之间的知识迁移公式可表示为:
Figure GDA0004152240100000051
结合公式(8),公式(11)可转换为:
Figure GDA0004152240100000052
假设不考虑已知条件TS和TT,设BiLSTM(K0)=μ,对于公式(12)进行简化,最终得到的迁移学习方法可表示为:
Figure GDA0004152240100000053
迁移学习的方法的最终目的在于将源域模型上训练的参数Ks在目标域上转化为KT,能够更好的适应目标域上的数据及任务。
Step3.4:采用余弦相似度计算出目标域上问题和候选答案的匹配相似度得分,模型的目标函数定义为:
Figure GDA0004152240100000054
其中
Figure GDA0004152240100000055
为目标域数据中的正确答案,
Figure GDA0004152240100000056
为随机选取的负向答案,m是优化目标函数所设的参数,目标函数是让
Figure GDA0004152240100000057
和qT之间的cosine值大于
Figure GDA0004152240100000058
和qT之间的cosine值,从而选择出问题的最佳答案。
以上结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。

Claims (2)

1.一种基于迁移学习的问答匹配方法,其特征在于:
Step1:将源领域数据集中的问题及候选答案集进行预处理,预处理包括但不限于分词和词向量训练,得到问题及候选答案的词向量;
Step2:将Stepl中的问题和候选答案的词向量作为输入送入深度学习模型中,在深度学习模型中使用BiLSTM对其进行编码,生成问题特征向量和候选答案特征向量以及保存训练参数;
Step3:将目标域数据集中的问题以及候选答案集进行与Stepl相同的预处理操作,得到词向量;然后将目标域数据集词向量作为输入送入深度学习模型中,在目标域采用与Step2相同的模型进行编码,之后将Step2中保存的源域模型参数迁移到目标域的训练模型当中,作为目标域训练模型的初始化参数进行目标域数据集训练;
Step4:生成目标域中问题与候选答案的特征向量,通过余弦相似度计算问题与候选答案的相似度,相似度分数最高的,则作为该问题的最佳答案反馈给用户;
所述Step3的具体步骤为:
Step3.1:将Step2得到的源领域数据集的问答对向量表示作为InputModole的输入,使用BiLSTM读入问答对向量,得到隐藏状态为:
ht=BiLSTM(xt,ht-1)      (1)
其中,xt=L[wt],L是embedding matrix,wt是问答序列时刻t的词语,ht是t时刻的隐藏状态,ht=LSTM(xt,ht-1)表示当前的隐藏状态由前一个隐藏状态和当前的输入xt计算得到,xt表示输入的问答对的向量表示,其中LSTM的定义为:
zt=σ(W(z)xt+U(z)ht-1+b(z))       (2)
rt=σ(W(r)xt+U(r)ht-1+b(r))       (3)
Figure FDA0004152240090000011
Figure FDA0004152240090000012
其中,o是点积,即两个向量元素对应相乘,σ表示sigmoid函数,值域为0~1,W(z),W(r)
Figure FDA0004152240090000014
U(z),U(r)
Figure FDA0004152240090000015
n均为超参数,zt为LSTM的遗忘门,rt是重置门,若rt近似为0,则上一个隐含状态将被丢弃,rt提供了丢弃与未来无关的过去隐含状态的机制,也就是说,rt决定了过去有多少信息被遗忘,
Figure FDA0004152240090000013
为候选隐含状态,其使用rt来控制包含过去时刻信息的上一个隐含状态的流入,ht是隐含状态,利用zt来对上一个隐含状态ht-1和候选隐含状态进行更新,zt可以控制过去的隐含状态在当前时刻的重要性,若zt一直近似1,则过去的隐含状态将一直通过时间保存并传递至当前时刻,能更好地捕捉时序数据中间隔较大的依赖关系,式(1)是式(2)-(5)的缩写;
使用LSTM读入问题和候选答案,得到最后一个隐藏状态为:
Figure FDA0004152240090000021
Figure FDA0004152240090000022
Step3.2:基于迁移学习的问答匹配方法,将需要迁移的源域知识编码为BiLSTM模型中的参数,K0为源域和目标域的共同参数,Ks和KT为源域和目标域的特有参数,则源域和目标域的参数可用下列公式表示:
Ks=K0+Ks&KT=K0+KT     (8)
Step3.3:结合Dropout的双向LSTM模型作为基本模型,对于源域中的数据样本的输入序列Ts,模型在源域上的任务可表示为:
y=BiLSTM(Ks*Ts)        (9)
对于目标中数据样本的输入序列Tt,模型在目标域上的任务可表示为:
y=BiLSTM(KT*Tt)       (10)
设FTL(x)为迁移学习的方法,根据(9)和(10),源域和目标域之间的知识迁移公式可表示为:
Figure FDA0004152240090000028
结合公式(8),公式(11)可转换为:
Figure FDA0004152240090000029
假设不考虑已知条件TS和TT,设BiLSTM(K0)=μ,对于公式(12)进行简化,最终得到的迁移学习方法可表示为:
Figure FDA00041522400900000210
迁移学习的方法的最终目的在于将源域模型上训练的参数Ks在目标域上转化为KT,能够更好的适应目标域上的数据及任务;
Step3.4:采用余弦相似度计算出目标域上问题和候选答案的匹配相似度得分,模型的目标函数定义为:
Figure FDA0004152240090000023
其中
Figure FDA0004152240090000024
为目标域数据中的正确答案,
Figure FDA0004152240090000025
为随机选取的负向答案,m是优化目标函数所设的参数,目标函数是让
Figure FDA0004152240090000026
和qT之间的cosine值大于
Figure FDA0004152240090000027
和qT之间的cosine值,从而选择出问题的最佳答案。
2.根据权利要求1所述的基于迁移学习的问答匹配方法,其特征在于:将所述Stepl和所述Step3中得到的问题及候选答案的词向量分别组成问答对,再将问答对进行分词,去除停用词操作,最后使用表示学习方法对其进行向量化表示。
CN202010159530.6A 2020-03-09 2020-03-09 一种基于迁移学习的问答匹配方法 Active CN111368058B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010159530.6A CN111368058B (zh) 2020-03-09 2020-03-09 一种基于迁移学习的问答匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010159530.6A CN111368058B (zh) 2020-03-09 2020-03-09 一种基于迁移学习的问答匹配方法

Publications (2)

Publication Number Publication Date
CN111368058A CN111368058A (zh) 2020-07-03
CN111368058B true CN111368058B (zh) 2023-05-02

Family

ID=71208785

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010159530.6A Active CN111368058B (zh) 2020-03-09 2020-03-09 一种基于迁移学习的问答匹配方法

Country Status (1)

Country Link
CN (1) CN111368058B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112487172B (zh) * 2020-12-16 2023-07-18 北京航空航天大学 一种面向深度答案推荐模型的主动学习方法
CN112632232B (zh) * 2021-03-09 2022-03-15 北京世纪好未来教育科技有限公司 一种文本匹配方法、装置、设备及介质
CN112989164B (zh) * 2021-03-26 2023-11-03 北京金堤征信服务有限公司 搜索结果处理方法、装置及电子设备
US11797611B2 (en) 2021-07-07 2023-10-24 International Business Machines Corporation Non-factoid question answering across tasks and domains
CN115114842A (zh) * 2022-04-27 2022-09-27 中国水利水电科学研究院 一种基于小样本迁移学习算法的暴雨内涝事件预测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509519A (zh) * 2018-03-09 2018-09-07 北京邮电大学 基于深度学习的通用知识图谱增强问答交互系统及方法
WO2018213763A1 (en) * 2017-05-19 2018-11-22 Salesforce.Com, Inc. Natural language processing using context-specific word vectors
CN109918652A (zh) * 2019-02-20 2019-06-21 上海方立数码科技有限公司 一种语句相似度判断方法及判断系统
CN110188182A (zh) * 2019-05-31 2019-08-30 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及介质
CN110222163A (zh) * 2019-06-10 2019-09-10 福州大学 一种融合cnn与双向lstm的智能问答方法及系统
CN110532397A (zh) * 2019-07-19 2019-12-03 平安科技(深圳)有限公司 基于人工智能的问答方法、装置、计算机设备及存储介质
WO2019229769A1 (en) * 2018-05-28 2019-12-05 Thottapilly Sanjeev An auto-disambiguation bot engine for dynamic corpus selection per query

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108345585A (zh) * 2018-01-11 2018-07-31 浙江大学 一种基于深度学习的自动问答方法
CN109241258B (zh) * 2018-08-23 2022-09-06 江苏索迩软件技术有限公司 一种应用税务领域的深度学习智能问答系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018213763A1 (en) * 2017-05-19 2018-11-22 Salesforce.Com, Inc. Natural language processing using context-specific word vectors
CN108509519A (zh) * 2018-03-09 2018-09-07 北京邮电大学 基于深度学习的通用知识图谱增强问答交互系统及方法
WO2019229769A1 (en) * 2018-05-28 2019-12-05 Thottapilly Sanjeev An auto-disambiguation bot engine for dynamic corpus selection per query
CN109918652A (zh) * 2019-02-20 2019-06-21 上海方立数码科技有限公司 一种语句相似度判断方法及判断系统
CN110188182A (zh) * 2019-05-31 2019-08-30 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及介质
CN110222163A (zh) * 2019-06-10 2019-09-10 福州大学 一种融合cnn与双向lstm的智能问答方法及系统
CN110532397A (zh) * 2019-07-19 2019-12-03 平安科技(深圳)有限公司 基于人工智能的问答方法、装置、计算机设备及存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Modelling domain relationships for transfer learning on retrieval-based question answering systems in e-commerce;Jianfei Yu 等;《In Proceedings of the Eleventh ACM International Conference on Web Search and Data Mining 》;682–690 *
Supervised Transfer Learning for Product Information Question Answering;Tuan Manh Lai 等;《 2018 17th IEEE International Conference on Machine Learning and Applications》;1109-1114 *
基于勘探开发知识图谱的深度问答系统关键技术研究;刘兴昱;《中国优秀硕士学位论文全文数据库信息科技辑》(第(2020)1期);I138-2688 *
文本蕴含关系识别与知识获取研究进展及展望;郭茂盛 等;《计算机学报》;第40卷(第4期);889-910 *

Also Published As

Publication number Publication date
CN111368058A (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
CN111368058B (zh) 一种基于迁移学习的问答匹配方法
CN110298037B (zh) 基于增强注意力机制的卷积神经网络匹配的文本识别方法
CN110633409B (zh) 一种融合规则与深度学习的汽车新闻事件抽取方法
CN111738003B (zh) 命名实体识别模型训练方法、命名实体识别方法和介质
CN109800437B (zh) 一种基于特征融合的命名实体识别方法
CN110188272B (zh) 一种基于用户背景的社区问答网站标签推荐方法
CN106897371B (zh) 中文文本分类系统及方法
CN112487820B (zh) 一种中文医疗命名实体识别方法
Cai et al. Intelligent question answering in restricted domains using deep learning and question pair matching
CN113673254B (zh) 基于相似度保持的知识蒸馏的立场检测方法
CN113204633B (zh) 一种语义匹配蒸馏方法及装置
CN111914062A (zh) 一种基于关键词的长文本问答对生成系统
CN114781375A (zh) 一种基于bert与注意力机制的军事装备关系抽取方法
CN113934835B (zh) 结合关键词和语义理解表征的检索式回复对话方法及系统
CN115238691A (zh) 基于知识融合的嵌入的多意图识别与槽位填充模型
CN111145914A (zh) 一种确定肺癌临床病种库文本实体的方法及装置
Ji et al. Teachers cooperation: team-knowledge distillation for multiple cross-domain few-shot learning
CN110674293B (zh) 一种基于语义迁移的文本分类方法
CN112015760A (zh) 基于候选答案集重排序的自动问答方法、装置和存储介质
Li et al. Self attention mechanism of bidirectional information enhancement
CN113516209B (zh) 一种用于少样本意图识别的对比任务适应学习方法
CN115828852A (zh) 一种基于杂志的人名实体链接方法
CN113792120B (zh) 图网络的构建方法及装置、阅读理解方法及装置
CN114841148A (zh) 文本识别模型训练方法、模型训练装置、电子设备
CN111428499B (zh) 一种融合近义词信息用于自动问答系统的成语压缩表示方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant