CN115438156B - 一种多任务学习的答案选择和问题分类的方法及系统 - Google Patents
一种多任务学习的答案选择和问题分类的方法及系统 Download PDFInfo
- Publication number
- CN115438156B CN115438156B CN202110532039.8A CN202110532039A CN115438156B CN 115438156 B CN115438156 B CN 115438156B CN 202110532039 A CN202110532039 A CN 202110532039A CN 115438156 B CN115438156 B CN 115438156B
- Authority
- CN
- China
- Prior art keywords
- question
- answer
- vector
- representation
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000012549 training Methods 0.000 claims abstract description 59
- 239000013598 vector Substances 0.000 claims description 190
- 239000011159 matrix material Substances 0.000 claims description 54
- 230000006870 function Effects 0.000 claims description 52
- 230000015654 memory Effects 0.000 claims description 32
- 230000007246 mechanism Effects 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 9
- 238000003860 storage Methods 0.000 claims description 7
- 230000003993 interaction Effects 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000002457 bidirectional effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000007787 long-term memory Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000012938 design process Methods 0.000 description 2
- 238000005304 joining Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
一种多任务学习的答案选择和问题分类的方法及系统,以及一种多任务学习的答案选择和问题分类的模型训练的方法及系统,依据上述实施例的多任务学习的答案选择和问题分类的方法及系统,以及多任务学习的答案选择和问题分类的模型训练的方法及系统,提出一个基本的多任务网络(例如答案选择任务和问题分类任务),以实现不同任务之间的相互交互;引入共享任务网络,关注和利用两个任务之间的语义和交互信息;引入共享标签嵌入网络,该网络通过问题分类任务中包含的有用信息,为未标记的答案句子提供伪标签,从而辅助答案选择进行预测,并提高两个任务的泛化性能。
Description
技术领域
本发明涉及人工智能领域,具体涉及一种多任务学习的答案选择和问题分类的方法及系统,以及一种多任务学习的答案选择和问题分类的模型训练的方法及系统。
背景技术
对于人工智能领域,问题分类是一个重要的研究领域,答案选择也是一个重要的研究领域。答案选择任务旨在选择包含确切答案的最合适的句子,而问题分类任务则需基于语义关系的特定领域分类法,根据一组预定义类别,将问题归为其中一个类别。针对这两个任务分别进行任务设计和训练各种模型既耗时又昂贵。
发明内容
针对上述问题,本发明提供一种多任务学习的答案选择和问题分类的方法及系统,以及一种多任务学习的答案选择和问题分类的模型训练的方法及系统,下面具体说明。
根据第一方面,一种实施例提供一种多任务学习的答案选择和问题分类的方法,包括:
获取输入信息;所述输入信息包括待分类的问题,或者问题及对应的一组候选答案;
将所述输入信息输入到多任务学习的答案选择和问题分类的模型中;
当所述输入信息为待分类的问题时,则所述多任务学习的答案选择和问题分类的模型输出问题的分类,当所述输入信息为问题及对应的一组候选答案,则多任务学习的答案选择和问题分类的模型输出从所述候选答案所选取的答案;
其中,所述多任务学习的答案选择和问题分类的模型通过以下方式被训练:
获取训练集;所述训练集至少包括问题,问题的标签,问题对应的一组候选答案;
通过嵌入层将问题和候选答案分别转换为问题嵌入向量Wq和答案嵌入向量Wa;
将所述问题嵌入向量Wq和答案嵌入向量Wa分别输入到双向长短期记忆网络中,以分别得到问题的初始上下文句子表示Hq和答案的初始上下文句子表示Ha;
对于答案选择任务:
通过问题嵌入向量Wq、答案嵌入向量Wa和共享注意力矩阵Uq,计算关联性矩阵F;
对所述关联性矩阵F的行和列分别进行最大池化操作,以分别生成问题的基于上下文的注意力向量fq和答案的基于上下文的注意力向量fa;
根据问题的初始上下文句子表示Hq和问题的基于上下文的注意力向量fq计算问题的句子表示qout;根据答案的初始上下文句子表示Ha和答案的基于上下文的注意力向量fa计算答案的句子表示aout;
计算问题的句子表示qout和答案的句子表示aout之间的双线性相似性得分s(qout;aout);
至少根据问题的句子表示qout、答案的句子表示aout和双线性相似性得分s(qout;aout)生成隐含层向量表示X;
将隐含层向量表示X输入到隐藏层;
对隐藏层的输出通过答案选择任务的softmax层进行二元分类;
对于问题分类任务:
将问题的初始上下文句子表示Hq作为注意力机制的输入,以得到权重Wc;
根据权重Wc和问题的初始上下文句子表示Hq计算得到问题的句子表示Q;
基于所述问题的句子表示Q,生成所述共享注意力矩阵Uq;
将所述问题的句子表示Q,输入到完全连接层;
对完全连接层的输出通过问题分类任务的softmax层进行二元分类;
对于标签,获取标签嵌入向量L,并计算标签嵌入向量L和隐含层向量表示X之间的相似度S;
将相似度S大于阈值的标签嵌入向量L输入到多层感知器中,得到伪标签,以更新所述训练集。
根据第二方面,一种实施例提供一种多任务学习的答案选择和问题分类的方法,包括:
获取输入信息;所述输入信息包括待分类的问题,或者问题及对应的一组候选答案;
将所述输入信息输入到多任务学习的答案选择和问题分类的模型中;
当所述输入信息为待分类的问题时,则所述多任务学习的答案选择和问题分类的模型输出问题的分类,当所述输入信息为问题及对应的一组候选答案,则多任务学习的答案选择和问题分类的模型输出从所述候选答案所选取的答案;
其中,所述多任务学习的答案选择和问题分类的模型通过以下方式被训练:
获取训练集;所述训练集至少包括问题,问题的标签,问题对应的一组候选答案;
通过嵌入层将问题和候选答案分别转换为问题嵌入向量Wq和答案嵌入向量Wa;
将所述问题嵌入向量Wq和答案嵌入向量Wa分别输入到双向长短期记忆网络中,以分别得到问题的初始上下文句子表示Hq和答案的初始上下文句子表示Ha;
对于答案选择任务:
通过问题嵌入向量Wq、答案嵌入向量Wa和注意力矩阵U,计算关联性矩阵F;
对所述关联性矩阵F的行和列分别进行最大池化操作,以分别生成问题的基于上下文的注意力向量fq和答案的基于上下文的注意力向量fa;
根据问题的初始上下文句子表示Hq和问题的基于上下文的注意力向量fq计算问题的句子表示qout;根据答案的初始上下文句子表示Ha和答案的基于上下文的注意力向量fa计算答案的句子表示aout;
计算问题的句子表示qout和答案的句子表示aout之间的双线性相似性得分s(qout;aout);
至少根据问题的句子表示qout、答案的句子表示aout和双线性相似性得分s(qout;aout)生成隐含层向量表示X;
将隐含层向量表示X输入到隐藏层;
对隐藏层的输出通过答案选择任务的softmax层进行二元分类;
对于问题分类任务:
将问题的初始上下文句子表示Hq输入到完全连接层;
对完全连接层的输出通过问题分类任务的softmax层进行二元分类;
对于标签,获取标签嵌入向量L,并计算标签嵌入向量L和隐含层向量表示X之间的相似度S;
将相似度S大于阈值的标签嵌入向量L输入到多层感知器中,得到伪标签,以更新所述训练集。
根据第三方面,一种实施例提供一种多任务学习的答案选择和问题分类的模型训练的方法,包括:
获取训练集;所述训练集至少包括问题,问题的标签,问题对应的一组候选答案;
通过嵌入层将问题和候选答案分别转换为问题嵌入向量Wq和答案嵌入向量Wa;
将所述问题嵌入向量Wq和答案嵌入向量Wa分别输入到双向长短期记忆网络中,以分别得到问题的初始上下文句子表示Hq和答案的初始上下文句子表示Ha;
对于答案选择任务:
通过问题嵌入向量Wq、答案嵌入向量Wa和共享注意力矩阵Uq,计算关联性矩阵F;
对所述关联性矩阵F的行和列分别进行最大池化操作,以分别生成问题的基于上下文的注意力向量fq和答案的基于上下文的注意力向量fa;
根据问题的初始上下文句子表示Hq和问题的基于上下文的注意力向量fq计算问题的句子表示qout;根据答案的初始上下文句子表示Ha和答案的基于上下文的注意力向量fa计算答案的句子表示aout;
计算问题的句子表示qout和答案的句子表示aout之间的双线性相似性得分s(qout;aout);
至少根据问题的句子表示qout、答案的句子表示aout和双线性相似性得分s(qout;aout)生成隐含层向量表示X;
将隐含层向量表示X输入到隐藏层;
对隐藏层的输出通过答案选择任务的softmax层进行二元分类;
对于问题分类任务:
将问题的初始上下文句子表示Hq作为注意力机制的输入,以得到权重Wc;
根据权重Wc和问题的初始上下文句子表示Hq计算得到问题的句子表示Q;
基于所述问题的句子表示Q,生成所述共享注意力矩阵Uq;
将所述问题的句子表示Q,输入到完全连接层;
对完全连接层的输出通过问题分类任务的softmax层进行二元分类;
对于标签,获取并将标签嵌入向量L输入到共享标签嵌入网络,以计算标签嵌入向量L和隐含层向量表示X之间的相似度S;
将相似度S大于阈值的标签嵌入向量L输入到共享标签嵌入网络的多层感知器中,得到伪标签,以更新所述训练集;
获取答案选择任务的损失函数、问题分类任务的损失函数和共享标签嵌入网络的损失函数,并将这三个损失函数相加得到总损失函数;根据总损失函数进行训练。
根据第四方面,一种实施例提供一种多任务学习的答案选择和问题分类的模型训练的方法,包括:
获取训练集;所述训练集至少包括问题,问题的标签,问题对应的一组候选答案;
通过嵌入层将问题和候选答案分别转换为问题嵌入向量Wq和答案嵌入向量Wa;
将所述问题嵌入向量Wq和答案嵌入向量Wa分别输入到双向长短期记忆网络中,以分别得到问题的初始上下文句子表示Hq和答案的初始上下文句子表示Ha;
对于答案选择任务:
通过问题嵌入向量Wq、答案嵌入向量Wa和注意力矩阵U,计算关联性矩阵F;
对所述关联性矩阵F的行和列分别进行最大池化操作,以分别生成问题的基于上下文的注意力向量fq和答案的基于上下文的注意力向量fa;
根据问题的初始上下文句子表示Hq和问题的基于上下文的注意力向量fq计算问题的句子表示qout;根据答案的初始上下文句子表示Ha和答案的基于上下文的注意力向量fa计算答案的句子表示aout;
计算问题的句子表示qout和答案的句子表示aout之间的双线性相似性得分s(qout;aout);
至少根据问题的句子表示qout、答案的句子表示aout和双线性相似性得分s(qout;aout)生成隐含层向量表示X;
将隐含层向量表示X输入到隐藏层;
对隐藏层的输出通过答案选择任务的softmax层进行二元分类;
对于问题分类任务:
将问题的初始上下文句子表示Hq输入到完全连接层;
对完全连接层的输出通过问题分类任务的softmax层进行二元分类;
对于标签,获取标签嵌入向量L,并计算标签嵌入向量L和隐含层向量表示X之间的相似度S;
将相似度S大于阈值的标签嵌入向量L输入到多层感知器中,得到伪标签,以更新所述训练集;
获取答案选择任务的损失函数、问题分类任务的损失函数和共享标签嵌入网络的损失函数,并将这三个损失函数相加得到总损失函数;根据总损失函数进行训练。
一实施例中,所述伪标签包括未被标签的问题的伪标签,和/或,答案的伪标签。
一实施例中,所述至少根据问题的句子表示qout、答案的句子表示aout和双线性相似性得分s(qout;aout)生成隐含层向量表示X,包括:
根据问题的句子表示qout、问题的伪标签、答案的句子表示aout、答案的伪标签和双线性相似性得分s(qout;aout)生成隐含层向量表示X。
根据第五方面,一种实施例提供一种多任务学习的答案选择和问题分类的系统,包括:
存储器,用于存储程序;
处理器,用于通过执行所述存储器存储的程序以实现本文任一实施例所述的多任务学习的答案选择和问题分类的方法。
根据第六方面,一种实施例提供一种多任务学习的答案选择和问题分类的模型训练的系统,,包括:
存储器,用于存储程序;
处理器,用于通过执行所述存储器存储的程序以实现本文中任一实施例所述的多任务学习的答案选择和问题分类的模型训练的方法。
根据第七方面,一种实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有程序,所述程序能够被处理器执行以实现如本文中任一实施例所述的方法。
依据上述实施例的多任务学习的答案选择和问题分类的方法及系统,以及多任务学习的答案选择和问题分类的模型训练的方法及系统,以及计算机可读存储介质,通过问题分类任务中包含的有用信息,为未标记的答案句子提供伪标签,从而辅助答案选择进行预测,并提高两个任务(例如答案选择任务和问题分类任务)的泛化性能。。
附图说明
图1为一种实施例的基本的多任务网络的结构示意图;
图2为一种实施例的在基本的多任务网络的基础上加入共享任务网络的结构示意图;
图3为一种实施例的在基本的多任务网络的基础上加入共享标签嵌入网络的结构示意图;
图4为一种实施例的在基本的多任务网络的基础上加入共享任务网络和共享标签嵌入网络的结构示意图;
图5为一种实施例的多任务学习的答案选择和问题分类的模型训练的方法的流程图;
图6为一种实施例的多任务学习的答案选择和问题分类的模型训练的方法的流程图;
图7为一种实施例的多任务学习的答案选择和问题分类的模型训练的方法的流程图;
图8为一种实施例的多任务学习的答案选择和问题分类的方法的流程图;
图9为一种实施例的多任务学习的答案选择和问题分类的系统的结构示意图;
图10为一种实施例的多任务学习的答案选择和问题分类的模型训练的系统的结构示意图。
具体实施方式
下面通过具体实施方式结合附图对本发明作进一步详细说明。其中不同实施方式中类似元件采用了相关联的类似的元件标号。在以下的实施方式中,很多细节描述是为了使得本申请能被更好的理解。然而,本领域技术人员可以毫不费力的认识到,其中部分特征在不同情况下是可以省略的,或者可以由其他元件、材料、方法所替代。在某些情况下,本申请相关的一些操作并没有在说明书中显示或者描述,这是为了避免本申请的核心部分被过多的描述所淹没,而对于本领域技术人员而言,详细描述这些相关操作并不是必要的,他们根据说明书中的描述以及本领域的一般技术知识即可完整了解相关操作。
另外,说明书中所描述的特点、操作或者特征可以以任意适当的方式结合形成各种实施方式。同时,方法描述中的各步骤或者动作也可以按照本领域技术人员所能显而易见的方式进行顺序调换或调整。因此,说明书和附图中的各种顺序只是为了清楚描述某一个实施例,并不意味着是必须的顺序,除非另有说明其中某个顺序是必须遵循的。
本文中为部件所编序号本身,例如“第一”、“第二”等,仅用于区分所描述的对象,不具有任何顺序或技术含义。而本申请所说“连接”、“联接”,如无特别说明,均包括直接和间接连接(联接)。
考虑到答案选择任务和问题分类任务的训练样本都可以从相同分布数据中得出的,并且本明发现,通过引入外部知识而提升答案选择任务的性能;因此,引入来自问题分类任务的上下文信息和类别信息可望增强答案选择任务的性能。针对这种情况,发明人考虑引入多任务学习来训练这两个任务,即通过多任务学习框架来探讨问题分类和答案选择两个子任务。
多任务学习是一种学习范例,它利用不同任务中包含的有用信息来帮助提高所有任务的性能。多任务学习已在许多自然语言处理应用程序中取得成功,包括语义解析,文本标准化,神经机器翻译和关键短语边界分类。
一些实施例中,本发明提供一种基于多任务学习的答案选择和问题分类的模型,包括:(1)探索用于答案选择和问题分类的多任务学习方法;(2)充分利用问题类别信息和任务之间的转移标签。(1)中的多任务学习方法,其核心思想是通过在知识层面上研究任务间的交互从而改进两个子任务的性能。(2)中问题类别信息和任务之间伪标签的利用,其为文本与外部知识相互指导,交互学习,从而增强不同任务间的交互。
一些具体实施例中,本发明首先提出一个基本的多任务网络,以实现不同任务之间的相互交互——例如实现答案选择任务和问题分类任务的相互交互,即基本的多任务网络可以包括答案选择网络和问题分类网络;其中,问题分类网络将问题作为输入并返回预定义的类别标签,而答案选择网络则将一对问题-答案作为输入以进行二元分类,即判断该答案是否适合于该问题;进一步,本发明设计了一个共享任务网络,关注和利用两个任务(例如答案选择任务和问题分类任务)之间的语义和交互信息;进一步地,本发明提出了一个共享标签嵌入网络,该网络通过问题分类任务中包含的有用信息,为未标记的答案句子提供伪标签,从而辅助答案选择进行预测,并提高两个任务(例如答案选择任务和问题分类任务)的泛化性能。
本发明一些实施例中提供一种多任务学习的答案选择和问题分类的模型,其主要包括三个网络:基本的多任务网络,共享任务网络,共享标签嵌入网络;为了充分说明本发明,下面按照设计过程一步一步进行说明。
主要设计过程如下:
步骤S10:设计基本的多任务网络,即设计答案选择和问题分类多任务网络;
步骤S20:再在基本的多任务网络的基础上,设计和引入共享任务网络来关注答案选择和问题分类任务之间的关键信息,并采用问题类别信息以改进细粒度的问题分类任务的表示学习;
步骤S30:再在基本的多任务网络的基础上,设计和引入共享标签嵌入网络,为未标记的答案句子提供伪标签来以实现对答案选择的辅助预测,从而利用问题分类中所包含的有用信息。
可以理解地,步骤S20和步骤S30是独立的,在一些例子中,多任务学习的答案选择和问题分类的模型中可能是主要包括基本的多任务网络,共享任务网络;也可以是主要包括基本的多任务网络,共享标签嵌入网络。下面对各步骤具体进行说明。
请参照图1,对于步骤S10,设计基本的答案选择和问题分类多任务网络;具体涉及S11~S14,下面详细说明。
步骤S11:给定一个问题q和一组候选答案A={a1,a2,…,an},首先使用嵌入层将其转换为向量表示,然后将这些嵌入向量输入到基本的多任务网络当中。对于给定的句子,其单词被转换为嵌入表示,字符特征和位置特征也转换为实值表示。因此,单词表示为:
其中表示串联操作,串联操作是指将后一条向量直接连接到前一条向量的,例如/>L表示句子的长度,u是指隐藏单元的数量,即隐含层或者说隐藏层所包含的单元的数量,R表示实数集;wword、wchar、wpos分别指单词的向量、单词的词性的实值、单词在句子中的位置的实值。在本文提出的基本网络中,答案选择和问题分类任务都采用了共享的嵌入层,即答案选择网络和问题分类网络都采用一个共同的嵌入层。
步骤S12:采用双向长短期记忆网络来对问题和答案进行编码。问题句子的单词编码器层输入是问题序列向量Wq={w1,w2,…,wlq},括号中的w1,w2,…,wlq表示组成问题句子的各单词的向量,例如可以为(1)中的或wword;答案句子的单词编码器层输入是答案序列向量Wa={w1,w2,…,wla},类似地,括号中的w1,w2,…,wla表示组成答案句子的各单词的向量,例如可以为(1)中的/>或wword。第i个单词的输出是/>其中/>和/>是分别是前向网络和后向网络的输出。因此,对于问题和答案的初始上下文句子表示/>分别为:
Hq=BiLSTM(Wq) (2)
Ha=BiLSTM(Wa) (3)
其中,Hq为问题的初始上下文句子表示,Ha为答案的初始上下文句子表示,BiLSTM()表示双向长短期记忆网络的计算、运算或者说函数。
步骤S13:对于答案选择任务或网络,本采用双向注意机制来交互式学习问题和答案的表示。通过问题的嵌入Wq和答案的嵌入Wa,并通过引入一个注意力矩阵来计算关联性矩阵/>
tanh()表示激活函数。
再利用关联性矩阵F的行和列分别进行最大池化操作,以分别生成问题和答案的基于上下文的注意力向量和/>问题和答案的句子表示为:
qout=Hqfq (5)
aout=Hafa (6)
其中,qout为问题的句子表示;fq为问题的基于上下文的注意力向量;aout为答案的句子表示;fa为答案的基于上下文的注意力向量。
再计算注意问题向量即qout和注意答案向量aout之间的双线性相似性得分:
其中是要学习的相似度矩阵。据此,隐藏层或者说隐含层的输入为X=[qout:s(qout;aout):aout],然后隐藏层的输出通过softmax函数层进行二元分类:
ys=softmax(WsX+bs) (8)
其中和/>是要学习的参数;softmax()表示softmax函数。X=[qout:s(qout;aout):aout]中“:”表示串联操作。
可以利用以最小化交叉熵损失函数对答案选择任务或者说答案选择网络进行训练:
其中ps是softmax层的输出。θ包含网络的所有参数,是L2正则化。ys表示softmax层进行二元分类的结果,是这一类还是另一类;ps表示softmax层的输出,是一个概率值;ys和ps这两者的下标i,表示序号。
训练损失函数可衡量模型对训练数据的预测能力,正则项会评价模型的复杂性,这有助于避免过拟合。
步骤S14:对于问题分类任务或网络,将完全连接层放置于双向长短期记忆网络层之后,即双向长短期记忆网络层的输出为完全连接层的输入,完全连接层的输出为softmax层的输入;因此在问题分类网络中,完全连接层的输出根据问题的标签(即问题分类标签)通过softmax层进行分类:
yc=softmax(HqMcbq) (10)
Hq是问题的表示,Mc是可学习的权重矩阵,bq是偏差矢量;yc是问题多分类的结果,如why问题,which问题,what问题等。
一实施例中的目标是使损失函数最小化:
其中pc是各问题类别的概率分布;ys和ps这两者的下标i,表示序号。问题分类任务和答案选择任务(即基本的多任务网络、基本的多任务网络)的总损失可计算为:
以上对于步骤S10设计基本的答案选择和问题分类多任务网络进行了一个说明。下面对步骤S20在基本的多任务网络的基础上设计和引入共享任务网络进行说明。
请参照图2,对于步骤S20,在问题分类任务、网络或者说问题分类的基本网络当中加入一个共享任务网络,以改善问题的表示学习,并向答案选择任务提供更多的问题相关信息;从图中可以看到,双向长短记忆网络的输出是共享任务网络的输入,共享任务网络的输出是完全连接层的输入;步骤S20具体涉及S21~S22,下面详细说明。
步骤S21:与基本的多任务模型相同,先使用双向长短期记忆网络处理问题句子并获得单个问题中相邻单词之间的依存关系。
然后,将所有隐藏单元的状态串联起来作为注意力机制的输入,其输出是权重Wc的向量:
Wc=softmax(Wc2tanh(Wc1Hq)) (13)
其中是权重矩阵,u是隐藏单位大小。/>中是参数的权重矩阵,da和r是可以任意设置的超参数。在常规注意力机制中,Wc2通常是属于/>的向量。考虑到一个句子可能包含组成整个句子的多个语义成分,本发明通过扩展r引入Wc2。因此,问题的最终表示更能反映句子的特定组成部分如单词或短语等。问题句子的表示Q为:
Q=WcHq (14)
一些例子中,在步骤S10中基本的答案选择和问题分类多任务网络中的Hq可以更新为Q,例如公式(10)中的Hq可以更新为Q。
步骤S22:问题的类型信息包含在问题表示中,这有助于减少潜在答案的搜索空间,从而使答案的选择更加有效和准确。一些实施例中,利用Q及其问题类型信息,生成一个共享的注意力矩阵,如下所示:
Uq=UcQ+U (15)
其中Uc是可学习的权重矩阵,U是等式(4)中提到的注意力矩阵,可用于计算问题和答案的相关性。本发明一些实施例中,用Uq代替U进行公式(4)的计算。当设置Uc=0,UcQ=0时,共享任务矩阵Uq等效于U。引入共享任务网络的一个重要目的,就是将注意力矩阵U更新为共享注意力矩阵Uq;也即使用共享注意力矩阵Uq来代替注意力矩阵U。
步骤S30在基本的多任务网络的基础上设计和引入共享标签嵌入网络,以学习标签嵌入之间的传递函数,从而能够利用带注释的数据集以及未被标记的数据;这具体涉及S31~S33,下面详细说明。其中图3为在基本的多任务网络的基础上设计和引入共享标签嵌入网络,图4为在基本的多任务网络的基础上设计和引入共享任务网络和共享标签嵌入网络例子。
步骤S31:共享标签嵌入网络在带标签的问题数据集中进行训练。与上述使用softmax层的方法不一样,一些实施例中,引入了一个相似度计算函数来测量标签嵌入向量L和隐藏表示X=[qout:s(qout;aout):aout]之间的相似度:
S=L·X (16)
其中“·”是点积,是标签嵌入矩阵,标签嵌入向量lj组成标签嵌入矩阵L,dl是标签嵌入向量的维度。
步骤S32:标签嵌入向量学习标签之间的关系,而概率分布pj则对细粒度信息进行编码。问题句子的标签嵌入oq(指问题的伪标签)可通过softmax函数获得:
将标签的嵌入向量lj输入到多层感知器中,该标签通过对数似然函数进行训练,以生成用于问题分类的问题伪标签:
一些实施例中,并不是将所有而是将相似度S比较高的标签嵌入向量输入到多层感知器中,从而得到伪标签。
步骤S33:将损失项添加到公式(12)中所示的多任务学习损失中,即:
通过将答案句子替换问题句子作为问题分类任务或者说网络的输入,还可以从多层感知器中获得答案的伪标记嵌入oa。为了充分利用标签信息,一些实施例中,可以将这些标签嵌入视为隐藏层的输入,并将它们嵌入到现有的向量中:
X=[qout:oq:s(qout;aout):aout:oa] (20)
公式(20)中的X可以用来更新或者说替换隐藏层或者说隐含层的输入,即更新或替换公式(8)和/或公式(16)中的X。
共享标签嵌入网络的一个作用是:获取没有标签的问题的伪标签,以及当将答案替换问题输入到问题分类任务时,可以获取答案的伪标签,然后将具有伪标签的问题,具有伪标签的答案作问题分类任务的训练集;共享标签嵌入网络的另一个作用是:通过考虑伪标签来构建隐藏层或者说隐含层的输入X,例如公式(20)中的X可以用来更新或者说替换隐藏层或者说隐含层的输入,即更新或替换公式(8)和/或公式(16)中的X。
因此,本发明一些实施例中提供了一种基于多任务学习中的答案选择和问题分类模型;利用新型的答案选择和问题分类的多任务学习架构实现两个任务之间的相互交互;实现共享任务网络来关注两个任务之间的关键信息,并采用问题类别信息以改进细粒度的问题分类任务的表示学习;实现共享标签嵌入网络,为未标记的答案句子提供伪标签来以实现对答案选择的辅助预测,从而利用问题分类中所包含的有用信息来提高多任务学习的普适性。本发明一些实施例极大程度地解决了在文本背景知识不足情况下问答系统准确率不高的问题,并对其他自然语言处理任务中存在的相同问题具有一定的借鉴意义。
请参照图5,一些实施例中公开一种多任务学习的答案选择和问题分类的模型训练的方法,包括以下步骤:
步骤100:获取训练集;所述训练集至少包括问题,问题的标签(即问题的类别标签,例如如why问题,which问题,what问题等),问题对应的一组候选答案;
步骤102:通过嵌入层将问题和候选答案分别转换为问题嵌入向量Wq和答案嵌入向量Wa。
例如,给定一个问题q和一组候选答案A={a1,a2,…,an},首先使用嵌入层将其转换为向量表示,然后将这些嵌入向量输入到基本的多任务网络当中。对于给定的句子,其单词被转换为嵌入表示,字符特征和位置特征也转换为实值表示。因此,单词表示为公式的含义解释见上文的公式(1);然后形成问题嵌入向量Wq或者说问题序列向量Wq={w1,w2,…,wlq},和答案嵌入向量Wa或者说答案序列向量Wa={w1,w2,…,wla}。
步骤104:将问题嵌入向量Wq和答案嵌入向量Wa分别输入到双向长短期记忆网络中,以分别得到问题的初始上下文句子表示Hq和答案的初始上下文句子表示Ha。
对于答案选择任务:
步骤110:通过问题嵌入向量Wq、答案嵌入向量Wa和共享注意力矩阵Uq,计算关联性矩阵F,例如:
步骤111:对关联性矩阵F的行和列分别进行最大池化操作,以分别生成问题的基于上下文的注意力向量fq和答案的基于上下文的注意力向量fa。
步骤112:根据问题的初始上下文句子表示Hq和问题的基于上下文的注意力向量fq计算问题的句子表示qout=Hqfq;根据答案的初始上下文句子表示Ha和答案的基于上下文的注意力向量fa计算答案的句子表示aout=Hafa。
步骤113:计算问题的句子表示qout和答案的句子表示aout之间的双线性相似性得分s(qout;aout),例如
步骤114:至少根据问题的句子表示qout、答案的句子表示aout和双线性相似性得分s(qout;aout)生成隐含层向量表示X。
例如,一些实施例中,步骤114根据问题的句子表示qout、答案的句子表示aout和双线性相似性得分s(qout;aout)生成隐含层向量表示X;例如X=[qout:s(qout;aout):aout]。
再例如,一些实施例中,步骤114根据问题的句子表示qout、问题的伪标签、答案的句子表示aout、答案的伪标签和双线性相似性得分s(qout;aout)生成隐含层向量表示X;例如X=[qout:oq:s(qout;aout):aout:oa]。
步骤115:将隐含层向量表示X输入到隐藏层。
步骤116:对隐藏层的输出通过答案选择任务的softmax层进行二元分类,例如ys=softmax(WsX+bs)。
对于问题分类任务,在问题分类任务或者说问题分类网络中可以引入共享任务网络,也可以引入共享标签嵌入网络,还可以同时引入共享任务网络和共享标签嵌入网络;其中,共享任务网络包括注意力机制和计算共享注意力矩阵;共享标签嵌入网络包括标签嵌入与隐藏表示之间相似度计算函数和多层感知器。
一、请参照图4和图5,先说明同时引入共享任务网络和共享标签嵌入网络的情况:
步骤120:将问题的初始上下文句子表示Hq作为注意力机制的输入,以得到权重Wc;例如Wc=softmax(Wc2tanh(Wc1Hq))。
步骤121:根据权重Wc和问题的初始上下文句子表示Hq计算得到问题的句子表示Q;例如Q=WcHq。
步骤122:基于所述问题的句子表示Q,生成所述共享注意力矩阵Uq;例如,Uq=UcQ+U;
步骤123:将问题的句子表示Q,输入到完全连接层。
步骤120至步骤123是关于共享任务网络的一些步骤,在基本的多任务网络中,问题分类网络的双向长短期记忆网络的输出为完全连接层的输入,而以引入共享任务网络后,双向长短期记忆网络的输出为共享任务网络的输入,共享任务网络的输出为完全连接层的输入。
步骤125:对完全连接层的输出通过问题分类任务的softmax层进行二元分类。例如yc=softmax(HqMcbq),或者,例如yc=softmax(QMcbq)。
步骤130:对于标签,获取并将标签嵌入向量L输入到共享标签嵌入网络,以计算标签嵌入向量L和隐含层向量表示X之间的相似度S,例如S=L·X,其中X=[qout:s(qout;aout):aout]或者X=[qout:oq:s(qout;aout):aout:oa]。
步骤131:将标签嵌入向量L输入到共享标签嵌入网络的多层感知器中,得到伪标签,以更新所述训练集。一些实施例中,可以将相似度S大于阈值的标签嵌入向量L输入到共享标签嵌入网络的多层感知器中。
一些实施例中,伪标签包括未被标签的问题的伪标签,和/或,答案的伪标签。将问题句子尤其是未被标签的问题句子输入到问题分类任务中,可以得到未被标签的问题的伪标签;类似地,将通过将答案句子替换问题句子作为问题分类任务或者说网络的输入,还可以从多层感知器中获得答案的伪标签。oq表示问题的伪标签或者说伪标签嵌入(向量/表示);oa表示答案的伪标签或者说伪标签嵌入(向量/表示)。
二、请参照图2和图6,再说明只引入共享任务网络的情况:
步骤120:将问题的初始上下文句子表示Hq作为注意力机制的输入,以得到权重Wc;例如Wc=softmax(Wc2tanh(Wc1Hq))。
步骤121:根据权重Wc和问题的初始上下文句子表示Hq计算得到问题的句子表示Q;例如Q=WcHq。
步骤122:基于所述问题的句子表示Q,生成所述共享注意力矩阵Uq;例如,Uq=UcQ+U;
步骤123:将问题的句子表示Q,输入到完全连接层。
步骤120至步骤123是关于共享任务网络的一些步骤,在基本的多任务网络中,问题分类网络的双向长短期记忆网络的输出为完全连接层的输入,而以引入共享任务网络后,双向长短期记忆网络的输出为共享任务网络的输入,共享任务网络的输出为完全连接层的输入。
步骤125:对完全连接层的输出通过问题分类任务的softmax层进行二元分类。例如yc=softmax(HqMcbq),或者,例如yc=softmax(QMcbq)。
三、请参照图3和图7,再说明只引入共享标签嵌入网络的情况:
步骤124:将问题的初始上下文句子表示Hq输入到完全连接层。
步骤125:对完全连接层的输出通过问题分类任务的softmax层进行二元分类。例如yc=softmax(HqMcbq)。
步骤130:对于标签,获取并将标签嵌入向量L输入到共享标签嵌入网络,以计算标签嵌入向量L和隐含层向量表示X之间的相似度S,例如S=L·X,其中X=[qout:s(qout;aout):aout]或者X=[qout:oq:s(qout;aout):aout:oa]。
步骤131:将标签嵌入向量L输入到共享标签嵌入网络的多层感知器中,得到伪标签,以更新所述训练集。一些实施例中,可以将相似度S大于阈值的标签嵌入向量L输入到共享标签嵌入网络的多层感知器中。
一些实施例中,伪标签包括未被标签的问题的伪标签,和/或,答案的伪标签。将问题句子尤其是未被标签的问题句子输入到问题分类任务中,可以得到未被标签的问题的伪标签;类似地,将通过将答案句子替换问题句子作为问题分类任务或者说网络的输入,还可以从多层感知器中获得答案的伪标签。oq表示问题的伪标签或者说伪标签嵌入(向量/表示);oa表示答案的伪标签或者说伪标签嵌入(向量/表示)。
以上就是多任务学习的答案选择和问题分类的模型训练的方法的一些说明。
在选择培训的损失函数时,本领域技术人员可以根据需求来选择,例如获取答案选择任务的损失函数、问题分类任务的损失函数和共享标签嵌入网络的损失函数,并将这三个损失函数相加得到总损失函数;根据总损失函数进行训练:
其中,分别为总损失函数、答案选择任务的损失函数、问题分类任务的损失函数和共享标签嵌入网络的损失函数。
本发明一些实施例中还公开了一种多任务学习的答案选择和问题分类的方法,请参照图8,该方法包括以下步骤:
步骤200:获取输入信息;所述输入信息包括待分类的问题,或者问题及对应的一组候选答案。
步骤210:将所述输入信息输入到多任务学习的答案选择和问题分类的模型中。
步骤210中所涉及的多任务学习的答案选择和问题分类的模型可以通过本文中任一实施例的多任务学习的答案选择和问题分类的模型训练的方法进行训练,在此不再赘述。
步骤220:多任务学习的答案选择和问题分类的模型输出相应信息。例如当所述输入信息为待分类的问题时,则所述多任务学习的答案选择和问题分类的模型输出问题的分类,当所述输入信息为问题及对应的一组候选答案,则多任务学习的答案选择和问题分类的模型输出从所述候选答案所选取的答案。
请参照图9,一些实施例中还公开了一种多任务学习的答案选择和问题分类的系统,包括存储器300和处理器310,其中存储器300用于存储程序;处理器310用于通过执行所述存储器300存储的程序以实现本文中任一实施例所述的多任务学习的答案选择和问题分类的方法。
请参照图10,一些实施例中还公开了一种多任务学习的答案选择和问题分类的模型训练的系统,包括存储器400和处理器410,其中存储器400用于存储程序;处理器410用于通过执行所述存储器400存储的程序以实现本文中任一实施例所述的多任务学习的答案选择和问题分类的模型训练的方法。
本发明一些实施例中提出一个基本的答案选择和问题分类多任务网络,实现两个任务之间的相互交互;设计一个共享任务网络来关注答案选择和问题分类任务之间的关键信息,并采用问题类别信息以改进细粒度的问题分类任务的表示学习;提出一个共享标签嵌入网络,为未标记的答案句子提供伪标签来以实现对答案选择的辅助预测,从而利用问题分类中所包含的有用信息来提高多任务学习的普适性。利用本发明可有效地提高答案选择及其辅助任务问题分类的性能,问题类别信息和伪标签也有助于提升两个任务的表示和增强任务间的关联。
本文参照了各种示范实施例进行说明。然而,本领域的技术人员将认识到,在不脱离本文范围的情况下,可以对示范性实施例做出改变和修正。例如,各种操作步骤以及用于执行操作步骤的组件,可以根据特定的应用或考虑与系统的操作相关联的任何数量的成本函数以不同的方式实现(例如一个或多个步骤可以被删除、修改或结合到其他步骤中)。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。另外,如本领域技术人员所理解的,本文的原理可以反映在计算机可读存储介质上的计算机程序产品中,该可读存储介质预装有计算机可读程序代码。任何有形的、非暂时性的计算机可读存储介质皆可被使用,包括磁存储设备(硬盘、软盘等)、光学存储设备(CD至ROM、DVD、Blu Ray盘等)、闪存和/或诸如此类。这些计算机程序指令可被加载到通用计算机、专用计算机或其他可编程数据处理设备上以形成机器,使得这些在计算机上或其他可编程数据处理装置上执行的指令可以生成实现指定的功能的装置。这些计算机程序指令也可以存储在计算机可读存储器中,该计算机可读存储器可以指示计算机或其他可编程数据处理设备以特定的方式运行,这样存储在计算机可读存储器中的指令就可以形成一件制造品,包括实现指定功能的实现装置。计算机程序指令也可以加载到计算机或其他可编程数据处理设备上,从而在计算机或其他可编程设备上执行一系列操作步骤以产生一个计算机实现的进程,使得在计算机或其他可编程设备上执行的指令可以提供用于实现指定功能的步骤。
虽然在各种实施例中已经示出了本文的原理,但是许多特别适用于特定环境和操作要求的结构、布置、比例、元件、材料和部件的修改可以在不脱离本披露的原则和范围内使用。以上修改和其他改变或修正将被包含在本文的范围之内。
前述具体说明已参照各种实施例进行了描述。然而,本领域技术人员将认识到,可以在不脱离本披露的范围的情况下进行各种修正和改变。因此,对于本披露的考虑将是说明性的而非限制性的意义上的,并且所有这些修改都将被包含在其范围内。同样,有关于各种实施例的优点、其他优点和问题的解决方案已如上所述。然而,益处、优点、问题的解决方案以及任何能产生这些的要素,或使其变得更明确的解决方案都不应被解释为关键的、必需的或必要的。本文中所用的术语“包括”和其任何其他变体,皆属于非排他性包含,这样包括要素列表的过程、方法、文章或设备不仅包括这些要素,还包括未明确列出的或不属于该过程、方法、系统、文章或设备的其他要素。此外,本文中所使用的术语“耦合”和其任何其他变体都是指物理连接、电连接、磁连接、光连接、通信连接、功能连接和/或任何其他连接。
具有本领域技术的人将认识到,在不脱离本发明的基本原理的情况下,可以对上述实施例的细节进行许多改变。因此,本发明的范围应仅由权利要求确定。
Claims (9)
1.一种多任务学习的答案选择和问题分类的方法,其特征在于,包括:
获取输入信息;所述输入信息包括待分类的问题,或者问题及对应的一组候选答案;
将所述输入信息输入到多任务学习的答案选择和问题分类的模型中;
当所述输入信息为待分类的问题时,则所述多任务学习的答案选择和问题分类的模型输出问题的分类,当所述输入信息为问题及对应的一组候选答案,则多任务学习的答案选择和问题分类的模型输出从所述候选答案所选取的答案;
其中,所述多任务学习的答案选择和问题分类的模型通过以下方式被训练:
获取训练集;所述训练集至少包括问题,问题的标签,问题对应的一组候选答案;
通过嵌入层将问题和候选答案分别转换为问题嵌入向量Wq和答案嵌入向量Wa;
将所述问题嵌入向量Wq和答案嵌入向量Wa分别输入到双向长短期记忆网络中,以分别得到问题的初始上下文句子表示Hq和答案的初始上下文句子表示Ha;
对于答案选择任务:
通过问题嵌入向量Wq、答案嵌入向量Wa和共享注意力矩阵Uq,计算关联性矩阵F;
对所述关联性矩阵F的行和列分别进行最大池化操作,以分别生成问题的基于上下文的注意力向量fq和答案的基于上下文的注意力向量fa;
根据问题的初始上下文句子表示Hq和问题的基于上下文的注意力向量fq计算问题的句子表示qout;根据答案的初始上下文句子表示Ha和答案的基于上下文的注意力向量fa计算答案的句子表示aout;
计算问题的句子表示qout和答案的句子表示aout之间的双线性相似性得分s(qout;aout),其中,Ms是要学习的相似度矩阵;
至少根据问题的句子表示qout、答案的句子表示aout和双线性相似性得分s(qout;aout)生成隐含层向量表示X;
将隐含层向量表示X输入到隐藏层;
对隐藏层的输出通过答案选择任务的softmax层进行二元分类;
对于问题分类任务:
将问题的初始上下文句子表示Hq作为注意力机制的输入,以得到权重Wc;
根据权重Wc和问题的初始上下文句子表示Hq计算得到问题的句子表示Q;
基于所述问题的句子表示Q,生成所述共享注意力矩阵Uq;
将所述问题的句子表示Q,输入到完全连接层;
对完全连接层的输出通过问题分类任务的softmax层进行二元分类;
对于标签,获取标签嵌入向量L,并计算标签嵌入向量L和隐含层向量表示X之间的相似度S;
将相似度S大于阈值的标签嵌入向量L输入到多层感知器中,得到伪标签,以更新所述训练集。
2.一种多任务学习的答案选择和问题分类的方法,其特征在于,包括:
获取输入信息;所述输入信息包括待分类的问题,或者问题及对应的一组候选答案;
将所述输入信息输入到多任务学习的答案选择和问题分类的模型中;
当所述输入信息为待分类的问题时,则所述多任务学习的答案选择和问题分类的模型输出问题的分类,当所述输入信息为问题及对应的一组候选答案,则多任务学习的答案选择和问题分类的模型输出从所述候选答案所选取的答案;
其中,所述多任务学习的答案选择和问题分类的模型通过以下方式被训练:
获取训练集;所述训练集至少包括问题,问题的标签,问题对应的一组候选答案;
通过嵌入层将问题和候选答案分别转换为问题嵌入向量Wq和答案嵌入向量Wa;
将所述问题嵌入向量Wq和答案嵌入向量Wa分别输入到双向长短期记忆网络中,以分别得到问题的初始上下文句子表示Hq和答案的初始上下文句子表示Ha;
对于答案选择任务:
通过问题嵌入向量Wq、答案嵌入向量Wa和注意力矩阵U,计算关联性矩阵F;
对所述关联性矩阵F的行和列分别进行最大池化操作,以分别生成问题的基于上下文的注意力向量fq和答案的基于上下文的注意力向量fa;
根据问题的初始上下文句子表示Hq和问题的基于上下文的注意力向量fq计算问题的句子表示qout;根据答案的初始上下文句子表示Ha和答案的基于上下文的注意力向量fa计算答案的句子表示aout;
计算问题的句子表示qout和答案的句子表示aout之间的双线性相似性得分s(qout;aout),其中,Ms是要学习的相似度矩阵;
至少根据问题的句子表示qout、答案的句子表示aout和双线性相似性得分s(qout;aout)生成隐含层向量表示X;
将隐含层向量表示X输入到隐藏层;
对隐藏层的输出通过答案选择任务的softmax层进行二元分类;
对于问题分类任务:
将问题的初始上下文句子表示Hq输入到完全连接层;
对完全连接层的输出通过问题分类任务的softmax层进行二元分类;
对于标签,获取标签嵌入向量L,并计算标签嵌入向量L和隐含层向量表示X之间的相似度S;
将相似度S大于阈值的标签嵌入向量L输入到多层感知器中,得到伪标签,以更新所述训练集。
3.一种多任务学习的答案选择和问题分类的模型训练的方法,其特征在于,包括:
获取训练集;所述训练集至少包括问题,问题的标签,问题对应的一组候选答案;
通过嵌入层将问题和候选答案分别转换为问题嵌入向量Wq和答案嵌入向量Wa;
将所述问题嵌入向量Wq和答案嵌入向量Wa分别输入到双向长短期记忆网络中,以分别得到问题的初始上下文句子表示Hq和答案的初始上下文句子表示Ha;
对于答案选择任务:
通过问题嵌入向量Wq、答案嵌入向量Wa和共享注意力矩阵Uq,计算关联性矩阵F;
对所述关联性矩阵F的行和列分别进行最大池化操作,以分别生成问题的基于上下文的注意力向量fq和答案的基于上下文的注意力向量fa;
根据问题的初始上下文句子表示Hq和问题的基于上下文的注意力向量fq计算问题的句子表示qout;根据答案的初始上下文句子表示Ha和答案的基于上下文的注意力向量fa计算答案的句子表示aout;
计算问题的句子表示qout和答案的句子表示aout之间的双线性相似性得分s(qout;aout),其中,Ms是要学习的相似度矩阵;
至少根据问题的句子表示qout、答案的句子表示aout和双线性相似性得分s(qout;aout)生成隐含层向量表示X;
将隐含层向量表示X输入到隐藏层;
对隐藏层的输出通过答案选择任务的softmax层进行二元分类;
对于问题分类任务:
将问题的初始上下文句子表示Hq作为注意力机制的输入,以得到权重Wc;
根据权重Wc和问题的初始上下文句子表示Hq计算得到问题的句子表示Q;
基于所述问题的句子表示Q,生成所述共享注意力矩阵Uq;
将所述问题的句子表示Q,输入到完全连接层;
对完全连接层的输出通过问题分类任务的softmax层进行二元分类;
对于标签,获取并将标签嵌入向量L输入到共享标签嵌入网络,以计算标签嵌入向量L和隐含层向量表示X之间的相似度S;
将相似度S大于阈值的标签嵌入向量L输入到共享标签嵌入网络的多层感知器中,得到伪标签,以更新所述训练集;
获取答案选择任务的损失函数、问题分类任务的损失函数和共享标签嵌入网络的损失函数,并将这三个损失函数相加得到总损失函数;根据总损失函数进行训练。
4.一种多任务学习的答案选择和问题分类的模型训练的方法,其特征在于,包括:
获取训练集;所述训练集至少包括问题,问题的标签,问题对应的一组候选答案;
通过嵌入层将问题和候选答案分别转换为问题嵌入向量Wq和答案嵌入向量Wa;
将所述问题嵌入向量Wq和答案嵌入向量Wa分别输入到双向长短期记忆网络中,以分别得到问题的初始上下文句子表示Hq和答案的初始上下文句子表示Ha;
对于答案选择任务:
通过问题嵌入向量Wq、答案嵌入向量Wa和注意力矩阵U,计算关联性矩阵F;
对所述关联性矩阵F的行和列分别进行最大池化操作,以分别生成问题的基于上下文的注意力向量fq和答案的基于上下文的注意力向量fa;
根据问题的初始上下文句子表示Hq和问题的基于上下文的注意力向量fq计算问题的句子表示qout;根据答案的初始上下文句子表示Ha和答案的基于上下文的注意力向量fa计算答案的句子表示aout;
计算问题的句子表示qout和答案的句子表示aout之间的双线性相似性得分s(qout;aout),其中,Ms是要学习的相似度矩阵;
至少根据问题的句子表示qout、答案的句子表示aout和双线性相似性得分s(qout;aout)生成隐含层向量表示X;
将隐含层向量表示X输入到隐藏层;
对隐藏层的输出通过答案选择任务的softmax层进行二元分类;
对于问题分类任务:
将问题的初始上下文句子表示Hq输入到完全连接层;
对完全连接层的输出通过问题分类任务的softmax层进行二元分类;
对于标签,获取标签嵌入向量L,并计算标签嵌入向量L和隐含层向量表示X之间的相似度S;
将相似度S大于阈值的标签嵌入向量L输入到多层感知器中,得到伪标签,以更新所述训练集;
获取答案选择任务的损失函数、问题分类任务的损失函数和共享标签嵌入网络的损失函数,并将这三个损失函数相加得到总损失函数;根据总损失函数进行训练。
5.如权利要求1至4中任一项所述的方法,其特征在于,所述伪标签包括未被标签的问题的伪标签,和/或,答案的伪标签。
6.如权利要求1至4中任一项所述的方法,其特征在于,所述至少根据问题的句子表示qout、答案的句子表示aout和双线性相似性得分s(qout;aout)生成隐含层向量表示X,包括:
根据问题的句子表示qout、问题的伪标签、答案的句子表示aout、答案的伪标签和双线性相似性得分s(qout;aout)生成隐含层向量表示X。
7.一种多任务学习的答案选择和问题分类的系统,其特征在于,包括:
存储器,用于存储程序;
处理器,用于通过执行所述存储器存储的程序以实现如权利要求1、2、5或6所述的方法。
8.一种多任务学习的答案选择和问题分类的模型训练的系统,其特征在于,包括:
存储器,用于存储程序;
处理器,用于通过执行所述存储器存储的程序以实现如权利要求3至6中任一项所述的方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有程序,所述程序能够被处理器执行以实现如权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110532039.8A CN115438156B (zh) | 2021-05-17 | 2021-05-17 | 一种多任务学习的答案选择和问题分类的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110532039.8A CN115438156B (zh) | 2021-05-17 | 2021-05-17 | 一种多任务学习的答案选择和问题分类的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115438156A CN115438156A (zh) | 2022-12-06 |
CN115438156B true CN115438156B (zh) | 2024-02-02 |
Family
ID=84239784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110532039.8A Active CN115438156B (zh) | 2021-05-17 | 2021-05-17 | 一种多任务学习的答案选择和问题分类的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115438156B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108647233A (zh) * | 2018-04-02 | 2018-10-12 | 北京大学深圳研究生院 | 一种用于问答系统的答案排序方法 |
CN109558477A (zh) * | 2018-10-23 | 2019-04-02 | 深圳先进技术研究院 | 一种基于多任务学习的社区问答系统、方法及电子设备 |
CN109885671A (zh) * | 2019-02-28 | 2019-06-14 | 重庆邮电大学 | 基于多任务学习的问答方法 |
CN111488438A (zh) * | 2020-02-21 | 2020-08-04 | 天津大学 | 一种问答匹配注意力处理方法、计算机设备及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10832166B2 (en) * | 2016-12-20 | 2020-11-10 | Conduent Business Services, Llc | Method and system for text classification based on learning of transferable feature representations from a source domain |
US11501076B2 (en) * | 2018-02-09 | 2022-11-15 | Salesforce.Com, Inc. | Multitask learning as question answering |
US11328125B2 (en) * | 2019-05-14 | 2022-05-10 | Korea University Research And Business Foundation | Method and server for text classification using multi-task learning |
US11113479B2 (en) * | 2019-09-12 | 2021-09-07 | Adobe Inc. | Utilizing a gated self-attention memory network model for predicting a candidate answer match to a query |
US11620515B2 (en) * | 2019-11-07 | 2023-04-04 | Salesforce.Com, Inc. | Multi-task knowledge distillation for language model |
-
2021
- 2021-05-17 CN CN202110532039.8A patent/CN115438156B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108647233A (zh) * | 2018-04-02 | 2018-10-12 | 北京大学深圳研究生院 | 一种用于问答系统的答案排序方法 |
CN109558477A (zh) * | 2018-10-23 | 2019-04-02 | 深圳先进技术研究院 | 一种基于多任务学习的社区问答系统、方法及电子设备 |
CN109885671A (zh) * | 2019-02-28 | 2019-06-14 | 重庆邮电大学 | 基于多任务学习的问答方法 |
CN111488438A (zh) * | 2020-02-21 | 2020-08-04 | 天津大学 | 一种问答匹配注意力处理方法、计算机设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
Multitask Learning and Reinforcement Learning for Personalized Dialog Generation: An Empirical Study;Yang Min等;《IEEE》;全文 * |
T-Reader:一种基于自注意力机制的多任务深度阅读理解模型;郑玉昆等;《中文信息学报》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115438156A (zh) | 2022-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111783462B (zh) | 基于双神经网络融合的中文命名实体识别模型及方法 | |
JP7068296B2 (ja) | 複数の言語タスク階層を通じてデータを処理するための深層ニューラルネットワークモデル | |
Le et al. | Application of a Hybrid Bi-LSTM-CRF model to the task of Russian Named Entity Recognition | |
Firdaus et al. | A deep multi-task model for dialogue act classification, intent detection and slot filling | |
Abro et al. | Multi-turn intent determination and slot filling with neural networks and regular expressions | |
CN114169330A (zh) | 融合时序卷积与Transformer编码器的中文命名实体识别方法 | |
Viji et al. | A hybrid approach of Weighted Fine-Tuned BERT extraction with deep Siamese Bi–LSTM model for semantic text similarity identification | |
CN111241807B (zh) | 一种基于知识引导注意力的机器阅读理解方法 | |
CN113065358B (zh) | 面向银行咨询服务基于多粒度对齐的文本对语义匹配方法 | |
CN110196967A (zh) | 基于深度转换架构的序列标注方法和装置 | |
Pramanik et al. | Text normalization using memory augmented neural networks | |
CN114881014A (zh) | 实体别名关系获取方法、训练方法、装置及存储介质 | |
CN113743099A (zh) | 基于自注意力机制方面术语提取系统、方法、介质、终端 | |
Abro et al. | Joint intent detection and slot filling using weighted finite state transducer and BERT | |
Jackson et al. | From natural language to simulations: Applying gpt-3 codex to automate simulation modeling of logistics systems | |
CN113869324A (zh) | 一种基于多模态融合的视频常识性知识推理实现方法 | |
CN115438156B (zh) | 一种多任务学习的答案选择和问题分类的方法及系统 | |
CN116681078A (zh) | 一种基于强化学习的关键词生成方法 | |
CN115964497A (zh) | 一种融合注意力机制与卷积神经网络的事件抽取方法 | |
CN116562291A (zh) | 一种基于边界检测的中文嵌套命名实体识别方法 | |
CN115759262A (zh) | 基于知识感知注意力网络的视觉常识推理方法及系统 | |
CN114911940A (zh) | 文本情感识别方法及装置、电子设备、存储介质 | |
Song | Distilling knowledge from user information for document level sentiment classification | |
Olaoye | Deep Learning Approaches for Natural Language Processing: Advancements and Challenges | |
Tho | N/A Modern Approaches in Natural Language Processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |