CN116414962A - 一种基于注意力机制的问答匹配方法 - Google Patents
一种基于注意力机制的问答匹配方法 Download PDFInfo
- Publication number
- CN116414962A CN116414962A CN202310380121.2A CN202310380121A CN116414962A CN 116414962 A CN116414962 A CN 116414962A CN 202310380121 A CN202310380121 A CN 202310380121A CN 116414962 A CN116414962 A CN 116414962A
- Authority
- CN
- China
- Prior art keywords
- question
- answer
- attention
- word
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000007246 mechanism Effects 0.000 title claims abstract description 14
- 230000002776 aggregation Effects 0.000 claims abstract description 20
- 238000004220 aggregation Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 10
- 239000013598 vector Substances 0.000 claims description 68
- 239000011159 matrix material Substances 0.000 claims description 55
- 230000006870 function Effects 0.000 claims description 25
- 238000013528 artificial neural network Methods 0.000 claims description 24
- 230000003993 interaction Effects 0.000 claims description 22
- 238000011176 pooling Methods 0.000 claims description 14
- 230000002452 interceptive effect Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 6
- 238000003491 array Methods 0.000 claims description 6
- 238000004140 cleaning Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 230000009467 reduction Effects 0.000 claims description 5
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims 2
- 230000007547 defect Effects 0.000 abstract description 4
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 239000010410 layer Substances 0.000 description 16
- 230000004931 aggregating effect Effects 0.000 description 2
- 230000009849 deactivation Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明属于自然语言处理技术领域,公开了一种基于注意力机制的问答匹配方法,上下文编码层将问题与答案句编码为词向量,注意力层从多角度进行信息提取,自注意力网络挖掘各文本的深层语义信息,交互注意力网络计算问题和答案间的关联特征,池化层对特征句子进行降维,聚合层聚合问答特征信息,预测层计算最终的问答匹配得分。本发明的问答匹配方法采用比较聚合框架,利用针对中文的预训练语言模型BERT‑base有效解决长距离依赖、一词多义等问题,结合多角度注意力,加强了问题和答案文本信息的关注,弥补了传统注意力不能有效获取问题与答案之间深层语义关系的缺陷,提高问答匹配的准确性。
Description
技术领域
本发明属于自然语言处理技术领域,具体的说是涉及一种基于注意力机制的问答匹配方法。
背景技术
问答系统一直以来都是自然语言处理技术领域关注的焦点,其主要目的是处理用户的查询请求,从现有的知识检索库中寻找与问题最接近的答案,并及时反馈给用户。问答匹配是问答系统的核心模块,如何加深对文本语义的理解特别是在中文语境下,有效提高问题与答案的匹配准确性,是当前亟待解决的重要问题。
问答匹配方法主要分为基于特征扩展的方法和基于深度学习的方法。基于特征扩展的方法利用人工构造复杂的规则特征,同时借助机器学习分类器等分类方法得到两者的匹配关系,这类方法依赖人工设计,并且模型不具有泛化能力,只能适应特定的数据集。
基于深度学习的方法主要包括基于表示和基于交互的文本匹配模型。基于表示的文本匹配模型通常使用孪生网络结构,使用神经网络提取句子的特征,对问句和答案进行独立编码,然后进一步计算问题和答案的匹配度。基于交互的文本匹配模型通常使用匹配聚合结构,先将问题和答案的较小单元进行匹配,然后将匹配结果聚合,再进一步计算两者的匹配分数。在这类方法模型中,词嵌入表示大多没有考虑到上下文,对文本的语义信息利用不充分,基于表示的匹配模型容易忽略问题和答案之间关联特征的提取,无法挖掘问题与答案之间复杂的语义关系,而基于交互的匹配模型,大多在单一层面进行交互,通常无法有效聚合局部与全局匹配信息。
随着问答系统对理解文本语义的要求越来越高,传统的问答匹配模型有着较大的缺陷。传统方法中使用的词向量编码技术如One-hot、Word2Vec等,存在维度过高、长距离依赖、一词多义等问题,同时由于中文语言的复杂性,传统编码技术不能有效利用文本全局的语义信息,并且模型通常对问题和答案进行相对独立的文本建模和特征提取,忽略两者之间的关联,无法捕捉到其复杂的语义关系。
发明内容
为了解决上述问题,本发明提供了一种基于注意力机制的问答匹配方法,弥补了传统注意力不能有效获取问题与答案之间深层语义关系的缺陷,提高问答匹配的准确性。
为了达到上述目的,本发明是通过以下技术方案实现的:
本发明是一种基于注意力机制的问答匹配方法,包括如下步骤:
步骤S1、采集中文问答数据,构建问答对语料库,对语料库进行数据预处理,并对不同的问题类型进行标注,形成训练所需数据集;
步骤S2、将步骤S1所得预处理后的问句输入到上下文编码层,利用中文预训练语言模型BERT-base,通过BERT-base的位置嵌入、段嵌入和字嵌入,将其向量表示组合并编码后,得到问句带有上下文信息的词向量表示;同时通过BERT-base的位置嵌入、段嵌入和字嵌入,将其向量表示组合并编码后,得到答案句带有上下文信息的词向量表示;
步骤S3、将步骤S2得到的问句和答案句词向量表示分别输入到自注意力网络,计算问句和答案句中不同单词之间的语义关系,获取局部重要特征;
步骤S4、将步骤S2得到的问句和答案句词向量表示输入到交互注意力网络,获取问句和答案句之间的交互特征,捕捉问句和答案文本之间的语义关联;
步骤S5、将步骤S3和步骤S4得到的输出分别输入到前馈神经网络进行聚合,获得问句和答案句的聚合特征矩阵;
步骤S6、将步骤S5得到的聚合特征矩阵输入到池化层,进行降维处理,采用平均池化得到聚合特征向量;
步骤S7、将步骤S6的输出进一步输入到预测层,采用余弦相似度计算问句与答案的匹配分数,同时使用最小化均方差来训练模型。
本发明的进一步改进在于:步骤S1中的具体数据处理过程为:采集中文问答数据,构建问答对语料库,使用jieba工具对语料库进行数据清洗、分词和去停用词,并对不同的问题类型进行标注。其中,数据清洗主要包括去除特殊符号、去除多余空白和繁体转换为简体;分词是将问题序列和答案序列进行切分;去停用词是利用哈工大中文停用词表去除文本中经常出现但没有实际意义的词语
本发明的进一步改进在于:步骤S2中利用针对中文表示的BERT-base预训练语言模型进行上下文编码。通过BERT-base的位置嵌入、段嵌入和字嵌入,将其向量表示组合并编码后,得到问句带有上下文信息的词向量表示EQ;同时通过BERT-base的位置嵌入、段嵌入和字嵌入,将其向量表示组合并编码后,得到答案句带有上下文信息的词向量表示EA,计算公式如下:
其中,Otok、Oseg、Opos分别代表字嵌入、段嵌入和位置嵌入的向量表示,W为对应权重,H为输出维度,E表示最终输出的词向量表示。
本发明的进一步改进在于:步骤S3的自注意力网络分别提取问句和答案句的主要特征,具体采用Transformer编码器,主要包括多头自注意力机制和前馈神经网络,由于嵌入层BERT中已有位置编码,因此去除了其位置编码部分。S3的具体步骤为:
S3-1:确定查询向量参数矩阵WQ、键向量参数矩阵WK、值向量参数矩阵WV;
S3-2:计算查询向量Q、键向量K、值向量V:
Q=EWQ,K=EWK,V=EWV
S3-3:计算自注意力:
其中:dk表示键向量K的维度,KT表示键向量K的转置,Softmax()为归一化函数。
S3-4:计算多头自注意力,将多个自注意力矩阵进行拼接,并用附加的权重矩阵与其相乘进行压缩,计算公式为:
Z=MultiHead(Q,K,V)=Concat(head1,head2,...,headk)W0
headi=Attention(QWi Q,KWi K,VWi V)
其中,Z为多头自注意力矩阵,headi表示第i个自注意力矩阵,W0为附加权重矩阵,Concat()表示拼接函数。
S3-5:得到多头自注意力表示ZQ、ZA后,将其输入到前馈神经网络中,获得最终输出向量TQ、TA。
本发明的进一步改进在于:步骤S4利用交互注意力网络计算问句和答案句的交互信息,具体步骤为:
S4-1:计算问句和答案句的交互矩阵M,公式为:
其中,EQ、EA为问句和答案句词嵌入矩阵。
S4-2:对交互矩阵M中的每一行进行归一化,作为答案句的每一个词的注意力权重,公式为:
MQ=Softmax(M)EA
S4-3:对交互矩阵M中的每一列进行归一化,作为问句的每一个词的注意力权重,公式为:
MA=Softmax(M)EQ
其中,Softmax()为归一化函数,MQ、MA为交互特征矩阵,包含了问句和答案句在词级别的交互信息。
本发明的进一步改进在于:步骤S5主要由三个前馈神经网络组成,一个前馈神经网络用于聚合信息表示,采用tanh激活函数;另外两个前馈神经网络为保证将输出值限制在0-1之间,均采用sigmod激活函数。
S5的具体步骤为:
S5-1:对矩阵进行拼接,计算公式为:
S5-2:将拼接函数输入到三个前馈神经网络中:
σ=tanh(αW1+b1)
β1=sigmod(αW2+b2)
β1=sigmod(αW3+b3)
S5-3:得到最终的聚合特征矩阵:
作为本发明的进一步改进,步骤S6具体为:平均池化操作是选取池化窗口的平均值,对聚合特征矩阵进行降维处理,获得聚合特征向量,公式表示为:
其中,R为聚合特征向量,ci为聚合特征矩阵C中第i个特征向量。
本发明的进一步改进在于:步骤S7中预测层使用余弦相似度函数计算问句和答案句的匹配得分,表示为:
score=cosine(RQ,RA)
本发明的进一步改进在于:本发明用最小化均方差来训练模型,损失函数为:
其中,n为样本总数,yi表示真实的问答匹配值,y′i表示预测的问答匹配值。
本发明的有益效果是:本发明的问答匹配方法采用比较聚合框架,通过BERT-base中文预训练语言模型进行问答文本的上下文编码,获得问答文本带有上下文信息的词向量表示,针对中文语言的复杂性,有效解决长距离依赖、一词多义等问题;注意力层从多角度加强了对问题和答案文本信息的关注,自注意力网络挖掘各文本的深层语义信息,交互注意力网络获取问题和答案间关联特征的权重信息;同时前馈神经网络有效聚合特征信息,提高问题与答案的匹配准确性。
附图说明
图1是本发明的流程示意图。
图2是本发明的模型结构图。
具体实施方式
以下将以图式揭露本发明的实施方式,为明确说明起见,许多实务上的细节将在以下叙述中一并说明。然而,应了解到,这些实务上的细节不应用以限制本发明。也就是说,在本发明的部分实施方式中,这些实务上的细节是非必要的。
本发明提供了一种基于注意力机制的问答匹配方法,通过BERT-base中文预训练语言模型获得带有上下文信息的词嵌入矩阵,针对中文语言的复杂性,解决长距离依赖、一词多义等问题。自注意力网络和交互注意力网络从多个角度加强了问题和答案文本信息的关注,同时前馈神经网络有效聚合特征信息,提高问题与答案的匹配准确性。
问答匹配模型主要包括上下文编码层、注意力层、聚合层、池化层和预测层。具体包括如下步骤:
步骤S1:采集中文问答数据,构建问答对语料库,使用jieba工具对语料库进行数据清洗、分词和去停用词,并对不同的问题类型进行标注。其中,数据清洗主要包括去除特殊符号、去除多余空白和繁体转换为简体;分词是将问题序列和答案序列进行切分;去停用词是利用哈工大中文停用词表去除文本中经常出现但没有实际意义的词语。
步骤S2:将步骤S1所得预处理后的问句输入到上下文编码层,利用中文预训练语言模型BERT-base,通过BERT-base的位置嵌入、段嵌入和字嵌入,将其向量组合并编码后,得到问句带有上下文信息的词向量表示EQ;同时通过BERT-base的位置嵌入、段嵌入和字嵌入,将其向量表示组合并编码后,得到答案句带有上下文信息的词向量表示EA,计算公式如下:
其中,Otok、Oseg、Opos分别代表字嵌入、段嵌入和位置嵌入的向量表示,W为对应权重,H为输出维度,E表示最终输出的词向量表示。
步骤S3:将步骤S2得到的问句和答案句词向量表示分别输入到自注意力网络,计算问句和答案句中不同单词之间的语义关系,获取重要特征。自注意力网络主要采用Transformer编码器,主要包括多头自注意力机制和前馈神经网络,由于嵌入层BERT中已有位置编码,因此去除了其位置编码部分。自注意力网络的具体步骤为:
S3-1:确定查询向量参数矩阵WQ、键向量参数矩阵WK、值向量参数矩阵WV;
S3-2:计算查询向量Q、键向量K、值向量V:
Q=EWQ,K=EWK,V=EWV
S3-3:计算自注意力:
其中,dk表示键向量K的维度,KT表示键向量K的转置,Softmax()为归一化函数。
S3-4:计算多头自注意力,将多个自注意力矩阵进行拼接,并用附加的权重矩阵与其相乘进行压缩,计算公式为:
Z=MultiHead(Q,K,V)=Concat(head1,head2,...,headk)W0
headi=Attention(QWi Q,KWi K,VWi V)
其中,Z为多头自注意力矩阵,headi表示第i个自注意力矩阵,W0为附加权重矩阵,Concat()表示拼接函数。
S3-5:得到多头自注意力表示ZQ、ZA后,将其输入到前馈神经网络中,获得最终输出向量TQ、TA。
步骤S4:将步骤S2得到的问句和答案句词嵌入矩阵EQ、EA输入到交互注意力网络,获取问句和答案句之间的交互特征。交互注意力网络的具体步骤为:
S4-1:计算问句和答案句的交互矩阵M:
其中,EQ、EA为问句和答案句词嵌入矩阵。
S4-2:对交互矩阵M中的每一行进行归一化,作为答案句的每一个词的注意力权重,计算公式为:
MQ=Softmax(M)EA
S4-3:对交互矩阵M中的每一列进行归一化,作为问句的每一个词的注意力权重,计算公式为:
MA=Softmax(M)EQ
其中,Softmax()为归一化函数,MQ、MA为交互特征矩阵,包含了问句和答案句在词级别的交互信息。
步骤S5:将步骤S3和步骤S4得到的输出分别输入到前馈神经网络进行聚合,获得问句和答案句的聚合特征矩阵CQ、CA。聚合层由三个前馈神经网络组成,一个前馈神经网络用于聚合信息表示,采用tanh激活函数;另外两个前馈神经网络为保证将输出值限制在0-1之间,均采用sigmod激活函数。具体步骤为:
S5-1:对矩阵进行拼接,计算公式为:
S5-2:将拼接矩阵输入到三个前馈神经网络中:
σ=tanh(αW1+b1)
β1=sigmod(αW2+b2)
β1=sigmod(αW3+b3)
S5-3:得到最终的聚合特征矩阵:
步骤S6:将步骤S5得到的聚合特征矩阵输入到池化层,进行降维处理,采用平均池化得到聚合特征向量,池化操作主要分为最大池化和平均池化,本发明采用平均池化,即选取池化窗口的平均值,可以表示为:
其中,R为聚合特征向量,ci为聚合特征矩阵C中第i个特征向量。
步骤S7:将步骤S6的输出输入到预测层得到问句与答案的匹配分数,具体采用余弦相似度函数,表示为:
score=cosine(RQ,RA)
同时采用最小化均方差来训练模型,损失函数为:
其中,n为样本总数,yi表示真实的问答匹配值,y′i表示预测的问答匹配。
本发明弥补了传统注意力不能有效获取问题与答案之间深层语义关系的缺陷,提高问答匹配的准确性。
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于注意力机制的问答匹配方法,所述问答匹配方法包括问答匹配模型,所述问答匹配模型包括上下文编码层、注意力层、聚合层、池化层和预测层,其特征在于:所述问答匹配方法具体包括如下步骤:
步骤1、采集中文问答数据,构建问答对语料库,对问答对语料库进行数据预处理,并对不同的问题类型进行标注,形成训练所需数据集;
步骤2、将步骤1所得预处理后的问句输入到所述上下文编码层,利用中文预训练语言模型BERT-base,通过BERT-base的位置嵌入、段嵌入和字嵌入,将其向量表示组合并编码后,得到问句带有上下文信息的词向量表示;同时通过BERT-base的位置嵌入、段嵌入和字嵌入,将其向量表示组合并编码后,得到答案句带有上下文信息的词向量表示;
步骤3、将步骤2得到的问句和答案句词向量表示分别输入到自注意力网络,计算问句和答案句中不同单词之间的语义关系,获取局部重要特征;
步骤4、将步骤2得到的问句和答案句词向量表示输入到交互注意力网络,获取问句和答案句之间的交互特征,捕捉问句和答案文本之间的语义关联;
步骤5、将步骤3和步骤4得到的输出分别输入到聚合层进行聚合,获得问句和答案句的聚合特征矩阵;
步骤6、将步骤5得到的聚合特征矩阵输入到池化层,采用平均池化进行降维处理,得到聚合特征向量;
步骤7、将步骤6的输出输入到预测层,采用余弦相似度计算问句与答案的匹配分数,同时使用最小化均方差来训练模型。
2.根据权利要求1所述的一种基于注意力机制的问答匹配方法,其特征在于:步骤3的自注意力网络采用Transformer编码器,分别提取问句和答案句的主要特征,包括多头自注意力机制和前馈神经网络,Transformer编码器首先使用多头自注意力机制分别处理问句和答案句的词嵌入矩阵,得到每个词的自注意力权重表示,然后通过前馈神经网络获得最终输出。
3.根据权利要求2所述的一种基于注意力机制的问答匹配方法,其特征在于:所述自注意力网络的步骤具体为:
步骤3-1:确定查询向量参数矩阵WQ、键向量参数矩阵WK、值向量参数矩阵WV;
步骤3-2:计算查询向量Q、键向量K、值向量V:
Q=EWQ,K=EWK,V=EWV
步骤3-3:计算自注意力:
其中dk为键向量K的维度,KT为键向量K的转置,Softmax()为归一化函数;
步骤3-4:计算多头自注意力,将多个自注意力矩阵进行拼接,并用附加的权重矩阵与其相乘进行压缩,计算公式为:
Z=MultiHead(Q,K,V)=Concat(head1,head2,...,headk)W0
headi=Attention(QWi Q,KWi K,VWi V)
其中,Z为多头自注意力矩阵,headi表示第i个自注意力矩阵,W0为附加权重矩阵,Concat()表示拼接函数;
步骤3-5:得到多头自注意力表示后,将其输入到前馈神经网络中,获得最终输出向量。
5.根据权利要求4所述的一种基于注意力机制的问答匹配方法,其特征在于:步骤5的聚合层主要由三个前馈神经网络组成,一个前馈神经网络用于聚合信息表示,采用tanh激活函数,另外两个前馈神经网络为保证将输出值限制在0-1之间,均采用sigmod激活函数。
8.根据权利要求7所述的一种基于注意力机制的问答匹配方法,其特征在于:步骤7预测层使用余弦相似度函数计算问句和答案句的匹配得分,表示为:
score=cosine(RQ,RA)。
10.根据权利要求1-9任一项所述的一种基于注意力机制的问答匹配方法,其特征在于:步骤1的数据预处理过程为:采集中文问答数据,构建问答对语料库,使用jieba工具对语料库进行数据清洗、分词和去停用词,并对不同的问题类型进行标注,其中,数据清洗主要包括去除特殊符号、去除多余空白和繁体转换为简体;分词是将问题序列和答案序列进行切分;去停用词是利用哈工大中文停用词表去除文本中经常出现但没有实际意义的词语。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310380121.2A CN116414962A (zh) | 2023-04-11 | 2023-04-11 | 一种基于注意力机制的问答匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310380121.2A CN116414962A (zh) | 2023-04-11 | 2023-04-11 | 一种基于注意力机制的问答匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116414962A true CN116414962A (zh) | 2023-07-11 |
Family
ID=87049234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310380121.2A Pending CN116414962A (zh) | 2023-04-11 | 2023-04-11 | 一种基于注意力机制的问答匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116414962A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116610791A (zh) * | 2023-07-20 | 2023-08-18 | 中国人民解放军国防科技大学 | 针对结构化信息的基于语义分析的问答方法、系统及设备 |
CN117556027A (zh) * | 2024-01-12 | 2024-02-13 | 一站发展(北京)云计算科技有限公司 | 基于数字人技术的智能交互系统及方法 |
CN117725210A (zh) * | 2023-11-16 | 2024-03-19 | 南京审计大学 | 一种面向社会化问答平台的恶意用户检测方法 |
CN118520882A (zh) * | 2024-07-22 | 2024-08-20 | 智慧眼科技股份有限公司 | 一种医学长文本问答方法、装置、电子设备及存储介质 |
-
2023
- 2023-04-11 CN CN202310380121.2A patent/CN116414962A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116610791A (zh) * | 2023-07-20 | 2023-08-18 | 中国人民解放军国防科技大学 | 针对结构化信息的基于语义分析的问答方法、系统及设备 |
CN116610791B (zh) * | 2023-07-20 | 2023-09-29 | 中国人民解放军国防科技大学 | 针对结构化信息的基于语义分析的问答方法、系统及设备 |
CN117725210A (zh) * | 2023-11-16 | 2024-03-19 | 南京审计大学 | 一种面向社会化问答平台的恶意用户检测方法 |
CN117556027A (zh) * | 2024-01-12 | 2024-02-13 | 一站发展(北京)云计算科技有限公司 | 基于数字人技术的智能交互系统及方法 |
CN117556027B (zh) * | 2024-01-12 | 2024-03-26 | 一站发展(北京)云计算科技有限公司 | 基于数字人技术的智能交互系统及方法 |
CN118520882A (zh) * | 2024-07-22 | 2024-08-20 | 智慧眼科技股份有限公司 | 一种医学长文本问答方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116414962A (zh) | 一种基于注意力机制的问答匹配方法 | |
WO2021031480A1 (zh) | 文本生成方法和装置 | |
CN112100351A (zh) | 一种通过问题生成数据集构建智能问答系统的方法及设备 | |
CN107480132A (zh) | 一种基于图像内容的古诗词生成方法 | |
CN113297364B (zh) | 一种面向对话系统中的自然语言理解方法及装置 | |
CN111723547A (zh) | 一种基于预训练语言模型的文本自动摘要方法 | |
CN110134946A (zh) | 一种针对复杂数据的机器阅读理解方法 | |
CN114549850B (zh) | 一种解决模态缺失问题的多模态图像美学质量评价方法 | |
CN112232053B (zh) | 一种基于多关键词对匹配的文本相似度计算系统、方法、及存储介质 | |
CN110334184A (zh) | 基于机器阅读理解的智能问答系统 | |
CN111428443B (zh) | 一种基于实体上下文语义交互的实体链接方法 | |
CN112256847B (zh) | 融合事实文本的知识库问答方法 | |
CN113901831B (zh) | 基于预训练语言模型及双向交互注意力的平行句对抽取方法 | |
CN111291188A (zh) | 一种智能信息抽取方法及系统 | |
CN113609326B (zh) | 基于外部知识和目标间关系的图像描述生成方法 | |
CN114595306B (zh) | 基于距离感知自注意力机制和多角度建模的文本相似度计算系统及方法 | |
CN113704437A (zh) | 一种融合多头注意力机制和相对位置编码的知识库问答方法 | |
CN114627162A (zh) | 一种基于视频上下文信息融合的多模态密集视频描述方法 | |
CN115017279B (zh) | 基于文本语义匹配的Stack Overflow相关问答检索方法 | |
CN115033659A (zh) | 基于深度学习的子句级自动摘要模型系统及摘要生成方法 | |
Li et al. | Combining local and global features into a Siamese network for sentence similarity | |
CN116258147A (zh) | 一种基于异构图卷积的多模态评论情感分析方法及系统 | |
CN114648024A (zh) | 基于多类型词信息引导的汉越跨语言摘要生成方法 | |
CN112966518B (zh) | 一种面向大规模在线学习平台的优质答案识别方法 | |
CN117932066A (zh) | 一种基于预训练的“提取-生成”式答案生成模型及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |