CN115422362A - 一种基于人工智能的文本匹配方法 - Google Patents

一种基于人工智能的文本匹配方法 Download PDF

Info

Publication number
CN115422362A
CN115422362A CN202211226353.4A CN202211226353A CN115422362A CN 115422362 A CN115422362 A CN 115422362A CN 202211226353 A CN202211226353 A CN 202211226353A CN 115422362 A CN115422362 A CN 115422362A
Authority
CN
China
Prior art keywords
text
representing
dimension
layer
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211226353.4A
Other languages
English (en)
Other versions
CN115422362B (zh
Inventor
王进
陈怡雯
朴昌浩
刘彬
杜雨露
邓欣
孙开伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yami Technology Guangzhou Co ltd
Zhengzhou Digital Intelligence Technology Research Institute Co ltd
Zhengzhou Shuzhi Technology Group Co ltd
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202211226353.4A priority Critical patent/CN115422362B/zh
Publication of CN115422362A publication Critical patent/CN115422362A/zh
Application granted granted Critical
Publication of CN115422362B publication Critical patent/CN115422362B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明属于自然语言处理技术领域,具体涉及一种基于人工智能的文本匹配方法,包括:获取问题匹配的文本,其中包含用户的输入问题和标准问题,对数据集S进行预处理;构建BERT_MF模型包括BERT模型层、知识增强层、精确匹配层、相似度匹配层;BERT_MF模型利用拼音、词性以及句法知识,使用精确匹配层提取局部细粒度表征和全局细粒度表征;采用横向拼接的方式对多粒度特征进行融合,经过Softmax函数进行文本匹配。本发明不仅使用了预训练模型ERNIE‑Gram进行了微调,能够得到文本匹配程度,同时充分使用预训练模型的语义表征和词语表征,可以对文本的局部信息和全局信息进行辨识,进而细粒度的区分文本语义上的匹配。

Description

一种基于人工智能的文本匹配方法
技术领域
本发明属于自然语言处理领域,具体涉及一种基于人工智能的文本匹配方法。
背景技术
近年来,随着互联网、计算机技术的快速迭代,在网络中产生了海量以文本为主的数据。虽然在自然语言处理领域,利用预训练模型来解决文本匹配问题,已经在一定程度上取得了与人类相仿甚至超越人类的效果,但在处理真实应用场景中的问题时仍面临鲁棒性不足等问题。当存在微小的字面变化时,模型将无法做出正确判断,在影响产品体验的同时也会造成相应的经济损失。如:“黑色裤子配什么上衣-黑色上衣配什么裤子”,真实标签应该为0,模型预测则为1。
如何构建文本匹配模型对文本做出快速准确的分类是亟待解决的研究课题,同时也具有很高的商业价值,在信息检索、智能客服等领域发挥着重要作用。
发明内容
为解决上述技术问题,本发明提出一种基于人工智能的文本匹配方法,包括以下步骤:
S1:获取问题匹配的文本,包括用户的输入问题和标准问题,对获取的文本进行预处理,得到文本数据集;
S2:建立BERT_MF模型,所述BERT_MF模型包括:BERT模型层、知识增强层、精确匹配层、相似度匹配层;
S3:BERT模型层将文本数据集中的用户的输入问题和标准问题组成句子对,将组成的句子对作为BERT模型的输入序列进行语言表征提取,得到语义表征hcls和词语表征hlast
S4:知识增强层提取文本的拼音、词性、句法特征,并将拼音、词性、句法特征融入词语表征hlast,得到知识增强后的词语特征hpower
S5:通过精确匹配层对知识增强后的词语特征hpower进行交互,得到全局的细粒度特征hrnn、局部的细粒度特征hcnn
S6:将语义表征hcls、全局的细粒度特征hrnn、局部的细粒度特征hcnn输入相似度匹配层,采用横向拼接的方式对多粒度特征进行融合,并经过Softmax函数进行文本匹配,得到用户的输入问题与标准问题之间的匹配程度,实现文本匹配分类。
优选的,对获取的文本进行预处理,具体包括:
对于文本中的外文字符,根据五十音图等外文字母表剔除外文字符;
对于文本中不规范的阿拉伯数字,通过构建数字词典,将文本中的阿拉伯数字规范化为标准形式;
对于文本中的繁体字,通过简体繁体字转换表,将文本中的繁体字转为简体字;
对于文本中未在BERT模型词表中出现的字,用[UNK]符号替换该字;
对于文本中的颜文字,构建颜文字库,过滤掉文本中的颜文字。
优选的,所述S4,具体包括:
S41:通过文本的拼音构建Epin维的拼音embedding,拼音embedding经过宽度为4的卷积层后随机挑选三个向量,挑选相似的向量进行替换,得到将Epin维的拼音特征hpin
S42:根据中文文本的词性初始化Epos维的一个词性权重
Figure BDA0003879953870000021
基于词性权重
Figure BDA0003879953870000022
将文本的每个词的词性转为向量形式,得到Epo维的词性特征hpos
S43:将用户的输入问题和标准问题的依存关系转换为Esyntax维的邻接矩阵Ml1*l2,将词语表征hlast和邻接矩阵Ml1*l2输入6层的图注意力网络GAT中,得到Esyntax维的句法结构特征hsyntax
S44:将Epin维的拼音特征hpin、Epos维的词性特征hpos、Esyntax维的句法结构特征hsyntax与hlast进行拼接,得到知识增强后的词语特征hpower
进一步的,挑选相似的向量,表示为:
Figure BDA0003879953870000031
其中,j表示挑选出的相似向量,
Figure BDA0003879953870000032
表示选择score分数最大的j列值,
Figure BDA0003879953870000033
WT表示可训练向量,Hj是拼音embedding的第j列向量,hi表示被选中的需要替换的向量,[;]表示对向量按列拼接,
Figure BDA0003879953870000034
表示元素按位相乘,scoreij表示hi与Hj向量的相似度得分,Epin表示拼音embedding的维度。
进一步的,拼音特征、词性特征、句法结构特征的具体维度,计算公式如下:
Figure BDA0003879953870000035
其中,Ename表示维度,entrname表示特征信息熵
Figure BDA0003879953870000036
k表示特征个数,pname表示特征信息量权重,
Figure BDA0003879953870000037
Ebert表示bert模型隐藏层维度,xname表示数据集中name特征构成字典的大小,xname′表示对xname进行归一化操作。
优选的,所述S5具体包括:精确匹配层包括循环神经网络层和分组卷积网络层,将知识增强后的词语特征hpower输入循环神经网络层中,交互时序信息,然后对此特征做最大池化和平均池化操作,以获得获取输入问题与标准问题之间全局的细粒度特征hrnn;将知识增强后的词语特征hpower输入分组卷积网络层中,以卷积核Q尺度学习不同级别片段信息来强化对文本局部信息的辨识,最后获得输入问题与标准问题之间局部的细粒度特征hcnn
进一步的,循环神经网络的某时刻的时序信息,计算公式如下:
yt=sigmoid(Wy*ht+by)
其中,yt表示循环神经网络的t时刻的时序信息,sigmoid()表示sigmoid激活函数,Wy表示第一可训练权重,by表示第一偏差参数,ht表示当前隐藏状态,ht=(1-zt)⊙ht+zt⊙h′,h′表示当前时刻的候选状态,h′=tanh(Wh′*[rt⊙ht-1;xt]+bh′),tanh()表示tanh激活函数,Wh′表示第二可训练权重,ht-1表示上一时刻的隐藏状态,xt表示当前输入,bh′表示第二偏差参数,rt表示重置门状态,rt=sigmoid(Wr*[ct-1⊙ht-1;xt]+br),Wr表示的第三可训练权重,br表示第三偏差参数,
Figure BDA0003879953870000041
表示记忆状态,ct=(1-zt)⊙ht,zt表示更新门状态,zt=sigmoid(Wz*[ht-1;xt]+bz),Wz表示第四可训练权重,bz表示第四偏差参数,*表示矩阵相乘,⊙表示按位点乘,[;]表示向量拼接。
进一步的,卷积核Q尺度的计算公式如下:
Q=(channel2,channel1//group,k,k),k={2,3,4}
其中,cannel2表示输出时的维度,cannel1表示输入时的维度,group表示分组的大小,
Figure BDA0003879953870000042
k表示卷积核大小,μ表示卷积核的均值,σ表示卷积核的标准差,//表示当有小数产生时仅保留整数部分。
优选的,在相似度匹配层中,采用横向拼接的方式对多粒度特征进行融合,并经过Softmax函数进行文本匹配,得到用户的输入问题与标准问题之间的匹配程度,表示为:
γ=Softmax(Linear(Concat(hcls,hrnn,hcnn)))
其中,γ表示用户的输入问题与标准问题之间的匹配程度,hcls表示句子表征特征,hrnn表示全局细粒度特征,hcnn表示局部细粒度特征,Concat()表示连接操作,Linear()表示将拼接后的向量维度为转化为维度为2的向量操作Softmax()表示激活函数。
本发明的有益效果:
1.利用BERT预训练模型自动从原始数据中抽取特征,使得提取到的特征更加符合实际需求,同时免去了大量人工提取特征的开销,节约了人工成本;
2.在BERT预训练模型提取的特征后面拼接了多特征多粒度额外知识,随后接入循环神经网络和卷积网络,对两个待匹配句子进行语义匹配和精确匹配,使得匹配结果更加精确,从而提高了问答匹配中标准问题的定位,提升了用户体验。
附图说明
图1为本发明的流程图;
图2为本发明的BERT_MF模型结构图;
图3为本发明的循环神经网络结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于人工智能的文本匹配方法,如图1所示,包括:
S1:获取问题匹配的文本,包括用户的输入问题和标准问题,对获取的文本进行预处理,得到文本数据集;
S2:建立BERT_MF模型,如图2所示,所述BERT_MF模型包括:BERT模型层、知识增强层、精确匹配层、相似度匹配层;
S3:BERT模型层将文本数据集中的用户的输入问题和标准问题组成句子对,将组成的句子对作为BERT模型的输入序列进行语言表征提取,得到语义表征hcls和词语表征hlast
S4:知识增强层提取文本的拼音、词性、句法特征,并将拼音、词性、句法特征融入词语表征hlast,得到知识增强后的词语特征hpower
S5:通过精确匹配层对知识增强后的词语特征hpower进行交互,得到全局的细粒度特征hrnn、局部的细粒度特征hcnn
S6:将语义表征hcls、全局的细粒度特征hrnn、局部的细粒度特征hcnn输入相似度匹配层,采用横向拼接的方式对多粒度特征进行融合,并经过Softmax函数进行文本匹配,得到用户的输入问题与标准问题之间的匹配程度,实现文本匹配分类。
对获取的文本进行预处理,具体包括:
对于文本中的外文字符,根据五十音图等外文字母表剔除外文字符;
对于文本中不规范的阿拉伯数字,通过构建数字词典,将文本中的阿拉伯数字规范化为标准形式;
对于文本中的繁体字,通过简体繁体字转换表,将文本中的繁体字转为简体字;
对于文本中未在BERT模型词表中出现的字,用[UNK]符号替换该字;
对于文本中的颜文字,构建颜文字库,过滤掉文本中的颜文字。
优选的,所述S4,具体包括:
S41:通过文本的拼音构建Epin维的拼音embedding,拼音embedding经过宽度为4的卷积层后随机挑选三个向量,挑选相似的向量进行替换,得到将Epin维的拼音特征hpin
S42:根据中文文本的词性初始化Epos维的一个词性权重
Figure BDA0003879953870000061
基于词性权重
Figure BDA0003879953870000062
将文本的每个词的词性转为向量形式,得到Epos维的词性特征hpos
S43:将用户的输入问题和标准问题的依存关系转换为Esyntax维的邻接矩阵Ml1*l2,将词语表征hlast和邻接矩阵Ml1*l2输入6层的图注意力网络GAT,得到Esyntax维的句法结构特征hsyntax
S44:将Epin维的拼音特征hpin、Epos维的词性特征hpos、Esyntax维的句法结构特征hsyntax与hlast进行拼接,得到知识增强后的词语特征hpower
挑选相似的向量,表示为:
Figure BDA0003879953870000071
其中,j表示挑选出的相似向量,
Figure BDA0003879953870000072
表示选择score分数最大的j列值,
Figure BDA0003879953870000073
WT表示可训练向量,Hj是拼音embedding的第j列向量,hi表示被选中的需要替换的向量,[;]表示对向量按列拼接,
Figure BDA0003879953870000074
表示元素按位相乘,scoreij表示hi与Hj向量的相似度得分,Epin表示拼音embedding的维度。
拼音特征、词性特征、句法结构特征的具体维度,计算公式如下:
Figure BDA0003879953870000075
特征信息熵entrname的计算方式如下:
Figure BDA0003879953870000076
Figure BDA0003879953870000077
Figure BDA0003879953870000078
其中,Ename表示维度,entrname表示特征信息熵,k表示特征个数,pname表示特征信息量权重,Ebert表示bert模型隐藏层维度,xname表示数据集中name特征构成字典的大小,xname′表示对xname进行归一化操作。
所述S5具体包括:精确匹配层包括循环神经网络层和分组卷积网络层,将知识增强后的词语特征hpower输入循环神经网络层中,交互时序信息,然后对此特征做最大池化和平均池化操作,以获得获取输入问题与标准问题之间全局的细粒度特征hrnn;将知识增强后的词语特征hpower输入分组卷积网络层中,以卷积核Q尺度学习不同级别片段信息来强化对文本局部信息的辨识,最后获得输入问题与标准问题之间局部的细粒度特征hcnn
基于循环神经网络获得全局的细粒度特征向量hrnn,全局细粒度特征向量hrnn的计算表达式:
hgru=Concat(Fmax(y),Fmean(y))
其中,y表示循环神经网络层所有时间步的隐藏层状态,Fmax表示对y进行最大池化操作,Fmean表示对S进行平均池化操作,Concat表示连接操作。
进一步的,循环神经网络的某时刻的时序信息,如图3所示,计算公式如下:
yt=sigmoid(Wy*ht+by)
其中,
ht=(1-zt)⊙ht+zt⊙h′
h′=tanh(Wh′*[rt⊙ht-1;xt]+bh′)
rt=sigmoid(Wr*[ct-1⊙ht-1;xt]+br)
zt=sigmoid(Wz*[ht-1;xt]+bz)
ct=(1-zt)⊙ht
其中,yt表示循环神经网络的t时刻的时序信息,sigmoid()表示sigmoid激活函数,Wy表示第一可训练权重,by表示第一偏差参数,ht表示当前隐藏状态,h′表示当前时刻的候选状态,tanh()表示tanh激活函数,Wh′表示第二可训练权重,ht-1表示上一时刻的隐藏状态,xt表示当前输入,bh′表示第二偏差参数,rt表示重置门状态,Wr表示的第三可训练权重,br表示第三偏差参数,
Figure BDA0003879953870000081
表示记忆状态,zt表示更新门状态,Wz表示第四可训练权重,bz表示第四偏差参数,*表示矩阵相乘,⊙表示按位点乘,[;]表示向量拼接。
卷积核Q尺度的计算公式如下:
Q=(channel2,channel1//group,k,k),k={2,3,4}
其中,cannel2表示输出时的维度,cannel1表示输入时的维度,group表示分组的大小,
Figure BDA0003879953870000091
k表示卷积核大小,μ表示卷积核的均值,σ表示卷积核的标准差,//表示当有小数产生时仅保留整数部分。
在相似度匹配层中,采用横向拼接的方式对多粒度特征进行融合,并经过Softmax函数进行文本匹配,得到用户的输入问题与标准问题之间的匹配程度,表示为:
γ=Softmax(Linear(Concat(hcls,hrnn,hcnn)))
其中,γ表示用户的输入问题与标准问题之间的匹配程度,hcls表示句子表征特征,hrnn表示全局细粒度特征,hcnn表示局部细粒度特征,Concat()表示连接操作,Linear()表示将拼接后的向量维度为转化为维度为2的向量操作Softmax()表示激活函数。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (9)

1.一种基于人工智能的文本匹配方法,其特征在于,包括以下步骤:
S1:获取问题匹配的文本,包括用户的输入问题和标准问题,对获取的文本进行预处理,得到文本数据集;
S2:建立BERT_MF模型,所述BERT_MF模型包括:BERT模型层、知识增强层、精确匹配层、相似度匹配层;
S3:BERT模型层将文本数据集中的用户的输入问题和标准问题组成句子对,将组成的句子对作为BERT模型的输入序列进行语言表征提取,得到语义表征hcls和词语表征hlast
S4:知识增强层提取文本的拼音、词性、句法特征,并将拼音、词性、句法特征融入词语表征hlast,得到知识增强后的词语特征hpower
S5:通过精确匹配层对知识增强后的词语特征hpower进行交互,得到全局的细粒度特征hrnn、局部的细粒度特征hcnn
S6:将语义表征hcls、全局的细粒度特征hrnn、局部的细粒度特征hcnn输入相似度匹配层,采用横向拼接的方式对多粒度特征进行融合,并经过Softmax函数进行文本匹配,得到用户的输入问题与标准问题之间的匹配程度,实现文本匹配分类。
2.根据权利要求1所述的一种基于人工智能的文本匹配方法,其特征在于,对获取的文本进行预处理,具体包括:
对于文本中的外文字符,根据五十音图等外文字母表剔除外文字符;
对于文本中不规范的阿拉伯数字,通过构建数字词典,将文本中的阿拉伯数字规范化为标准形式;
对于文本中的繁体字,通过简体繁体字转换表,将文本中的繁体字转为简体字;
对于文本中未在BERT模型词表中出现的字,用[UNK]符号替换该字;
对于文本中的颜文字,构建颜文字库,过滤掉文本中的颜文字。
3.根据权利要求1所述的一种基于人工智能的文本匹配方法,其特征在于,所述S4,具体包括:
S41:通过文本的拼音构建Epin维的拼音embedding,拼音embedding经过宽度为4的卷积层后随机挑选三个向量,挑选相似的向量进行替换,得到将Epin维的拼音特征hpin
S42:根据中文文本的词性初始化Epos维的一个词性权重Wx*Epos,基于词性权重Wx*Epos将文本的每个词的词性转为向量形式,得到Epos维的词性特征hpos
S43:将用户的输入问题和标准问题的依存关系转换为Esyntax维的邻接矩阵Ml1*l2,将词语表征hlast和邻接矩阵Ml1*l2输入6层的图注意力网络GAT中,得到Esyntax维的句法结构特征hsyntax
S44:将Epin维的拼音特征hpin、Epos维的词性特征hpos、Esyntax维的句法结构特征hsyntax与hlast进行拼接,得到知识增强后的词语特征hpower
4.根据权利要求3所述的一种基于人工智能的文本匹配方法,其特征在于,挑选相似的向量,表示为:
Figure FDA0003879953860000021
其中,j表示挑选出的相似向量,
Figure FDA0003879953860000022
表示选择score分数最大的j列值,
Figure FDA0003879953860000023
WT表示可训练向量,Hj是拼音embedding的第j列向量,hi表示被选中的需要替换的向量,[;]表示对向量按列拼接,
Figure FDA0003879953860000024
表示元素按位相乘,scoreij表示hi与Hj向量的相似度得分,Epin表示拼音embedding的维度。
5.根据权利要求3所述的一种基于人工智能的文本匹配方法,其特征在于,拼音特征、词性特征、句法结构特征的具体维度,计算公式如下:
Figure FDA0003879953860000025
其中,Ename表示维度,entrname表示特征信息熵
Figure FDA0003879953860000031
k表示特征个数,pname表示特征信息量权重,
Figure FDA0003879953860000032
Ebert表示bert模型隐藏层维度,xname表示数据集中name特征构成字典的大小,xname′表示对xname进行归一化操作。
6.根据权利要求1所述的一种基于人工智能的文本匹配方法,其特征在于,所述S5具体包括:精确匹配层包括循环神经网络层和分组卷积网络层,将知识增强后的词语特征hpower输入循环神经网络层中,交互时序信息,然后对此特征做最大池化和平均池化操作,以获得获取输入问题与标准问题之间全局的细粒度特征hrnn;将知识增强后的词语特征hpower输入分组卷积网络层中,以卷积核Q尺度学习不同级别片段信息来强化对文本局部信息的辨识,最后获得输入问题与标准问题之间局部的细粒度特征hcnn
7.根据权利要求6所述的一种基于人工智能的文本匹配方法,其特征在于,循环神经网络的某时刻的时序信息,计算公式如下:
yt=sigmoid(Wy*ht+by)
其中,yt表示循环神经网络的t时刻的时序信息,sigmoid()表示sigmoid激活函数,Wy表示第一可训练权重,by表示第一偏差参数,ht表示当前隐藏状态,ht=(1-zt)⊙ht+zt⊙h′,h′表示当前时刻的候选状态,h′=tanh(Wh′*[rt⊙ht-1;xt]+bh′),tanh()表示tanh激活函数,Wh′表示第二可训练权重,ht-1表示上一时刻的隐藏状态,xt表示当前输入,bh′表示第二偏差参数,rt表示重置门状态,rt=sigmoid(wr*[ct-1⊙ht-1;xt]+br),Wr表示的第三可训练权重,br表示第三偏差参数,
Figure FDA0003879953860000033
表示记忆状态,ct=(1-zt)⊙ht,zt表示更新门状态,zt=sigmoid(Wz*[ht-1;xt]+bz),Wz表示第四可训练权重,bz表示第四偏差参数,*表示矩阵相乘,⊙表示按位点乘,[;]表示向量拼接。
8.根据权利要求6所述的一种基于人工智能的文本匹配方法,其特征在于,卷积核Q尺度的计算公式如下:
Q=(c hannel2,channel1//group,k,k),k={2,3,4}
其中,c annel2表示输出时的维度,c annel1表示输入时的维度,group表示分组的大小,
Figure FDA0003879953860000041
k表示卷积核大小,μ表示卷积核的均值,σ表示卷积核的标准差,//表示当有小数产生时仅保留整数部分。
9.根据权利要求1所述的一种基于人工智能的文本匹配方法,其特征在于,在相似度匹配层中,采用横向拼接的方式对多粒度特征进行融合,并经过Softmax函数进行文本匹配,得到用户的输入问题与标准问题之间的匹配程度,表示为:
γ=Softmax(Linear(Concat(hcls,hrnn,hcnn)))
其中,γ表示用户的输入问题与标准问题之间的匹配程度,hcls表示句子表征特征,hrnn表示全局细粒度特征,hcnn表示局部细粒度特征,Concat()表示连接操作,Linear()表示将拼接后的向量维度为转化为维度为2的向量操作Softmax()表示激活函数。
CN202211226353.4A 2022-10-09 2022-10-09 一种基于人工智能的文本匹配方法 Active CN115422362B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211226353.4A CN115422362B (zh) 2022-10-09 2022-10-09 一种基于人工智能的文本匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211226353.4A CN115422362B (zh) 2022-10-09 2022-10-09 一种基于人工智能的文本匹配方法

Publications (2)

Publication Number Publication Date
CN115422362A true CN115422362A (zh) 2022-12-02
CN115422362B CN115422362B (zh) 2023-10-31

Family

ID=84205630

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211226353.4A Active CN115422362B (zh) 2022-10-09 2022-10-09 一种基于人工智能的文本匹配方法

Country Status (1)

Country Link
CN (1) CN115422362B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117520786A (zh) * 2024-01-03 2024-02-06 卓世科技(海南)有限公司 基于nlp和循环神经网络的大语言模型构建方法

Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090254572A1 (en) * 2007-01-05 2009-10-08 Redlich Ron M Digital information infrastructure and method
CN109299262A (zh) * 2018-10-09 2019-02-01 中山大学 一种融合多粒度信息的文本蕴含关系识别方法
CN110516055A (zh) * 2019-08-16 2019-11-29 西北工业大学 一种结合bert的用于教学任务的跨平台智能问答实现方法
CN110866117A (zh) * 2019-10-25 2020-03-06 西安交通大学 一种基于语义增强与多层次标签嵌入的短文本分类方法
CN111310438A (zh) * 2020-02-20 2020-06-19 齐鲁工业大学 基于多粒度融合模型的中文句子语义智能匹配方法及装置
CN111414481A (zh) * 2020-03-19 2020-07-14 哈尔滨理工大学 基于拼音和bert嵌入的中文语义匹配方法
CN111914067A (zh) * 2020-08-19 2020-11-10 苏州思必驰信息科技有限公司 中文文本匹配方法及系统
CN112632997A (zh) * 2020-12-14 2021-04-09 河北工程大学 基于BERT和Word2Vec向量融合的中文实体识别方法
CN112949285A (zh) * 2020-10-13 2021-06-11 广州市百果园网络科技有限公司 语句文本检测方法、系统、电子设备及存储介质
CN113011186A (zh) * 2021-01-25 2021-06-22 腾讯科技(深圳)有限公司 命名实体识别方法、装置、设备及计算机可读存储介质
EP3842988A1 (en) * 2019-12-27 2021-06-30 Beijing Baidu Netcom Science And Technology Co. Ltd. Method and apparatus for processing questions and answers, electronic device and storage medium
CN113220887A (zh) * 2021-05-31 2021-08-06 华南师范大学 一种利用目标知识增强模型的情感分类方法和装置
CN113378547A (zh) * 2021-06-16 2021-09-10 武汉大学 一种基于gcn的汉语复句隐式关系分析方法及装置
CN113901840A (zh) * 2021-09-15 2022-01-07 昆明理工大学 一种基于多粒度特征的文本生成评价方法
WO2022015730A1 (en) * 2020-07-13 2022-01-20 Ai21 Labs Controllable reading guides and natural language generation
CN113987179A (zh) * 2021-10-27 2022-01-28 哈尔滨工业大学 基于知识增强和回溯损失的对话情绪识别网络模型、构建方法、电子设备及存储介质
CN114064931A (zh) * 2021-11-29 2022-02-18 新疆大学 一种基于多模态知识图谱的急救知识问答方法及系统
CN114282592A (zh) * 2021-11-15 2022-04-05 清华大学 一种基于深度学习的行业文本匹配模型方法及装置
CN114297380A (zh) * 2021-12-22 2022-04-08 北京达佳互联信息技术有限公司 一种数据处理方法、装置、设备及存储介质
US20220208355A1 (en) * 2020-12-30 2022-06-30 London Health Sciences Centre Research Inc. Contrast-agent-free medical diagnostic imaging
CN114723013A (zh) * 2022-04-14 2022-07-08 西安邮电大学 一种多粒度知识增强的语义匹配方法
US11398226B1 (en) * 2020-07-30 2022-07-26 Amazon Technologies, Inc. Complex natural language processing
WO2022169656A1 (en) * 2021-02-05 2022-08-11 Nec Laboratories America, Inc. Multi-faceted knowledge-driven pre-training for product representation learning
CN115114432A (zh) * 2022-04-29 2022-09-27 北京邮电大学 一种融合全局语义特征与拼接特征的标准内容文本分类方法

Patent Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090254572A1 (en) * 2007-01-05 2009-10-08 Redlich Ron M Digital information infrastructure and method
CN109299262A (zh) * 2018-10-09 2019-02-01 中山大学 一种融合多粒度信息的文本蕴含关系识别方法
CN110516055A (zh) * 2019-08-16 2019-11-29 西北工业大学 一种结合bert的用于教学任务的跨平台智能问答实现方法
CN110866117A (zh) * 2019-10-25 2020-03-06 西安交通大学 一种基于语义增强与多层次标签嵌入的短文本分类方法
EP3842988A1 (en) * 2019-12-27 2021-06-30 Beijing Baidu Netcom Science And Technology Co. Ltd. Method and apparatus for processing questions and answers, electronic device and storage medium
CN111310438A (zh) * 2020-02-20 2020-06-19 齐鲁工业大学 基于多粒度融合模型的中文句子语义智能匹配方法及装置
CN111414481A (zh) * 2020-03-19 2020-07-14 哈尔滨理工大学 基于拼音和bert嵌入的中文语义匹配方法
WO2022015730A1 (en) * 2020-07-13 2022-01-20 Ai21 Labs Controllable reading guides and natural language generation
US11398226B1 (en) * 2020-07-30 2022-07-26 Amazon Technologies, Inc. Complex natural language processing
CN111914067A (zh) * 2020-08-19 2020-11-10 苏州思必驰信息科技有限公司 中文文本匹配方法及系统
CN112949285A (zh) * 2020-10-13 2021-06-11 广州市百果园网络科技有限公司 语句文本检测方法、系统、电子设备及存储介质
CN112632997A (zh) * 2020-12-14 2021-04-09 河北工程大学 基于BERT和Word2Vec向量融合的中文实体识别方法
US20220208355A1 (en) * 2020-12-30 2022-06-30 London Health Sciences Centre Research Inc. Contrast-agent-free medical diagnostic imaging
CN113011186A (zh) * 2021-01-25 2021-06-22 腾讯科技(深圳)有限公司 命名实体识别方法、装置、设备及计算机可读存储介质
US20220261551A1 (en) * 2021-02-05 2022-08-18 Nec Laboratories America, Inc. Multi-faceted knowledge-driven pre-training for product representation learning
WO2022169656A1 (en) * 2021-02-05 2022-08-11 Nec Laboratories America, Inc. Multi-faceted knowledge-driven pre-training for product representation learning
CN113220887A (zh) * 2021-05-31 2021-08-06 华南师范大学 一种利用目标知识增强模型的情感分类方法和装置
CN113378547A (zh) * 2021-06-16 2021-09-10 武汉大学 一种基于gcn的汉语复句隐式关系分析方法及装置
CN113901840A (zh) * 2021-09-15 2022-01-07 昆明理工大学 一种基于多粒度特征的文本生成评价方法
CN113987179A (zh) * 2021-10-27 2022-01-28 哈尔滨工业大学 基于知识增强和回溯损失的对话情绪识别网络模型、构建方法、电子设备及存储介质
CN114282592A (zh) * 2021-11-15 2022-04-05 清华大学 一种基于深度学习的行业文本匹配模型方法及装置
CN114064931A (zh) * 2021-11-29 2022-02-18 新疆大学 一种基于多模态知识图谱的急救知识问答方法及系统
CN114297380A (zh) * 2021-12-22 2022-04-08 北京达佳互联信息技术有限公司 一种数据处理方法、装置、设备及存储介质
CN114723013A (zh) * 2022-04-14 2022-07-08 西安邮电大学 一种多粒度知识增强的语义匹配方法
CN115114432A (zh) * 2022-04-29 2022-09-27 北京邮电大学 一种融合全局语义特征与拼接特征的标准内容文本分类方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HEYUAN WANG: "Fine-grained Interest Matching for Neural News Recommendation", 《PROCEEDINGS OF THE 58TH ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS 》, pages 836 *
JIAXUAN HE: "MF-BERT: Multimodal Fusion in Pre-Trained BERT for Sentiment Analysis", 《 IEEE SIGNAL PROCESSING LETTERS》, vol. 29, pages 454 *
刘玮: "深度文本匹配与排 序的研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技》, pages 138 - 1046 *
刘玮: "深度文本匹配与排序的研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技》, pages 138 - 1046 *
王进: "基于图嵌入和区域注意力的多标签文本分类", 《江苏大学学报(自然科学版)》, no. 3, pages 310 - 318 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117520786A (zh) * 2024-01-03 2024-02-06 卓世科技(海南)有限公司 基于nlp和循环神经网络的大语言模型构建方法
CN117520786B (zh) * 2024-01-03 2024-04-02 卓世科技(海南)有限公司 基于nlp和循环神经网络的大语言模型构建方法

Also Published As

Publication number Publication date
CN115422362B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
CN110969020B (zh) 基于cnn和注意力机制的中文命名实体识别方法、系统及介质
CN112732916B (zh) 一种基于bert的多特征融合模糊文本分类系统
CN112667818B (zh) 融合gcn与多粒度注意力的用户评论情感分析方法及系统
CN111027595B (zh) 双阶段语义词向量生成方法
CN110765260A (zh) 一种基于卷积神经网络与联合注意力机制的信息推荐方法
CN106569998A (zh) 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法
CN112232087B (zh) 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法
CN113220876B (zh) 一种用于英文文本的多标签分类方法及系统
CN113704416B (zh) 词义消歧方法、装置、电子设备及计算机可读存储介质
CN114429132B (zh) 一种基于混合格自注意力网络的命名实体识别方法和装置
CN110347831A (zh) 基于自注意力机制的情感分类方法
CN111444367A (zh) 一种基于全局与局部注意力机制的图像标题生成方法
CN114417851B (zh) 一种基于关键词加权信息的情感分析方法
CN110276396B (zh) 基于物体显著性和跨模态融合特征的图片描述生成方法
CN109766553A (zh) 一种基于多正则化结合的胶囊模型的中文分词方法
CN115422939B (zh) 一种基于大数据的细粒度商品命名实体识别方法
CN112256866A (zh) 一种基于深度学习的文本细粒度情感分析方法
CN113094502A (zh) 一种多粒度外卖用户评论情感分析方法
CN111753088A (zh) 一种自然语言信息的处理方法
CN111666752A (zh) 一种基于关键词注意力机制的电路教材实体关系抽取方法
CN116467443A (zh) 基于主题识别的网络舆情文本分类方法
CN115422362A (zh) 一种基于人工智能的文本匹配方法
CN112528168B (zh) 基于可形变自注意力机制的社交网络文本情感分析方法
CN113204640A (zh) 一种基于注意力机制的文本分类方法
CN110334204B (zh) 一种基于用户记录的习题相似度计算推荐方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230928

Address after: 510700 room 801, No. 85, Kefeng Road, Huangpu District, Guangzhou City, Guangdong Province (office only)

Applicant after: Yami Technology (Guangzhou) Co.,Ltd.

Address before: 400065 Chongwen Road, Nanshan Street, Nanan District, Chongqing

Applicant before: CHONGQING University OF POSTS AND TELECOMMUNICATIONS

Effective date of registration: 20230928

Address after: 15th Floor, New Development Science and Technology Innovation Building, Intersection of Zhongxing South Road and Shangding Road, Zhengdong New District, Zhengzhou City, Henan Province, 450052

Applicant after: Zhengzhou Digital Intelligence Technology Research Institute Co.,Ltd.

Applicant after: Zhengzhou Shuzhi Technology Group Co.,Ltd.

Address before: 510700 room 801, No. 85, Kefeng Road, Huangpu District, Guangzhou City, Guangdong Province (office only)

Applicant before: Yami Technology (Guangzhou) Co.,Ltd.

GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20221202

Assignee: Henan Weijiang Software Technology Co.,Ltd.

Assignor: Zhengzhou Digital Intelligence Technology Research Institute Co.,Ltd.

Contract record no.: X2024980014406

Denomination of invention: A Text Matching Method Based on Artificial Intelligence

Granted publication date: 20231031

License type: Common License

Record date: 20240909