CN112052683A - 一种文本匹配方法、装置、计算机设备及存储介质 - Google Patents

一种文本匹配方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN112052683A
CN112052683A CN202010914259.2A CN202010914259A CN112052683A CN 112052683 A CN112052683 A CN 112052683A CN 202010914259 A CN202010914259 A CN 202010914259A CN 112052683 A CN112052683 A CN 112052683A
Authority
CN
China
Prior art keywords
matrix
text
question
term
word set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010914259.2A
Other languages
English (en)
Inventor
赵知纬
高维国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202010914259.2A priority Critical patent/CN112052683A/zh
Publication of CN112052683A publication Critical patent/CN112052683A/zh
Priority to PCT/CN2021/091340 priority patent/WO2022048174A1/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种文本匹配方法、装置、计算机设备及存储介质,涉及人工智能技术领域,方法包括:构建问句特征词集合QU和文本特征词集合QC,以及术语集合T;进行向量化处理得到特征向量QE以及术语向量TE;进行线性转换得到键矩阵K、查询矩阵Q和值矩阵V,以及矩阵KT;计算非归一化权重矩阵AQT,然后进行自我相乘以及归一化处理得到多个子矩阵;对所述多个子矩阵进行平均化处理,再进行归一化处理得到影响矩阵
Figure DDA0002664441340000011
对所述键矩阵K和查询矩阵Q进行矩阵乘法,得到自注意力矩阵A,然后计算得到自注意力模块的输出,再根据所述输出进行匹配。本发明实现着重于已知的术语之间的匹配,减少非术语之间的匹配,达到提高匹配准确度的效果。

Description

一种文本匹配方法、装置、计算机设备及存储介质
技术领域
本发明涉及人工智能技术领域,特别涉及一种文本匹配方法、装置、计算机设备及存储介质。
背景技术
近年来,基于transformer(Google团队在2017年提出的一种NLP经典模型)架构和海量数据的BERT(Bidirectional Encoder Representation from Transformers和基于Transformer的双向编码器表征)模型在各种NLP(自然语言处理)应用中大放光彩。BERT本身支持两段文本输入的设计使得其能够很容易地应用与文本匹配任务。在智能问答的实际应用中,对每个用户问句来说,不同的词或短语,其重要性不同,这些比较重要的词、短语称为术语,往往与实际业务相关。
但现有的处理方法,并未融合术语的重要性,比如用户问句为“XX公司现在有多少员工”,待匹配文本为“XX公司的薪酬福利体系是什么样的”,那么两者之间的“XX”一词也会有较大的注意力权重。而对待匹配文本来说,匹配上“薪酬”或者“福利”远比匹配上“XX”重要,故现有技术中的文本匹配方法在准确性方面还有待提高。
发明内容
本发明的目的是提供一种文本匹配方法、装置、计算机设备及存储介质,旨在解决现有文本匹配技术在准确性方面有待提高的问题。
第一方面,本发明实施例提供一种基于术语增强的文本匹配方法,其包括:
获取用户问句以及待匹配文本,对所述用户问句以及待匹配文本进行自然语言处理,分别得到问句特征词集合QU和文本特征词集合QC,并识别出所述问句特征词集合QU和文本特征词集合QC中的术语,构建术语集合T;
对所述问句特征词集合QU和文本特征词集合QC进行拼接,然后进行向量化处理,得到特征向量QE;以及对所述术语集合T进行向量化处理,得到术语向量TE;
对所述特征向量QE进行线性转换得到:键矩阵K、查询矩阵Q和值矩阵V,以及对所述术语向量TE进行线性转换,得到矩阵KT
计算所述矩阵KT与查询矩阵Q的非归一化权重矩阵AQT,然后对所述非归一化权重矩阵AQT进行自我相乘以及归一化处理得到多个子矩阵;
对所述多个子矩阵进行平均化处理,再进行归一化处理得到影响矩阵
Figure BDA0002664441320000021
对所述键矩阵K和查询矩阵Q进行矩阵乘法处理,得到自注意力矩阵A,然后利用所述自注意力矩阵A和影响矩阵
Figure BDA0002664441320000022
计算得到自注意力模块的输出,再根据所述输出对所述用户问句与待匹配的文本进行匹配。
第二方面,本发明实施例提供一种基于术语增强的文本匹配装置,其包括:
集合构建单元,用于获取用户问句以及待匹配文本,对所述用户问句以及待匹配文本进行自然语言处理,分别得到问句特征词集合QU和文本特征词集合QC,并识别出所述问句特征词集合QU和文本特征词集合QC中的术语,构建术语集合T;
向量化单元,用于对所述问句特征词集合QU和文本特征词集合QC进行拼接,然后进行向量化处理,得到特征向量QE;以及对所述术语集合T进行向量化处理,得到术语向量TE;
线性转换单元,用于对所述特征向量QE进行线性转换得到:键矩阵K、查询矩阵Q和值矩阵V,以及对所述术语向量TE进行线性转换,得到矩阵KT
自我相乘单元,用于计算所述矩阵KT与查询矩阵Q的非归一化权重矩阵AQT,然后对所述非归一化权重矩阵AQT进行自我相乘以及归一化处理得到多个子矩阵;
平均处理单元,用于对所述多个子矩阵进行平均化处理,再进行归一化处理得到影响矩阵
Figure BDA0002664441320000023
输出单元,用于对所述键矩阵K和查询矩阵Q进行矩阵乘法处理,得到自注意力矩阵A,然后利用所述自注意力矩阵A和影响矩阵
Figure BDA0002664441320000024
计算得到自注意力模块的输出,再根据所述输出对所述用户问句与待匹配的文本进行匹配。
第三方面,本发明实施例提供一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时实现如上所述的基于术语增强的文本匹配方法。
第四方面,本发明实施例提供一种计算机可读存储介质,其中,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如上所述的基于术语增强的文本匹配方法。
本发明实施例提供了一种文本匹配方法、装置、计算机设备及存储介质,方法包括:构建问句特征词集合QU和文本特征词集合QC,以及术语集合T;对QU和QC进行向量化处理分别得到特征向量QE以及术语向量TE;对QE进行线性转换得到键矩阵K、查询矩阵Q和值矩阵V,以及对TE进行线性转换得到矩阵KT;计算非归一化权重矩阵AQT,然后进行自我相乘以及归一化处理得到多个子矩阵;对所述多个子矩阵进行平均化处理,再进行归一化处理得到影响矩阵
Figure BDA0002664441320000031
对所述键矩阵K和查询矩阵Q进行矩阵乘法处理,得到自注意力矩阵A,然后计算得到自注意力模块的输出,再根据所述输出对所述用户问句与待匹配的文本进行匹配。本发明实施例中,自注意力模块的输出融入了术语的计算结果,实现着重于已知的术语之间的匹配,减少非术语之间的匹配,达到提高匹配准确度的效果。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种文本匹配方法的流程示意图;
图2为本发明实施例提供的一种文本匹配方法的子流程示意图;
图3为本发明实施例提供的一种文本匹配方法的另一子流程示意图;
图4为本发明实施例提供的一种文本匹配方法的另一子流程示意图;
图5为本发明实施例提供的一种文本匹配方法的另一子流程示意图;
图6为本发明实施例提供的一种文本匹配方法的另一子流程示意图;
图7为本发明实施例提供的一种文本匹配方法的另一子流程示意图;
图8为本发明实施例提供的一种文本匹配装置的示意性框图;
图9为本发明实施例提供的一种文本匹配装置的子单元示意性框图;
图10为本发明实施例提供的一种文本匹配装置的另一子单元示意性框图;
图11为本发明实施例提供的一种文本匹配装置的另一子单元示意性框图;
图12为本发明实施例提供的一种文本匹配装置的另一子单元示意性框图;
图13为本发明实施例提供的一种文本匹配装置的另一子单元示意性框图;
图14为本发明实施例提供的一种文本匹配装置的另一子单元示意性框图;
图15为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1,图1为本发明实施例提供的一种信息收集和分级方法的流程示意图,包括步骤S101~S106:
S101、获取用户问句以及待匹配文本,对所述用户问句以及待匹配文本进行自然语言处理,分别得到问句特征词集合QU和文本特征词集合QC,并识别出所述问句特征词集合QU和文本特征词集合QC中的术语,构建术语集合T;
本步骤是利用自然语言处理方式处理得到问句特征词集合QU和文本特征词集合QC,同时构建出术语集合T。
在一实施例中,如图2所示,所述步骤S101包括:
S201、获取用户问句以及待匹配文本;
S202、对所述用户问句以及待匹配文本进行自然语言处理,分别得到用户问句中的所有特征词和待匹配文本中的所有特征词;
S203、将用户问句中的所有特征词按顺序构建为问句特征词集合QU,将待匹配文本中的所有特征词按顺序构建为文本特征词集合QC;
S204、基于命名实体识别方法识别出所述问句特征词集合QU和文本特征词集合QC中的术语,构建术语集合T。
在本实施例中,用户问句和待匹配文本为两个需要进行匹配的对象,在一个具体应用场景中,可以是用户输入问句,然后获取已存储的大量待匹配文本,再将用户问句与待匹配文本进行匹配。例如在搜索引擎中:待匹配文本对应索引网页的相关信息,如title(标题)、content(内容)等,用户问句对应用户的检索请求,那么此时二者进行匹配的含义是指匹配出相关度最高的文本。或者在智能问答中:待匹配文本对应智能问答中的答案,用户问句对应用户的问题,那么此时二者进行匹配的含义是指从答案中查找到语义相似度最高的答案。在信息流推荐中:待匹配文本对应待推荐的信息流,用户问句对应用户的画像,那么此时二者进行匹配的含义就是从中匹配出用户最感兴趣等众多度量标准的信息流。
对于用户问句和待匹配文本而言,都可以进行自然语言处理。这样可以将其表示为一个个的特征词,从而得到分别得到问句特征词集合QU和文本特征词集合QC。例如,所述用户问句可表示为[QU1,QU2,QU3,QU4,QU5],表示用户问句可以拆分为QU1、QU2、QU3、QU4、QU5这5个词,该QU的长度为5。又例如,所述待匹配的问题可表示为[QC1,QC2,QC3],表示待匹配的文本可以拆分为QC1、QC2、QC3这3个词,该QC的长度为3。
其中术语集合是指术语的集合,术语为一些重要、与实际业务相关的词或短语。例如在智能问答的应用场景中,对每个问句来说,有些词、短语比较重要,而剩下的一些不那么重要,这些比较重要的词、短语可称为术语,且往往与实际业务相关。本发明实施例就是从问句特征词集合QU和文本特征词集合QC中识别一些与业务相关的术语,将其单独构成一个术语集合,表示为T。例如T可以表示为[T1,T2],该T的长度为2。术语的识别可采用命名实体识别方法(Named Entity Recognition,简称NER)实现,命名实体识别,又称“专名识别”,其可识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等。
S102、对所述问句特征词集合QU和文本特征词集合QC进行拼接,然后进行向量化处理,得到特征向量QE;以及对所述术语集合T进行向量化处理,得到术语向量TE;
本步骤中,需要对前面的问句特征词集合QU和文本特征词集合QC进行拼接和向量化处理,从而进行后续的矩阵化处理。
在一实施例中,如图3所示,所述步骤S102包括:
S301、将所述文本特征词集合QC与问句特征词集合QU进行拼接,并采用分隔符SEP进行分隔,得到拼接集合Q=[QC,SEP,QU];
此步骤是将前面的文本特征词集合QC与问句特征词集合QU拼接,并且文本特征词集合QC与问句特征词集合QU之间还采用分隔符进行分隔。
例如对前面提到的问句特征词集合QU=[QU1,QU2,QU3,QU4,QU5],以及文本特征词集合QC=[QC1,QC2,QC3],进行拼接,那么可得到:
拼接集合Q=[QC1,QC2,QC3,SEP,QU1,QU2,QU3,QU4,QU5],其中,SEP代表分隔符。
S302、通过embedding查询,将所述拼接集合Q中的字符转换为相应的向量,得到特征向量QE;
本步骤中,可以embedding(嵌入)查询将字符转换为向量。具体地,可以在成熟的词向量库中查询所述拼接集合Q中每个字符对应的向量,如果某个词在词向量库中不能直接找到其对应的向量,那么可通过语义相似度算法,在所述词向量库中与所述拼接集合Q中字符相似度最高的词,并获取对应的向量。
以前述的拼接集合Q=[QC1,QC2,QC3,SEP,QU1,QU2,QU3,QU4,QU5]为例,假设每个字符转换后的向量的长度都是he,那么最终得到的
Figure BDA0002664441320000061
R代表矩阵,即其大小为he×9。
S303、通过embedding查询,将所述术语集合T中的字符转换为相应的向量,得到术语向量TE。
本步骤中,可以embedding查询将字符转换为向量。具体地,通过可以在成熟的词向量库中查询所述术语集合T中每个字符对应的向量,如果某个词在词向量库中不能直接找到其对应的向量,那么可通过语义相似度算法,在所述词向量库中与所述术语集合T中字符相似度最高的词,并获取对应的向量。
以前述的术语集合T=[T1,T2]为例,假设每个字符转换后的向量的长度都是he,那么最终得到的
Figure BDA0002664441320000071
即其大小为he×2。
S103、对所述特征向量QE进行线性转换得到:键矩阵K、查询矩阵Q和值矩阵V,以及对所述术语向量TE进行线性转换,得到矩阵KT
本步骤是对前面的特征向量QE以及术语向量TE进行矩阵化处理,即将向量转换为矩阵。
在一实施例中,如图4所示,所述步骤S103包括:
S401、利用已训练的权重矩阵WK、WQ和WV分别与所述特征向量QE进行矩阵相乘,得到三个形状相同的矩阵:键矩阵K、查询矩阵Q和值矩阵V;
本步骤中,线性转换的方式是矩阵乘法,如:K=WK·QE,Q=WQ·QE,V=WV·QE。其中,WK,WQ,WV均为权重矩阵。键矩阵K,查询矩阵Q,值矩阵V也都是矩阵,以
Figure BDA0002664441320000072
为例,转换后得到的K,Q,V三者的大小均为ha×9,即
Figure BDA0002664441320000073
其中,ha是权重矩阵WK、WQ和WV的长度(即列数)。
S402、利用已训练的权重矩阵WT与所述术语向量TE进行矩阵相乘,得到矩阵KT
本步骤中,线性转换的方式是矩阵乘法,如:KT=WT·TE。KT为矩阵,以
Figure BDA0002664441320000074
为例,转换后的矩阵KT的大小是ha×2,即
Figure BDA0002664441320000075
其中,ha是权重矩阵WT的长度(即列数)。
S104、计算所述矩阵KT与查询矩阵Q的非归一化权重矩阵AQT,然后对所述非归一化权重矩阵AQT进行自我相乘以及归一化处理得到多个子矩阵;
本步骤中,需要计算所述矩阵KT与查询矩阵Q的非归一化权重矩阵,然后进行自我相乘和归一化从而得到多个子矩阵。
在一实施例中,如图5所示,所述步骤S104包括:
S501、按下式计算矩阵KT与查询矩阵Q的非归一化权重矩阵:
Figure BDA0002664441320000076
本步骤中,KT是一个矩阵,假设其大小是ha×2。Q也是一个矩阵,假设其大小是ha×9,这两个矩阵要相乘,首先需要把KT转置成
Figure BDA0002664441320000077
然后才能与Q相乘,相乘后也是一个矩阵,表示为AQT,大小形状为2×9,即
Figure BDA0002664441320000078
AQT∈R2×9
S502、分别取非归一化权重矩阵AQT中的每一行进行自我相乘,并进行归一化处理得到数量与非归一化权重矩阵AQT行数相同的多个子矩阵。
本步骤中,假设
Figure BDA0002664441320000081
因为行数共有2行,那么得到2个子矩阵:
Figure BDA0002664441320000082
具体如下:
Figure BDA0002664441320000083
Figure BDA0002664441320000084
Figure BDA0002664441320000085
所以计算得到的两个矩阵,大小均为9×9,即
Figure BDA0002664441320000086
S105、对所述多个子矩阵进行平均化处理,再进行归一化处理得到影响矩阵
Figure BDA0002664441320000087
上述步骤中得到的多个子矩阵大小相同,本步骤是对得到的这些子矩阵进行平均化处理和归一化处理,得到影响矩阵。
在一实施例中,如图6所示,所述步骤S105包括:
S601、按如下公式对所述多个子矩阵进行平均化处理得到平均矩阵
Figure BDA0002664441320000088
Figure BDA0002664441320000089
n为子矩阵的个数;
S602、按如下公式对平均矩阵进行归一化处理得到影响矩阵
Figure BDA00026644413200000810
Figure BDA00026644413200000811
softmax表示归一化。
继续以前面的例子为例,本步骤是先对前面计算的两个子矩阵进行平均化处理,也就是相加并除以2。然后对平均化结果进行归一化,从而使得影响矩阵
Figure BDA00026644413200000812
的每一行加起来等于1。具体的,
Figure BDA00026644413200000813
softmax的作用是使平均化结果归一化,得到的值是正值且和为1。
S106、对所述键矩阵K和查询矩阵Q进行矩阵乘法处理,得到自注意力矩阵A,然后利用所述自注意力矩阵A和影响矩阵
Figure BDA00026644413200000814
计算得到自注意力模块的输出,再根据所述输出对所述用户问句与待匹配的文本进行匹配。
本步骤就是综合所述自注意力矩阵A和影响矩阵
Figure BDA00026644413200000815
从而得到自注意力模块的输出,基于自注意力模块的输出进行匹配。也就是将术语的权重加入到输出之中,从而减少关注非术语之间的匹配。
在一实施例中,如图7所示,所述步骤S105包括:
S701、对所述键矩阵K和查询矩阵Q进行矩阵乘法,得到自注意力矩阵
Figure BDA0002664441320000091
ha表示键矩阵K的长度;
本步骤即为对前面的键矩阵K和查询矩阵Q进行矩阵乘法,从而得到自注意力矩阵A,该自注意力矩阵A的大小是9×9。具体按照如下公式进行计算:
Figure BDA0002664441320000092
A∈R9×9
S702、按下式计算得到自注意力模块的输出:
Figure BDA0002664441320000093
其中α是预先设定的超参;
本步骤中,自注意力模块的输出融入了术语的计算结果,可以实现着重于已知的术语之间的匹配,同时减少关注非术语之间的匹配。对每个用户问句来说,通过在自注意力的计算过程中将这部分术语权重增大,实现重点匹配与实际业务相关的术语,达到提高匹配准确度的效果。
S703、利用所述自注意力模块的输出对所述用户问句与待匹配的文本进行匹配。
本步骤就是利用自注意力模块的输出,对用户问句与待匹配的文本进行匹配,例如,用户问句为“XX公司现在有多少员工”,待匹配文本为“XX公司的薪酬福利体系是什么样的”,由于采用本技术方案,两者之间的“XX”一词的注意力权重将会降低,而“薪酬”和“福利”的注意力权重将会提高,所以最终的匹配结果将会更加准确。
本发明实施例还提供一种基于术语增强的文本匹配装置,该一种基于术语增强的文本匹配装置用于执行前述基于术语增强的文本匹配方法的任一实施例。具体地,请参阅图8,图8是本发明实施例提供的基于术语增强的文本匹配装置的示意性框图。该基于术语增强的文本匹配装置可以配置于服务器中。
如图8所示,基于术语增强的文本匹配装置800包括:集合构建单元801、向量化单元802、线性转换单元803、自我相乘单元804、平均处理单元805、输出单元806。
集合构建单元801,用于获取用户问句以及待匹配文本,对所述用户问句以及待匹配文本进行自然语言处理,分别得到问句特征词集合QU和文本特征词集合QC,并识别出所述问句特征词集合QU和文本特征词集合QC中的术语,构建术语集合T;
向量化单元802,用于对所述问句特征词集合QU和文本特征词集合QC进行拼接,然后进行向量化处理,得到特征向量QE;以及对所述术语集合T进行向量化处理,得到术语向量TE;
线性转换单元803,用于对所述特征向量QE进行线性转换得到:键矩阵K、查询矩阵Q和值矩阵V,以及对所述术语向量TE进行线性转换,得到矩阵KT
自我相乘单元804,用于计算所述矩阵KT与查询矩阵Q的非归一化权重矩阵AQT,然后对所述非归一化权重矩阵AQT进行自我相乘以及归一化处理得到多个子矩阵;
平均处理单元805,用于对所述多个子矩阵进行平均化处理,再进行归一化处理得到影响矩阵
Figure BDA0002664441320000101
输出单元806,用于对所述键矩阵K和查询矩阵Q进行矩阵乘法处理,得到自注意力矩阵A,然后利用所述自注意力矩阵A和影响矩阵
Figure BDA0002664441320000102
计算得到自注意力模块的输出,再根据所述输出对所述用户问句与待匹配的文本进行匹配。
在一实施例中,如图9所示,所述集合构建单元801包括:
获取单元901,用于获取用户问句以及待匹配文本;
特征词提取单元902,用于对所述用户问句以及待匹配文本进行自然语言处理,分别得到用户问句中的所有特征词和待匹配文本中的所有特征词;
顺序构建单元903,用于将用户问句中的所有特征词按顺序构建为问句特征词集合QU,将待匹配文本中的所有特征词按顺序构建为文本特征词集合QC;
识别单元904,用于基于命名实体识别方法识别出所述问句特征词集合QU和文本特征词集合QC中的术语,构建术语集合T。
在一实施例中,如图10所示,所述向量化单元802包括:
拼接单元1001,用于将所述文本特征词集合QC与问句特征词集合QU进行拼接,并采用分隔符SEP进行分隔,得到拼接集合Q=[QC,SEP,QU];
第一向量化单元1002,用于通过embedding查询,将所述拼接集合Q中的字符转换为相应的向量,得到特征向量QE;
第二向量化单元1003,用于通过embedding查询,将所述术语集合T中的字符转换为相应的向量,得到术语向量TE。
在一实施例中,如图11所示,所述线性转换单元803包括:
特征向量转换单元1101,用于利用已训练的权重矩阵WK、WQ和WV分别与所述特征向量QE进行矩阵相乘,得到三个形状相同的矩阵:键矩阵K、查询矩阵Q和值矩阵V;
术语向量转换单元1102,用于利用已训练的权重矩阵WT与所述术语向量TE进行矩阵相乘,得到矩阵KT
在一实施例中,如图12所示,所述自我相乘单元804包括:
第一计算单元1201,用于按下式计算矩阵KT与查询矩阵Q的非归一化权重矩阵:
Figure BDA0002664441320000111
第二计算单元1202,用于分别取非归一化权重矩阵AQT中的每一行进行自我相乘,并进行归一化处理得到数量与非归一化权重矩阵AQT行数相同的多个子矩阵。
在一实施例中,如图13所示,所述平均处理单元805包括:
第三计算单元1301,用于按如下公式对所述多个子矩阵进行平均化处理得到平均矩阵
Figure BDA0002664441320000112
Figure BDA0002664441320000113
n为子矩阵的个数;
第四计算单元1302,用于按如下公式对平均矩阵进行归一化处理得到影响矩阵
Figure BDA0002664441320000114
Figure BDA0002664441320000115
softmax表示归一化。
在一实施例中,如图14所示,所述输出单元806包括:
自注意力矩阵计算单元1401,用于对所述键矩阵K和查询矩阵Q进行矩阵乘法,得到自注意力矩阵
Figure BDA0002664441320000116
ha表示键矩阵K的长度;
自注意力输出单元1402,用于按下式计算得到自注意力模块的输出:
Figure BDA0002664441320000117
其中α是预先设定的超参;
匹配单元1403,用于利用所述自注意力模块的输出对所述用户问句与待匹配的文本进行匹配。
通过本发明实施例的装置,可以实现着重于已知的术语之间的匹配,减少非术语之间的匹配,达到提高匹配准确度的效果。
上述文本匹配装置800可以实现为计算机程序的形式,该计算机程序可以在如图15所示的计算机设备上运行。
请参阅图15,图15是本发明实施例提供的计算机设备的示意性框图。该计算机设备1500是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图15,该计算机设备1500包括通过系统总线1501连接的处理器1502、存储器和网络接口1505,其中,存储器可以包括非易失性存储介质1503和内存储器1504。
该非易失性存储介质1503可存储操作系统15031和计算机程序15032。该计算机程序15032被执行时,可使得处理器1502执行文本匹配方法。
该处理器1502用于提供计算和控制能力,支撑整个计算机设备1500的运行。
该内存储器1504为非易失性存储介质1503中的计算机程序15032的运行提供环境,该计算机程序15032被处理器1502执行时,可使得处理器1502执行文本匹配方法。
该网络接口1505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图15中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备1500的限定,具体的计算机设备1500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器1502用于运行存储在存储器中的计算机程序15032,以实现如下功能:获取用户问句以及待匹配文本,对所述用户问句以及待匹配文本进行自然语言处理,分别得到问句特征词集合QU和文本特征词集合QC,并识别出所述问句特征词集合QU和文本特征词集合QC中的术语,构建术语集合T;对所述问句特征词集合QU和文本特征词集合QC进行拼接,然后进行向量化处理,得到特征向量QE;以及对所述术语集合T进行向量化处理,得到术语向量TE;对所述特征向量QE进行线性转换得到:键矩阵K、查询矩阵Q和值矩阵V,以及对所述术语向量TE进行线性转换,得到矩阵KT;计算所述矩阵KT与查询矩阵Q的非归一化权重矩阵AQT,然后对所述非归一化权重矩阵AQT进行自我相乘以及归一化处理得到多个子矩阵;对所述多个子矩阵进行平均化处理,再进行归一化处理得到影响矩阵
Figure BDA0002664441320000121
对所述键矩阵K和查询矩阵Q进行矩阵乘法处理,得到自注意力矩阵A,然后利用所述自注意力矩阵A和影响矩阵
Figure BDA0002664441320000122
计算得到自注意力模块的输出,再根据所述输出对所述用户问句与待匹配的文本进行匹配。
本领域技术人员可以理解,图15中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图15所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器1502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器1502还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific IntegratedCircuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现以下步骤:获取用户问句以及待匹配文本,对所述用户问句以及待匹配文本进行自然语言处理,分别得到问句特征词集合QU和文本特征词集合QC,并识别出所述问句特征词集合QU和文本特征词集合QC中的术语,构建术语集合T;对所述问句特征词集合QU和文本特征词集合QC进行拼接,然后进行向量化处理,得到特征向量QE;以及对所述术语集合T进行向量化处理,得到术语向量TE;对所述特征向量QE进行线性转换得到:键矩阵K、查询矩阵Q和值矩阵V,以及对所述术语向量TE进行线性转换,得到矩阵KT;计算所述矩阵KT与查询矩阵Q的非归一化权重矩阵AQT,然后对所述非归一化权重矩阵AQT进行自我相乘以及归一化处理得到多个子矩阵;对所述多个子矩阵进行平均化处理,再进行归一化处理得到影响矩阵
Figure BDA0002664441320000131
对所述键矩阵K和查询矩阵Q进行矩阵乘法处理,得到自注意力矩阵A,然后利用所述自注意力矩阵A和影响矩阵
Figure BDA0002664441320000132
计算得到自注意力模块的输出,再根据所述输出对所述用户问句与待匹配的文本进行匹配。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种基于术语增强的文本匹配方法,其特征在于,包括:
获取用户问句以及待匹配文本,对所述用户问句以及待匹配文本进行自然语言处理,分别得到问句特征词集合QU和文本特征词集合QC,并识别出所述问句特征词集合QU和文本特征词集合QC中的术语,构建术语集合T;
对所述问句特征词集合QU和文本特征词集合QC进行拼接,然后进行向量化处理,得到特征向量QE;以及对所述术语集合T进行向量化处理,得到术语向量TE;
对所述特征向量QE进行线性转换得到:键矩阵K、查询矩阵Q和值矩阵V,以及对所述术语向量TE进行线性转换,得到矩阵KT
计算所述矩阵KT与查询矩阵Q的非归一化权重矩阵AQT,然后对所述非归一化权重矩阵AQT进行自我相乘以及归一化处理得到多个子矩阵;
对所述多个子矩阵进行平均化处理,再进行归一化处理得到影响矩阵
Figure FDA0002664441310000011
对所述键矩阵K和查询矩阵Q进行矩阵乘法处理,得到自注意力矩阵A,然后利用所述自注意力矩阵A和影响矩阵
Figure FDA0002664441310000012
计算得到自注意力模块的输出,再根据所述输出对所述用户问句与待匹配的文本进行匹配。
2.根据权利要求1所述的基于术语增强的文本匹配方法,其特征在于,所述获取用户问句以及待匹配文本,对所述用户问句以及待匹配文本进行自然语言处理,分别得到问句特征词集合QU和文本特征词集合QC,并识别出所述问句特征词集合QU和文本特征词集合QC中的术语,构建术语集合T,包括:
获取用户问句以及待匹配文本;
对所述用户问句以及待匹配文本进行自然语言处理,分别得到用户问句中的所有特征词和待匹配文本中的所有特征词;
将用户问句中的所有特征词按顺序构建为问句特征词集合QU,将待匹配文本中的所有特征词按顺序构建为文本特征词集合QC;
基于命名实体识别方法识别出所述问句特征词集合QU和文本特征词集合QC中的术语,构建术语集合T。
3.根据权利要求1所述的基于术语增强的文本匹配方法,其特征在于,所述对所述问句特征词集合QU和文本特征词集合QC进行拼接,然后进行向量化处理,得到特征向量QE;以及对所述术语集合T进行向量化处理,得到术语向量TE,包括:
将所述文本特征词集合QC与问句特征词集合QU进行拼接,并采用分隔符SEP进行分隔,得到拼接集合Q=[QC,SEP,QU];
通过embedding查询,将所述拼接集合Q中的字符转换为相应的向量,得到特征向量QE;
通过embedding查询,将所述术语集合T中的字符转换为相应的向量,得到术语向量TE。
4.根据权利要求1所述的基于术语增强的文本匹配方法,其特征在于,所述对所述特征向量QE进行线性转换得到:键矩阵K、查询矩阵Q和值矩阵V,以及对所述术语向量TE进行线性转换,得到矩阵KT,包括:
利用已训练的权重矩阵WK、WQ和WV分别与所述特征向量QE进行矩阵相乘,得到三个形状相同的矩阵:键矩阵K、查询矩阵Q和值矩阵V;
利用已训练的权重矩阵WT与所述术语向量TE进行矩阵相乘,得到矩阵KT
5.根据权利要求1所述的基于术语增强的文本匹配方法,其特征在于,所述计算所述矩阵KT与查询矩阵Q的非归一化权重矩阵AQT,然后对所述非归一化权重矩阵AQT进行自我相乘以及归一化处理得到多个子矩阵,包括:
按下式计算矩阵KT与查询矩阵Q的非归一化权重矩阵:
Figure FDA0002664441310000021
分别取非归一化权重矩阵AQT中的每一行进行自我相乘,并进行归一化处理得到数量与非归一化权重矩阵AQT行数相同的多个子矩阵。
6.根据权利要求1所述的基于术语增强的文本匹配方法,其特征在于,所述对所述多个子矩阵进行平均化处理,再进行归一化处理得到影响矩阵
Figure FDA0002664441310000022
包括:
按如下公式对所述多个子矩阵进行平均化处理得到平均矩阵
Figure FDA0002664441310000023
Figure FDA0002664441310000024
n为子矩阵的个数;
按如下公式对平均矩阵进行归一化处理得到影响矩阵
Figure FDA0002664441310000025
Figure FDA0002664441310000026
softmax表示归一化。
7.根据权利要求1所述的基于术语增强的文本匹配方法,其特征在于,所述对所述键矩阵K和查询矩阵Q进行矩阵乘法处理,得到自注意力矩阵A,然后利用所述自注意力矩阵A和影响矩阵
Figure FDA0002664441310000031
计算得到自注意力模块的输出,再根据所述输出对所述用户问句与待匹配的文本进行匹配,包括:
对所述键矩阵K和查询矩阵Q进行矩阵乘法,得到自注意力矩阵
Figure FDA0002664441310000032
ha表示键矩阵K的长度;
按下式计算得到自注意力模块的输出:
Figure FDA0002664441310000033
其中α是预先设定的超参;
利用所述自注意力模块的输出对所述用户问句与待匹配的文本进行匹配。
8.一种基于术语增强的文本匹配装置,其特征在于,包括:
集合构建单元,用于获取用户问句以及待匹配文本,对所述用户问句以及待匹配文本进行自然语言处理,分别得到问句特征词集合QU和文本特征词集合QC,并识别出所述问句特征词集合QU和文本特征词集合QC中的术语,构建术语集合T;
向量化单元,用于对所述问句特征词集合QU和文本特征词集合QC进行拼接,然后进行向量化处理,得到特征向量QE;以及对所述术语集合T进行向量化处理,得到术语向量TE;
线性转换单元,用于对所述特征向量QE进行线性转换得到:键矩阵K、查询矩阵Q和值矩阵V,以及对所述术语向量TE进行线性转换,得到矩阵KT
自我相乘单元,用于计算所述矩阵KT与查询矩阵Q的非归一化权重矩阵AQT,然后对所述非归一化权重矩阵AQT进行自我相乘以及归一化处理得到多个子矩阵;
平均处理单元,用于对所述多个子矩阵进行平均化处理,再进行归一化处理得到影响矩阵
Figure FDA0002664441310000034
输出单元,用于对所述键矩阵K和查询矩阵Q进行矩阵乘法处理,得到自注意力矩阵A,然后利用所述自注意力矩阵A和影响矩阵
Figure FDA0002664441310000035
计算得到自注意力模块的输出,再根据所述输出对所述用户问句与待匹配的文本进行匹配。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的基于术语增强的文本匹配方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至7任一项所述的基于术语增强的文本匹配方法。
CN202010914259.2A 2020-09-03 2020-09-03 一种文本匹配方法、装置、计算机设备及存储介质 Withdrawn CN112052683A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010914259.2A CN112052683A (zh) 2020-09-03 2020-09-03 一种文本匹配方法、装置、计算机设备及存储介质
PCT/CN2021/091340 WO2022048174A1 (zh) 2020-09-03 2021-04-30 文本匹配方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010914259.2A CN112052683A (zh) 2020-09-03 2020-09-03 一种文本匹配方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN112052683A true CN112052683A (zh) 2020-12-08

Family

ID=73607265

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010914259.2A Withdrawn CN112052683A (zh) 2020-09-03 2020-09-03 一种文本匹配方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN112052683A (zh)
WO (1) WO2022048174A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113515605A (zh) * 2021-05-20 2021-10-19 河南光悦网络科技有限公司 基于人工智能的智能机器人问答方法和智能机器人
CN113836266A (zh) * 2021-09-23 2021-12-24 中国平安人寿保险股份有限公司 基于bert的自然语言处理方法及相关设备
WO2022048174A1 (zh) * 2020-09-03 2022-03-10 平安科技(深圳)有限公司 文本匹配方法、装置、计算机设备及存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114548047B (zh) * 2022-04-25 2022-09-23 阿里巴巴达摩院(杭州)科技有限公司 数据处理方法以及装置、文本处理方法以及装置
CN115935195B (zh) * 2022-11-08 2023-08-08 华院计算技术(上海)股份有限公司 文本匹配方法及装置、计算机可读存储介质、终端
CN116991979B (zh) * 2023-09-27 2023-12-01 中国科学院文献情报中心 一种基于明确语义内容的匹配方法与装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110078148A1 (en) * 2009-09-28 2011-03-31 Fong Chin Lung System, method and apparatus for information retrieval and data representation
CN109146064A (zh) * 2018-09-05 2019-01-04 腾讯科技(深圳)有限公司 神经网络训练方法、装置、计算机设备和存储介质
CN110134967A (zh) * 2019-05-22 2019-08-16 北京金山数字娱乐科技有限公司 文本处理方法、装置、计算设备及计算机可读存储介质
CN110807084A (zh) * 2019-05-15 2020-02-18 北京信息科技大学 一种基于注意力机制的Bi-LSTM和关键词策略的专利术语关系抽取方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8452767B2 (en) * 2006-09-15 2013-05-28 Battelle Memorial Institute Text analysis devices, articles of manufacture, and text analysis methods
CN108763535B (zh) * 2018-05-31 2020-02-07 科大讯飞股份有限公司 信息获取方法及装置
CN110837586B (zh) * 2018-08-15 2023-05-26 阿里巴巴集团控股有限公司 问答匹配方法、系统、服务器及存储介质
CN109766423A (zh) * 2018-12-29 2019-05-17 上海智臻智能网络科技股份有限公司 基于神经网络的问答方法及装置、存储介质、终端
CN110647619B (zh) * 2019-08-01 2023-05-05 中山大学 一种基于问题生成和卷积神经网络的常识问答方法
CN111415740B (zh) * 2020-02-12 2024-04-19 东北大学 问诊信息的处理方法、装置、存储介质及计算机设备
CN112052683A (zh) * 2020-09-03 2020-12-08 平安科技(深圳)有限公司 一种文本匹配方法、装置、计算机设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110078148A1 (en) * 2009-09-28 2011-03-31 Fong Chin Lung System, method and apparatus for information retrieval and data representation
CN109146064A (zh) * 2018-09-05 2019-01-04 腾讯科技(深圳)有限公司 神经网络训练方法、装置、计算机设备和存储介质
CN110807084A (zh) * 2019-05-15 2020-02-18 北京信息科技大学 一种基于注意力机制的Bi-LSTM和关键词策略的专利术语关系抽取方法
CN110134967A (zh) * 2019-05-22 2019-08-16 北京金山数字娱乐科技有限公司 文本处理方法、装置、计算设备及计算机可读存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022048174A1 (zh) * 2020-09-03 2022-03-10 平安科技(深圳)有限公司 文本匹配方法、装置、计算机设备及存储介质
CN113515605A (zh) * 2021-05-20 2021-10-19 河南光悦网络科技有限公司 基于人工智能的智能机器人问答方法和智能机器人
CN113515605B (zh) * 2021-05-20 2023-12-19 中晨田润实业有限公司 基于人工智能的智能机器人问答方法和智能机器人
CN113836266A (zh) * 2021-09-23 2021-12-24 中国平安人寿保险股份有限公司 基于bert的自然语言处理方法及相关设备

Also Published As

Publication number Publication date
WO2022048174A1 (zh) 2022-03-10

Similar Documents

Publication Publication Date Title
CN112052683A (zh) 一种文本匹配方法、装置、计算机设备及存储介质
CN108959246B (zh) 基于改进的注意力机制的答案选择方法、装置和电子设备
CN108170684B (zh) 文本相似度计算方法及系统、数据查询系统和计算机产品
CN110750649A (zh) 知识图谱构建及智能应答方法、装置、设备及存储介质
CN111159343A (zh) 基于文本嵌入的文本相似性搜索方法、装置、设备和介质
US8996443B2 (en) System and method for composite distance metric leveraging multiple expert judgments
CN110781298A (zh) 药品分类方法、装置、计算机设备及存储介质
CN113239169A (zh) 基于人工智能的回答生成方法、装置、设备及存储介质
CN111145913B (zh) 基于多重注意力模型的分类方法、装置及设备
WO2021000391A1 (zh) 文本智能化清洗方法、装置及计算机可读存储介质
CN113158687B (zh) 语义的消歧方法及装置、存储介质、电子装置
CN114676704A (zh) 句子情感分析方法、装置、设备以及存储介质
CN114329029B (zh) 对象检索方法、装置、设备及计算机存储介质
US20190384809A1 (en) Methods and systems for providing universal portability in machine learning
CN115269882A (zh) 基于语义理解的知识产权检索系统及其方法
CN111737406A (zh) 文本检索方法、装置及设备、文本检索模型的训练方法
CN113761124B (zh) 文本编码模型的训练方法、信息检索方法及设备
CN113535912A (zh) 基于图卷积网络和注意力机制的文本关联方法及相关设备
CN110555099B (zh) 计算机执行的、利用神经网络进行语言处理的方法及装置
CN112800217A (zh) 基于向量关联性矩阵的政务事务处理报告的智能评估方法
CN114398883B (zh) 演示文稿生成方法、装置、计算机可读存储介质及服务器
CN116028722A (zh) 一种基于词向量的岗位推荐方法、装置及计算机设备
CN113239219B (zh) 一种基于多模态查询的图像检索方法、系统、介质及设备
CN113868291A (zh) 一种最近邻搜索方法、装置、终端和存储介质
CN112148902A (zh) 数据处理方法、装置、服务器及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20201208