CN113342940B - 文本匹配分析方法、装置、电子设备及存储介质 - Google Patents

文本匹配分析方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113342940B
CN113342940B CN202110706501.1A CN202110706501A CN113342940B CN 113342940 B CN113342940 B CN 113342940B CN 202110706501 A CN202110706501 A CN 202110706501A CN 113342940 B CN113342940 B CN 113342940B
Authority
CN
China
Prior art keywords
text
vector
word
query
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110706501.1A
Other languages
English (en)
Other versions
CN113342940A (zh
Inventor
张炜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN202110706501.1A priority Critical patent/CN113342940B/zh
Publication of CN113342940A publication Critical patent/CN113342940A/zh
Application granted granted Critical
Publication of CN113342940B publication Critical patent/CN113342940B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及人工智能技术领域,提供一种文本匹配分析方法、装置、电子设备及存储介质,所述方法包括:将查询文本输入至预设的第一BERT模型中,得到查询向量,及将结果文本集输入至预设的第二BERT模型中,得到每个结果文本的多个词向量;根据查询向量和每个结果文本的每个词向量计算对应词的注意力权重;根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到第一文本向量;拼接查询向量和每个结果文本的第一文本向量得到第二文本向量,并输入至全连接层,确定查询文本和每个结果文本的匹配值。本发明基于查询向量对结果文本中的词向量进行加权,能够更加准确得到每个词的加权词向量,提高了文本匹配分析的准确性。

Description

文本匹配分析方法、装置、电子设备及存储介质
技术领域
本发明涉及人工智能技术领域,具体涉及一种文本匹配分析方法、装置、电子设备及存储介质。
背景技术
在人工智能领域,对文本进行文本分析时,特别是进行文本匹配分析,通过需要预先对文本的对应的向量进行处理,得到处理后的特征向量,基于处理后的特征向量计算文本的匹配度,进而确认文本是否匹配,然而,现有的文本匹配算法主要考虑查询词频和逆文档频率,未考虑到文本中词的顺序和上下文,引起潜在语义的丢失,导致文本匹配分析准确率低,匹配文本效果较差。
发明内容
鉴于以上内容,有必要提出一种文本匹配分析方法、装置、电子设备及存储介质,基于查询向量对结果文本中的词向量进行加权,能够更加准确得到每个词的加权词向量,提高了文本匹配分析的准确性。
本发明的第一方面提供一种文本匹配分析方法,所述方法包括:
获取查询文本和所述查询文本对应的结果文本集;
将所述查询文本输入至预设的第一BERT模型中,得到查询向量,及将所述结果文本集输入至预设的第二BERT模型中,得到每个结果文本的多个词向量;
根据所述查询向量和每个结果文本的每个词向量计算对应词的注意力权重;
根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到每个结果文本的第一文本向量;
拼接所述查询向量和每个结果文本的第一文本向量得到第二文本向量,并将所述第二文本向量输入至全连接层,确定所述查询文本和每个结果文本的匹配值。
可选地,所述根据所述查询向量和每个结果文本的每个词向量计算对应词的注意力权重包括:
计算所述查询向量与每个结果文本的每个词向量之间的点积,得到每个结果文本的每个词向量的第一乘积;
计算所述查询向量的模与每个结果文本的每个词向量的模之间的乘积,得到每个结果文本的每个词向量的第二乘积;
计算所述第一乘积和所述第二乘积的商数,将所述商数确定为所述查询向量与每个结果文本的每个词向量之间的相似度;
对所述查询向量与每个结果文本的每个词向量之间的相似度进行归一化处理,得到每个结果文本的每个词的注意力权重。
可选地,所述将所述查询文本输入至预设的第一BERT模型中,得到查询向量包括:
识别所述预设的第一BERT模型中的预设的输入长度阈值;
将所述查询文本的长度与所述预设的输入长度阈值进行比较;
当所述查询文本的长度小于所述预设的输入长度阈值时,填充所述查询文本得到新的查询文本;
将所述新的查询文本按照预设的词嵌入算法转换为词向量,并对所述词向量进行编码,得到查询向量。
可选地,所述根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到每个结果文本的第一文本向量包括:
计算每个结果文本的每个词的注意力权重与对应词的词向量之间的乘积,得到每个结果文本的每个词的加权词向量;
计算每个结果文件中的多个词的加权词向量之和,得到所述每个结果文本的第一文本向量。
可选地,所述将所述第二文本向量输入至全连接层,确定所述查询文本和每个结果文本的匹配值包括:
为所述第二文本向量中的每个词创建Query向量、Key向量及Value向量;
将每个词创建的Query向量、Key向量及所述Value向量输入至全连接层中,计算每个词的Query向量与对应词的Key向量之间的乘积,得到每个词的第一分值;
计算每个词向量的Query向量与所述第二文本向量中的其余词的Key向量之间的乘积,得到每个词的多个第二分值;
计算所述每个词第一分值与所述每个词的多个第二分值之和,得到每个词的第三分值;
识别每个词的Key向量的维度,对所述维度进行开方运算,得到每个词的维度系数;
计算所述每个词的第三分值与所述每个词的维度系数的商数,将所述商数确定为每个词的匹配值;
计算所述多个词的匹配值之和,确定为所述查询文本和每个结果文本的匹配值。
可选地,所述为所述第二文本向量中的每个词创建Query向量、Key向量及Value向量包括:
获取预设的Query向量的注意力权重矩阵、预设的Key向量的注意力权重矩阵及预设的Value向量的注意力权重矩阵,其中,所述预设的Query向量的注意力权重矩阵、预设的Key向量的注意力权重矩阵及预设的Value向量的注意力权重矩阵尺寸相同;
计算所述第二文本向量中的每个词与预设的Query向量的注意力权重矩阵之间的乘积,得到每个词的Query向量,及计算所述第二文本向量中的每个词与预设的Key向量的注意力权重矩阵之间的乘积,得到每个词的Query向量,及计算所述第二文本向量中的每个词与预设的Value向量的注意力权重矩阵之间的乘积,得到每个词的Value向量。
可选地,所述方法还包括:
将所述查询文本和每个结果文本之间的匹配值经过Softmax层映射为概率,从所述概率中选取概率最大的结果文本,确定为所述查询文本的目标结果文本。
本发明的第二方面提供一种文本匹配分析装置,所述装置包括:
获取模块,用于获取查询文本和所述查询文本对应的结果文本集;
输入模块,用于将所述查询文本输入至预设的第一BERT模型中,得到查询向量,及将所述结果文本集输入至预设的第二BERT模型中,得到每个结果文本的多个词向量;
计算模块,用于根据所述查询向量和每个结果文本的每个词向量计算对应词的注意力权重;
加权求和模块,用于根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到每个结果文本的第一文本向量;
确定模块,用于拼接所述查询向量和每个结果文本的第一文本向量得到第二文本向量,并将所述第二文本向量输入至全连接层,确定所述查询文本和每个结果文本的匹配值。
本发明的第三方面提供一种电子设备,所述电子设备包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现所述的文本匹配分析方法。
本发明的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述的文本匹配分析方法。
综上所述,本发明所述的文本匹配分析方法、装置、电子设备及存储介质,一方面,根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到每个结果文本的第一文本向量,通过基于查询向量对结果文本中的词向量进行加权,能够更加准确的得到每个词的加权词向量,从而更加准确的得到每个结果文本的特征向量,进而提高后续的文本匹配分析过程中分析结果的准确性;另一方面,根据所述查询向量和每个结果文本的每个词向量计算对应词的注意力权重,所述每个词的注意力权重是基于查询向量和每个结果文本的每个词向量计算得到的,使用的是一种外部注意力加权机制,提高了计算得到的每个词的注意力权重的准确率;最后,将所述查询文本输入至预设的第一BERT模型中,得到查询向量,及将所述结果文本集输入至预设的第二BERT模型中,得到每个结果文本的多个词向量,考虑到了文本中词的顺序和上下文,避免了潜在语义信息的丢失,提高了查询向量和每个结果文本的多个词向量的完整性。
附图说明
图1是本发明实施例一提供的文本匹配分析方法的流程图。
图2是本发明实施例二提供的文本匹配分析装置的结构图。
图3是本发明实施例三提供的电子设备的结构示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
实施例一
图1是本发明实施例一提供的文本匹配分析方法的流程图。
在本实施例中,所述文本匹配分析方法可以应用于电子设备中,对于需要进行文本匹配分析的电子设备,可以直接在电子设备上集成本发明的方法所提供的文本匹配分析的功能,或者以软件开发工具包(Software Development Kit,SDK)的形式运行在电子设备中。
如图1所示,所述文本匹配分析方法具体包括以下步骤,根据不同的需求,该流程图中步骤的顺序可以改变,某些可以省略。
S11,获取查询文本和所述查询文本对应的结果文本集。
本实施例中,所述查询文本包括待匹配结果的问题,根据所述查询文本从预设的数据库中获取对应的结果文本集,具体地,所述结果文本集中包含有一个或者多个结果文本。
S12,将所述查询文本输入至预设的第一BERT模型中,得到查询向量,及将所述结果文本集输入至预设的第二BERT模型中,得到每个结果文本的多个词向量。
本实施例中,BERT(Bidirectional Encoder Representations fromTransformers,来自Transformer的双向编码器表征)是一个预训练模型,在处理一个词的时候,能考虑到该词前面和后面单词的信息,从而获取上下文的语义。
在一个可选的实施例中,可以从Google提供的多种预训练好的BERT模型中选取BERT(base)作为文本匹配的预训练模型,本实施例可以预先设置第一BERT模型和第二BERT模型。
在一个可选的实施例中,所述将所述查询文本输入至预设的第一BERT模型中,得到查询向量包括:
识别所述预设的第一BERT模型中的预设的输入长度阈值;
将所述查询文本的长度与所述预设的输入长度阈值进行比较;
当所述查询文本的长度小于所述预设的输入长度阈值时,填充所述查询文本得到新的查询文本;
将所述新的查询文本按照预设的词嵌入算法转换为词向量,并对所述词向量进行编码,得到查询向量。
本实施例中,所述第一BERT(base)模型中包含有编码层(Transformer),由于在编码层(Transformer)进行编码时,为了确保输入至第一BERT模型中的长度一致性,需要识别所述第一BERT模型中的预设的输入长度阈值,当所述查询文本的长度小于所述预设的输入长度阈值时,填充所述查询文本得到新的查询文本,具体地,可以采用Padding填充,采用预设的词嵌入算法将所述查询文本中的每个词与句子中任意词之间产生关系,并将上述关系集成到词嵌入向量中,同时Transformer层在输入端将位置信息进行编码保留输入词与句子中任意词之间的相对位置关系,最终输出查询向量。在一个可选的实施例中,将所述结果文本集输入至预设的第二BERT模型中,将所述结果文本集转换为第二BERT模型的输入的编码向量,将所述输入的编码向量输入至所述第二BERT模型中,在第二BERT模型的Transformer层进行编码,可以提取所述结果文本集中的每个句子特征和每个词特征,并对每个句子特征和每个词特征进行向量转换得到每个结果文本的多个词向量。
本实施例中,通过将所述查询文本输入至预设的第一BERT模型中,及将所述结果文本集输入至预设的第二BERT模型中,考虑到了文本中词的顺序和上下文,避免了潜在语义信息的丢失,提高了查询向量和每个结果文本的多个词向量的完整性。
S13,根据所述查询向量和每个结果文本的每个词向量计算对应词的注意力权重。
本实施例中,每个词的注意力权重用于表针每个词在对应的结果文本中的重要程度。
在一个可选的实施例中,所述根据所述查询向量和每个结果文本的每个词向量计算对应词的注意力权重包括:
计算所述查询向量与每个结果文本的每个词向量之间的点积,得到每个结果文本的每个词向量的第一乘积;
计算所述查询向量的模与每个结果文本的每个词向量的模之间的乘积,得到每个结果文本的每个词向量的第二乘积;
计算所述第一乘积和所述第二乘积的商数,将所述商数确定为所述查询向量与每个结果文本的每个词向量之间的相似度;
对所述查询向量与每个结果文本的每个词向量之间的相似度进行归一化处理,得到每个结果文本的每个词的注意力权重。
本实施例中,通过根据所述查询文本和每个结果文本的每个词向量计算对应词的注意力权重,确定出每个词在对应的结果文本中的重要性,本实施例所述的每个词的注意力权重是基于查询向量和每个结果文本的每个词向量计算得到的,使用的是一种外部注意力加权机制,提高了计算得到的每个词的注意力权重的准确率。
S14,根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到每个结果文本的第一文本向量。
本实施例中,通过每个词的加权系数对所述结果文本集中的每个词向量进行加权,得到每个词的加权词向量,并对所述结果文本集中的每个结果文本进行加权求和,得到每个所述结果文本的第一文本向量,在后续的匹配度计算过程中,会考虑根据每个词的重要性进行计算。
在一个可选的实施例中,所述根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到每个结果文本的第一文本向量包括:
计算每个结果文本的每个词的注意力权重与对应词的词向量之间的乘积,得到每个结果文本的每个词的加权词向量;
计算每个结果文件中的多个词的加权词向量之和,得到所述每个结果文本的第一文本向量。
本实施例中,由于每个结果文本的每个词的注意力权重是基于查询向量对结果文本中的词向量进行加权,进而求和得到每个结果文本中的文本向量,本案基于查询向量对结果文本中的词向量进行加权,能够更加准确的得到每个词的加权词向量,从而更加准确的得到每个结果文本的特征向量,进而提高后续的文本匹配分析过程中分析结果的准确性。
S15,拼接所述查询向量和每个结果文本的第一文本向量得到第二文本向量,并将所述第二文本向量输入至全连接层,确定所述查询文本和每个结果文本的匹配值。
本实施例中,所述匹配值用以表征所述查询文本和所述结果文本集中的每个结果文本之间的关联度,匹配值越大,确定所述查询文本和所述结果文本之间的相似度较高;匹配值越小,确定所述查询文本和所述结果文本之间相似度较低。
在一个可选的实施例中,所述拼接所述查询向量和每个结果文本的第一文本向量得到第二文本向量包括:
采用横向拼接的方式拼接所述查询向量和每个结果文本的第一文本向量。
本实施例中,通过采用横向拼接的方式可以确保每个结果文本的第一文本向量都是一维的,避免后续出现第一文本向量维度与查询向量维度不一致的现象,导致无法得到的第二文本向量,或者得到错误的第二文本向量。
示例性地,将查询文本输入至预设的第一BERT模型中,经过第一BERT模型的Transformer层得到N维向量;将结果文本集输入至预设的第二BERT模型中,经过第二BERT模型的Transformer层得到M维向量。对结果文本中的每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,例如,每个结果文本中包含两个词A和B,其中A的加权词向量为P维向量,B的加权词向量为Q维向量,因此,将A和B的加权词向量合并之后,即形成一个P+Q维的第一文本向量,第一文本向量中的元素是A和B的加权词向量中的元素,拼接查询向量和第一文本向量,即得到一个P+Q+N的第二文本向量,通过对所述查询向量和每个结果文本的第一文本向量进行拼接,形成一个具有更高维度的合并向量,即第二文本向量。
在一个可选的实施例中,所述将所述第二文本向量输入至全连接层,确定所述查询文本和每个结果文本的匹配值包括:
为所述第二文本向量中的每个词创建Query向量、Key向量及Value向量;
将每个词创建的Query向量、Key向量及所述Value向量输入至全连接层中,计算每个词的Query向量与对应词的Key向量之间的乘积,得到每个词的第一分值;
计算每个词向量的Query向量与所述第二文本向量中的其余词的Key向量之间的乘积,得到每个词的多个第二分值;
计算所述每个词第一分值与所述每个词的多个第二分值之和,得到每个词的第三分值;
识别每个词的Key向量的维度,对所述维度进行开方运算,得到每个词的维度系数;
计算所述每个词的第三分值与所述每个词的维度系数的商数,将所述商数确定为每个词的匹配值;
计算所述多个词的匹配值之和,确定为所述查询文本和每个结果文本的匹配值。
本实施例中,将更高维度的第二文本向量输入至全连接层进行匹配值计算,由于第二文本向量中包含有加权求和后的结果文本的第一文本向量和查询向量,确保第二文本向量的完整性,进而提高了匹配值的准确率。
进一步地,所述为所述第二文本向量中的每个词创建Query向量、Key向量及Value向量包括:
获取预设的Query向量的注意力权重矩阵、预设的Key向量的注意力权重矩阵及预设的Value向量的注意力权重矩阵,其中,所述预设的Query向量的注意力权重矩阵、预设的Key向量的注意力权重矩阵及预设的Value向量的注意力权重矩阵尺寸相同;
计算所述第二文本向量中的每个词与预设的Query向量的注意力权重矩阵之间的乘积,得到每个词的Query向量,及计算所述第二文本向量中的每个词与预设的Key向量的注意力权重矩阵之间的乘积,得到每个词的Query向量,及计算所述第二文本向量中的每个词与预设的Value向量的注意力权重矩阵之间的乘积,得到每个词的Value向量。
本实施例中,在计算所述查询文本和每个结果文本之间的匹配值时,需要为每个编码器的输入的词向量生成三个向量,即Query向量、Key向量及Value向量,具体地,可以预先设置三个尺寸相同的注意力权重矩阵,并将每个词向量与所述三个尺寸相同的注意力权重矩阵分别相乘,得到每个词的Query向量、Key向量及Value向量。
本实施例中,在得到每个词的Query向量、Key向量及Value向量,通过每个词的Query向量和Key向量计算所述查询文本和每个结果文本的匹配值,即自注意力得分。
进一步地,所述方法还包括:
将所述查询文本和每个结果文本之间的匹配值经过Softmax层映射为概率,从所述概率中选取概率最大的结果文本,确定为所述查询文本的目标结果文本。
本实施例中,将所述查询向量和每个结果文本之间的匹配值通过softmax层映射为每个结果文本对应的概率,具体地,所述softmax就是将每个所述结果文本归一化为(0,1)之间的值。
本实施例中,通过softmax层映射为每个结果文本对应的概率,并从所述概率中选取最大的结果文本作为所述查询结果对应的目标结果文本,提高了获得查询文本的目标结果文本的准确度。
综上所述,本实施例所述的文本匹配分析方法,一方面,根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到每个结果文本的第一文本向量,通过基于查询向量对结果文本中的词向量进行加权,能够更加准确的得到每个词的加权词向量,从而更加准确的得到每个结果文本的特征向量,进而提高后续的文本匹配分析过程中分析结果的准确性;另一方面,根据所述查询向量和每个结果文本的每个词向量计算对应词的注意力权重,所述每个词的注意力权重是基于查询向量和每个结果文本的每个词向量计算得到的,使用的是一种外部注意力加权机制,提高了计算得到的每个词的注意力权重的准确率;最后,将所述查询文本输入至预设的第一BERT模型中,得到查询向量,及将所述结果文本集输入至预设的第二BERT模型中,得到每个结果文本的多个词向量,考虑到了文本中词的顺序和上下文,避免了潜在语义信息的丢失,提高了查询向量和每个结果文本的多个词向量的完整性。
实施例二
图2是本发明实施例二提供的文本匹配分析装置的结构图。
在一些实施例中,所述文本匹配分析装置20可以包括多个由程序代码段所组成的功能模块。所述文本匹配分析装置20中的各个程序段的程序代码可以存储于电子设备的存储器中,并由所述至少一个处理器所执行,以执行(详见图1描述)文本匹配分析的功能。
本实施例中,所述文本匹配分析装置20根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:获取模块201、输入模块202、计算模块203、加权求和模块204及确定模块205。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在本实施例中,关于各模块的功能将在后续的实施例中详述。
获取模块201,用于获取查询文本和所述查询文本对应的结果文本集。
本实施例中,所述查询文本包括待匹配结果的问题,根据所述查询文本从预设的数据库中获取对应的结果文本集,具体地,所述结果文本集中包含有一个或者多个结果文本。
输入模块202,用于将所述查询文本输入至预设的第一BERT模型中,得到查询向量,及将所述结果文本集输入至预设的第二BERT模型中,得到每个结果文本的多个词向量。
本实施例中,BERT(Bidirectional Encoder Representations fromTransformers,来自Transformer的双向编码器表征)是一个预训练模型,在处理一个词的时候,能考虑到该词前面和后面单词的信息,从而获取上下文的语义。
在一个可选的实施例中,可以从Google提供的多种预训练好的BERT模型中选取BERT(base)作为文本匹配的预训练模型,本实施例可以预先设置第一BERT模型和第二BERT模型。
在一个可选的实施例中,所述输入模块202将所述查询文本输入至预设的第一BERT模型中,得到查询向量包括:
识别所述预设的第一BERT模型中的预设的输入长度阈值;
将所述查询文本的长度与所述预设的输入长度阈值进行比较;
当所述查询文本的长度小于所述预设的输入长度阈值时,填充所述查询文本得到新的查询文本;
将所述新的查询文本按照预设的词嵌入算法转换为词向量,并对所述词向量进行编码,得到查询向量。
本实施例中,所述第一BERT(base)模型中包含有编码层(Transformer),由于在编码层(Transformer)进行编码时,为了确保输入至第一BERT模型中的长度一致性,需要识别所述第一BERT模型中的预设的输入长度阈值,当所述查询文本的长度小于所述预设的输入长度阈值时,填充所述查询文本得到新的查询文本,具体地,可以采用Padding填充,采用预设的词嵌入算法将所述查询文本中的每个词与句子中任意词之间产生关系,并将上述关系集成到词嵌入向量中,同时Transformer层在输入端将位置信息进行编码保留输入词与句子中任意词之间的相对位置关系,最终输出查询向量。在一个可选的实施例中,将所述结果文本集输入至预设的第二BERT模型中,将所述结果文本集转换为第二BERT模型的输入的编码向量,将所述输入的编码向量输入至所述第二BERT模型中,在第二BERT模型的Transformer层进行编码,可以提取所述结果文本集中的每个句子特征和每个词特征,并对每个句子特征和每个词特征进行向量转换得到每个结果文本的多个词向量。
本实施例中,通过将所述查询文本输入至预设的第一BERT模型中,及将所述结果文本集输入至预设的第二BERT模型中,考虑到了文本中词的顺序和上下文,避免了潜在语义信息的丢失,提高了查询向量和每个结果文本的多个词向量的完整性。
计算模块203,用于根据所述查询向量和每个结果文本的每个词向量计算对应词的注意力权重。
本实施例中,每个词的注意力权重用于表针每个词在对应的结果文本中的重要程度。
在一个可选的实施例中,所述计算模块203根据所述查询向量和每个结果文本的每个词向量计算对应词的注意力权重包括:
计算所述查询向量与每个结果文本的每个词向量之间的点积,得到每个结果文本的每个词向量的第一乘积;
计算所述查询向量的模与每个结果文本的每个词向量的模之间的乘积,得到每个结果文本的每个词向量的第二乘积;
计算所述第一乘积和所述第二乘积的商数,将所述商数确定为所述查询向量与每个结果文本的每个词向量之间的相似度;
对所述查询向量与每个结果文本的每个词向量之间的相似度进行归一化处理,得到每个结果文本的每个词的注意力权重。
本实施例中,通过根据所述查询文本和每个结果文本的每个词向量计算对应词的注意力权重,确定出每个词在对应的结果文本中的重要性,本实施例所述的每个词的注意力权重是基于查询向量和每个结果文本的每个词向量计算得到的,使用的是一种外部注意力加权机制,提高了计算得到的每个词的注意力权重的准确率。
加权求和模块204,用于根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到每个结果文本的第一文本向量。
本实施例中,通过每个词的加权系数对所述结果文本集中的每个词向量进行加权,得到每个词的加权词向量,并对所述结果文本集中的每个结果文本进行加权求和,得到每个所述结果文本的第一文本向量,在后续的匹配度计算过程中,会考虑根据每个词的重要性进行计算。
在一个可选的实施例中,所述加权求和模块204根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到每个结果文本的第一文本向量包括:
计算每个结果文本的每个词的注意力权重与对应词的词向量之间的乘积,得到每个结果文本的每个词的加权词向量;
计算每个结果文件中的多个词的加权词向量之和,得到所述每个结果文本的第一文本向量。
本实施例中,由于每个结果文本的每个词的注意力权重是基于查询向量对结果文本中的词向量进行加权,进而求和得到每个结果文本中的文本向量,本案基于查询向量对结果文本中的词向量进行加权,能够更加准确的得到每个词的加权词向量,从而更加准确的得到每个结果文本的特征向量,进而提高后续的文本匹配分析过程中分析结果的准确性。
确定模块205,用于拼接所述查询向量和每个结果文本的第一文本向量得到第二文本向量,并将所述第二文本向量输入至全连接层,确定所述查询文本和每个结果文本的匹配值。
本实施例中,所述匹配值用以表征所述查询文本和所述结果文本集中的每个结果文本之间的关联度,匹配值越大,确定所述查询文本和所述结果文本之间的相似度较高;匹配值越小,确定所述查询文本和所述结果文本之间相似度较低。
在一个可选的实施例中,所述确定模块205拼接所述查询向量和每个结果文本的第一文本向量得到第二文本向量包括:
采用横向拼接的方式拼接所述查询向量和每个结果文本的第一文本向量。
本实施例中,通过采用横向拼接的方式可以确保每个结果文本的第一文本向量都是一维的,避免后续出现第一文本向量维度与查询向量维度不一致的现象,导致无法得到的第二文本向量,或者得到错误的第二文本向量。
示例性地,将查询文本输入至预设的第一BERT模型中,经过第一BERT模型的Transformer层得到N维向量;将结果文本集输入至预设的第二BERT模型中,经过第二BERT模型的Transformer层得到M维向量。对结果文本中的每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,例如,每个结果文本中包含两个词A和B,其中A的加权词向量为P维向量,B的加权词向量为Q维向量,因此,将A和B的加权词向量合并之后,即形成一个P+Q维的第一文本向量,第一文本向量中的元素是A和B的加权词向量中的元素,拼接查询向量和第一文本向量,即得到一个P+Q+N的第二文本向量,通过对所述查询向量和每个结果文本的第一文本向量进行拼接,形成一个具有更高维度的合并向量,即第二文本向量。
在一个可选的实施例中,所述确定模块205将所述第二文本向量输入至全连接层,确定所述查询文本和每个结果文本的匹配值包括:
为所述第二文本向量中的每个词创建Query向量、Key向量及Value向量;
将每个词创建的Query向量、Key向量及所述Value向量输入至全连接层中,计算每个词的Query向量与对应词的Key向量之间的乘积,得到每个词的第一分值;
计算每个词向量的Query向量与所述第二文本向量中的其余词的Key向量之间的乘积,得到每个词的多个第二分值;
计算所述每个词第一分值与所述每个词的多个第二分值之和,得到每个词的第三分值;
识别每个词的Key向量的维度,对所述维度进行开方运算,得到每个词的维度系数;
计算所述每个词的第三分值与所述每个词的维度系数的商数,将所述商数确定为每个词的匹配值;
计算所述多个词的匹配值之和,确定为所述查询文本和每个结果文本的匹配值。
本实施例中,将更高维度的第二文本向量输入至全连接层进行匹配值计算,由于第二文本向量中包含有加权求和后的结果文本的第一文本向量和查询向量,确保第二文本向量的完整性,进而提高了匹配值的准确率。
进一步地,所述为所述第二文本向量中的每个词创建Query向量、Key向量及Value向量包括:
获取预设的Query向量的注意力权重矩阵、预设的Key向量的注意力权重矩阵及预设的Value向量的注意力权重矩阵,其中,所述预设的Query向量的注意力权重矩阵、预设的Key向量的注意力权重矩阵及预设的Value向量的注意力权重矩阵尺寸相同;
计算所述第二文本向量中的每个词与预设的Query向量的注意力权重矩阵之间的乘积,得到每个词的Query向量,及计算所述第二文本向量中的每个词与预设的Key向量的注意力权重矩阵之间的乘积,得到每个词的Query向量,及计算所述第二文本向量中的每个词与预设的Value向量的注意力权重矩阵之间的乘积,得到每个词的Value向量。
本实施例中,在计算所述查询文本和每个结果文本之间的匹配值时,需要为每个编码器的输入的词向量生成三个向量,即Query向量、Key向量及Value向量,具体地,可以预先设置三个尺寸相同的注意力权重矩阵,并将每个词向量与所述三个尺寸相同的注意力权重矩阵分别相乘,得到每个词的Query向量、Key向量及Value向量。
本实施例中,在得到每个词的Query向量、Key向量及Value向量,通过每个词的Query向量和Key向量计算所述查询文本和每个结果文本的匹配值,即自注意力得分。
进一步地,所述确定模块205,还用于将所述查询文本和每个结果文本之间的匹配值经过Softmax层映射为概率,从所述概率中选取概率最大的结果文本,确定为所述查询文本的目标结果文本。
本实施例中,将所述查询向量和每个结果文本之间的匹配值通过softmax层映射为每个结果文本对应的概率,具体地,所述softmax就是将每个所述结果文本归一化为(0,1)之间的值。
本实施例中,通过softmax层映射为每个结果文本对应的概率,并从所述概率中选取最大的结果文本作为所述查询结果对应的目标结果文本,提高了获得查询文本的目标结果文本的准确度。
综上所述,本实施例所述的文本匹配分析装置,一方面,根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到每个结果文本的第一文本向量,通过基于查询向量对结果文本中的词向量进行加权,能够更加准确的得到每个词的加权词向量,从而更加准确的得到每个结果文本的特征向量,进而提高后续的文本匹配分析过程中分析结果的准确性;另一方面,根据所述查询向量和每个结果文本的每个词向量计算对应词的注意力权重,所述每个词的注意力权重是基于查询向量和每个结果文本的每个词向量计算得到的,使用的是一种外部注意力加权机制,提高了计算得到的每个词的注意力权重的准确率;最后,将所述查询文本输入至预设的第一BERT模型中,得到查询向量,及将所述结果文本集输入至预设的第二BERT模型中,得到每个结果文本的多个词向量,考虑到了文本中词的顺序和上下文,避免了潜在语义信息的丢失,提高了查询向量和每个结果文本的多个词向量的完整性。
实施例三
参阅图3所示,为本发明实施例三提供的电子设备的结构示意图。在本发明较佳实施例中,所述电子设备3包括存储器31、至少一个处理器32、至少一条通信总线33及收发器34。
本领域技术人员应该了解,图3示出的电子设备的结构并不构成本发明实施例的限定,既可以是总线型结构,也可以是星形结构,所述电子设备3还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置。
在一些实施例中,所述电子设备3是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的电子设备,其硬件包括但不限于微处理器、专用集成电路、可编程门阵列、数字处理器及嵌入式设备等。所述电子设备3还可包括客户设备,所述客户设备包括但不限于任何一种可与客户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、数码相机等。
需要说明的是,所述电子设备3仅为举例,其他现有的或今后可能出现的电子产品如可适应于本发明,也应包含在本发明的保护范围以内,并以引用方式包含于此。
在一些实施例中,所述存储器31用于存储程序代码和各种数据,例如安装在所述电子设备3中的文本匹配分析装置20,并在电子设备3的运行过程中实现高速、自动地完成程序或数据的存取。所述存储器31包括只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(ErasableProgrammable Read-Only Memory,EPROM)、一次可编程只读存储器(One-timeProgrammable Read-Only Memory,OTPROM)、电子擦除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
在一些实施例中,所述至少一个处理器32可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述至少一个处理器32是所述电子设备3的控制核心(Control Unit),利用各种接口和线路连接整个电子设备3的各个部件,通过运行或执行存储在所述存储器31内的程序或者模块,以及调用存储在所述存储器31内的数据,以执行电子设备3的各种功能和处理数据。
在一些实施例中,所述至少一条通信总线33被设置为实现所述存储器31以及所述至少一个处理器32等之间的连接通信。
尽管未示出,所述电子设备3还可以包括给各个部件供电的电源(比如电池),可选的,电源可以通过电源管理装置与所述至少一个处理器32逻辑相连,从而通过电源管理装置实现管理充电、放电、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备3还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,电子设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分。
在进一步的实施例中,结合图2,所述至少一个处理器32可执行所述电子设备3的操作装置以及安装的各类应用程序(如所述的文本匹配分析装置20)、程序代码等,例如,上述的各个模块。
所述存储器31中存储有程序代码,且所述至少一个处理器32可调用所述存储器31中存储的程序代码以执行相关的功能。例如,图2中所述的各个模块是存储在所述存储器31中的程序代码,并由所述至少一个处理器32所执行,从而实现所述各个模块的功能以达到文本匹配分析的目的。
在本发明的一个实施例中,所述存储器31存储多个指令,所述多个指令被所述至少一个处理器32所执行以实现文本匹配分析的功能。
具体地,所述至少一个处理器32对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,既可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或,单数不排除复数。本发明中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (9)

1.一种文本匹配分析方法,其特征在于,所述方法包括:
获取查询文本和所述查询文本对应的结果文本集;
将所述查询文本输入至预设的第一BERT模型中,得到查询向量,及将所述结果文本集输入至预设的第二BERT模型中,得到每个结果文本的多个词向量;
根据所述查询向量和每个结果文本的每个词向量计算对应词的注意力权重,包括:计算所述查询向量与每个结果文本的每个词向量之间的点积,得到每个结果文本的每个词向量的第一乘积;计算所述查询向量的模与每个结果文本的每个词向量的模之间的乘积,得到每个结果文本的每个词向量的第二乘积;计算所述第一乘积和所述第二乘积的商数,将所述商数确定为所述查询向量与每个结果文本的每个词向量之间的相似度;对所述查询向量与每个结果文本的每个词向量之间的相似度进行归一化处理,得到每个结果文本的每个词的注意力权重;
根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到每个结果文本的第一文本向量;
拼接所述查询向量和每个结果文本的第一文本向量得到第二文本向量,并将所述第二文本向量输入至全连接层,确定所述查询文本和每个结果文本的匹配值。
2.如权利要求1所述的文本匹配分析方法,其特征在于,所述将所述查询文本输入至预设的第一BERT模型中,得到查询向量包括:
识别所述预设的第一BERT模型中的预设的输入长度阈值;
将所述查询文本的长度与所述预设的输入长度阈值进行比较;
当所述查询文本的长度小于所述预设的输入长度阈值时,填充所述查询文本得到新的查询文本;
将所述新的查询文本按照预设的词嵌入算法转换为词向量,并对所述词向量进行编码,得到查询向量。
3.如权利要求1所述的文本匹配分析方法,其特征在于,所述根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到每个结果文本的第一文本向量包括:
计算每个结果文本的每个词的注意力权重与对应词的词向量之间的乘积,得到每个结果文本的每个词的加权词向量;
计算每个结果文件中的多个词的加权词向量之和,得到所述每个结果文本的第一文本向量。
4.如权利要求1所述的文本匹配分析方法,其特征在于,所述将所述第二文本向量输入至全连接层,确定所述查询文本和每个结果文本的匹配值包括:
为所述第二文本向量中的每个词创建Query向量、Key向量及Value向量;
将每个词创建的Query向量、Key向量及所述Value向量输入至全连接层中,计算每个词的Query向量与对应词的Key向量之间的乘积,得到每个词的第一分值;
计算每个词向量的Query向量与所述第二文本向量中的其余词的Key向量之间的乘积,得到每个词的多个第二分值;
计算所述每个词第一分值与所述每个词的多个第二分值之和,得到每个词的第三分值;
识别每个词的Key向量的维度,对所述维度进行开方运算,得到每个词的维度系数;
计算所述每个词的第三分值与所述每个词的维度系数的商数,将所述商数确定为每个词的匹配值;
计算多个词的匹配值之和,确定为所述查询文本和每个结果文本的匹配值。
5.如权利要求4所述的文本匹配分析方法,其特征在于,所述为所述第二文本向量中的每个词创建Query向量、Key向量及Value向量包括:
获取预设的Query向量的注意力权重矩阵、预设的Key向量的注意力权重矩阵及预设的Value向量的注意力权重矩阵,其中,所述预设的Query向量的注意力权重矩阵、预设的Key向量的注意力权重矩阵及预设的Value向量的注意力权重矩阵尺寸相同;
计算所述第二文本向量中的每个词与预设的Query向量的注意力权重矩阵之间的乘积,得到每个词的Query向量,及计算所述第二文本向量中的每个词与预设的Key向量的注意力权重矩阵之间的乘积,得到每个词的Key向量,及计算所述第二文本向量中的每个词与预设的Value向量的注意力权重矩阵之间的乘积,得到每个词的Value向量。
6.如权利要求5所述的文本匹配分析方法,其特征在于,所述方法还包括:
将所述查询文本和每个结果文本之间的匹配值经过Softmax层映射为概率,从所述概率中选取概率最大的结果文本,确定为所述查询文本的目标结果文本。
7.一种文本匹配分析装置,其特征在于,所述装置用于实现如权利要求1至6中任意一项所述的文本匹配分析方法,所述装置包括:
获取模块,用于获取查询文本和所述查询文本对应的结果文本集;
输入模块,用于将所述查询文本输入至预设的第一BERT模型中,得到查询向量,及将所述结果文本集输入至预设的第二BERT模型中,得到每个结果文本的多个词向量;
计算模块,用于根据所述查询向量和每个结果文本的每个词向量计算对应词的注意力权重;
加权求和模块,用于根据每个结果文本的每个词的注意力权重对对应结果文本进行加权求和,得到每个结果文本的第一文本向量;
确定模块,用于拼接所述查询向量和每个结果文本的第一文本向量得到第二文本向量,并将所述第二文本向量输入至全连接层,确定所述查询文本和每个结果文本的匹配值。
8.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现如权利要求1至6中任意一项所述的文本匹配分析方法。
9.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任意一项所述的文本匹配分析方法。
CN202110706501.1A 2021-06-24 2021-06-24 文本匹配分析方法、装置、电子设备及存储介质 Active CN113342940B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110706501.1A CN113342940B (zh) 2021-06-24 2021-06-24 文本匹配分析方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110706501.1A CN113342940B (zh) 2021-06-24 2021-06-24 文本匹配分析方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113342940A CN113342940A (zh) 2021-09-03
CN113342940B true CN113342940B (zh) 2023-12-08

Family

ID=77478613

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110706501.1A Active CN113342940B (zh) 2021-06-24 2021-06-24 文本匹配分析方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN113342940B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113486183B (zh) * 2021-09-06 2021-11-30 平安科技(深圳)有限公司 基于支持向量机的文本分类方法、装置、电子设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110298037A (zh) * 2019-06-13 2019-10-01 同济大学 基于增强注意力机制的卷积神经网络匹配的文本识别方法
CN112000805A (zh) * 2020-08-24 2020-11-27 平安国际智慧城市科技股份有限公司 基于预训练模型的文本匹配方法、装置、终端及存储介质
CN112035662A (zh) * 2020-08-26 2020-12-04 腾讯科技(深圳)有限公司 文本处理方法、装置、计算机设备以及存储介质
WO2021068339A1 (zh) * 2019-10-11 2021-04-15 平安科技(深圳)有限公司 文本分类方法、装置及计算机可读存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11721335B2 (en) * 2019-07-01 2023-08-08 Koninklijke Philips N.V. Hierarchical self-attention for machine comprehension

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110298037A (zh) * 2019-06-13 2019-10-01 同济大学 基于增强注意力机制的卷积神经网络匹配的文本识别方法
WO2021068339A1 (zh) * 2019-10-11 2021-04-15 平安科技(深圳)有限公司 文本分类方法、装置及计算机可读存储介质
CN112000805A (zh) * 2020-08-24 2020-11-27 平安国际智慧城市科技股份有限公司 基于预训练模型的文本匹配方法、装置、终端及存储介质
CN112035662A (zh) * 2020-08-26 2020-12-04 腾讯科技(深圳)有限公司 文本处理方法、装置、计算机设备以及存储介质

Also Published As

Publication number Publication date
CN113342940A (zh) 2021-09-03

Similar Documents

Publication Publication Date Title
CN109033068B (zh) 基于注意力机制的用于阅读理解的方法、装置和电子设备
WO2022078346A1 (zh) 文本意图识别方法、装置、电子设备及存储介质
CN108345672A (zh) 智能应答方法、电子装置及存储介质
CN113435582B (zh) 基于句向量预训练模型的文本处理方法及相关设备
CN114822812A (zh) 角色对话模拟方法、装置、设备及存储介质
CN113204611A (zh) 建立阅读理解模型的方法、阅读理解方法及对应装置
CN116719520B (zh) 代码生成方法及装置
CN114880449B (zh) 智能问答的答复生成方法、装置、电子设备及存储介质
CN113342940B (zh) 文本匹配分析方法、装置、电子设备及存储介质
CN112100360B (zh) 一种基于向量检索的对话应答方法、装置和系统
CN113012774A (zh) 病案自动编码方法、装置、电子设备及存储介质
CN116720525A (zh) 基于问诊数据的疾病辅助分析方法、装置、设备及介质
CN116719904A (zh) 基于图文结合的信息查询方法、装置、设备及存储介质
CN114492446B (zh) 法律文书处理方法、装置、电子设备及存储介质
CN116703659A (zh) 一种应用于工程咨询的数据处理方法、装置及电子设备
CN116468025A (zh) 电子病历结构化方法、装置、电子设备及存储介质
CN113469237B (zh) 用户意图识别方法、装置、电子设备及存储介质
CN112765958B (zh) 代词消解方法、装置、电子设备及存储介质
CN114548114A (zh) 文本情绪识别方法、装置、设备及存储介质
CN113723114A (zh) 基于多意图识别的语义分析方法、装置、设备及存储介质
CN113076089A (zh) 一种基于对象类型的api补全方法
CN115204120B (zh) 保险领域三元组抽取方法、装置、电子设备及存储介质
TWI792898B (zh) 電子病歷資料分析系統與電子病歷資料分析方法
CN114462411B (zh) 命名实体识别方法、装置、设备及存储介质
CN112528183B (zh) 基于大数据的网页组件布局方法、装置、电子设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant