CN115640394A - 文本分类方法、文本分类装置、计算机设备及存储介质 - Google Patents

文本分类方法、文本分类装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN115640394A
CN115640394A CN202211101839.5A CN202211101839A CN115640394A CN 115640394 A CN115640394 A CN 115640394A CN 202211101839 A CN202211101839 A CN 202211101839A CN 115640394 A CN115640394 A CN 115640394A
Authority
CN
China
Prior art keywords
text
classification
texts
initial
similar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211101839.5A
Other languages
English (en)
Inventor
张镛
王健宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202211101839.5A priority Critical patent/CN115640394A/zh
Publication of CN115640394A publication Critical patent/CN115640394A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请实施例提供了一种文本分类方法、文本分类装置、计算机设备及存储介质,属于人工智能技术领域。该方法包括:获取初始文本和预构建的N个分类模板,并将初始文本填充到每个分类模板中,得到N个初始分类文本;根据相似度匹配模型对预构建的训练样本集和初始文本进行文本相似度匹配,并将匹配得到的相似文本和相似文本标签填充到每个分类模板中,得到相似分类文本;对初始分类文本和相似分类文本进行文本拼接得到第一拼接文本集;根据分类类别标签对每个第一拼接文本进行类别替换,得到第二拼接文本集;对每个第二拼接文本进行分类预测得到预测得分;根据预测得分确定文本分类结果。本申请实施例能够提高了样本文本分类的准确度。

Description

文本分类方法、文本分类装置、计算机设备及存储介质
技术领域
本申请涉及人工智能技术领域,尤其涉及一种文本分类方法、文本分类装置、计算机设备及存储介质。
背景技术
目前,基于预训练模型的提示学习(Prompt Learning)中的标签词映射进行样本文本分类的方法,通常是基于人工经验生成标签到类别的映射。之后,通过引入三方知识库,即通过考虑当前类别标签所有的近似词,或是通过有监督的统计当前预训练模型的行为规律,来精简输出词表和构造类别下对应的映射。然而,这种方法严重依赖三方知识库,且容易因为样本文本的不足而导致统计的结果存在偏差。因此,如何避免三方知识库引入可能存在的偏差和统计计算的消耗,并提高样本文本分类的准确度,成为了亟待解决的技术问题。
发明内容
本申请实施例的主要目的在于提出了一种文本分类方法、文本分类装置、计算机设备及存储介质,能够避免三方知识库引入可能存在的偏差和统计计算的消耗,提高了样本文本分类的准确度。
为实现上述目的,本申请实施例的第一方面提出了一种文本分类方法,所述方法包括:
获取待分类的初始文本和预构建的N个分类模板,并将所述初始文本填充到每个所述分类模板中,得到N个初始分类文本,N为整数,每个所述初始分类文本中所述初始文本对应的初始文本标签为空;
根据预训练的相似度匹配模型对预构建的训练样本集和所述初始文本进行文本相似度匹配,得到相似文本和所述相似文本的相似文本标签;
将所述相似文本和所述相似文本标签填充到每个所述分类模板中,得到N个相似分类文本;
对N个所述分类模板对应的所述初始分类文本和所述相似分类文本进行文本拼接,得到第一拼接文本集,所述第一拼接文本集包括N个第一拼接文本;
获取预设的M个分类类别标签,并根据每个所述分类类别标签对所述第一拼接文本中的所述初始文本标签进行类别替换,得到第二拼接文本集,所述第二拼接文本集包括M*N个第二拼接文本,M为整数;
将每个所述分类类别标签下的N个所述第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个所述分类类别标签的预测得分;
对M个所述预测得分进行数值比较,以确定所述初始文本对应的文本分类结果。
在一些实施例中,所述对N个所述分类模板对应的所述初始分类文本和所述相似分类文本进行文本拼接,得到第一拼接文本集,包括:
分别获取N个所述分类模板对应的所述初始分类文本和所述相似分类文本;
对每个所述分类模板下的所述初始分类文本和所述相似分类文本进行文本拼接,得到第一拼接文本;
根据多个所述第一拼接文本构建第一拼接文本集。
在一些实施例中,所述将每个所述分类类别标签下的N个所述第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个所述分类类别标签的预测得分,包括:
将每个所述分类类别标签下的N个所述第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个所述第二拼接文本的token概率得分;
根据N个所述token概率得分计算得到每个所述分类类别标签的预测得分。
在一些实施例中,所述语言表征模型包括嵌入表示处理层、掩膜语言模型处理层和预测处理层,所述将每个所述分类类别标签下的N个所述第二拼接文本分别输入至预训练的语言表征模型,得到每个所述第二拼接文本的token概率得分,包括:
将每个所述分类类别标签下的N个所述第二拼接文本分别输入至预训练的语言表征模型;
通过所述嵌入表示处理层对每个所述第二拼接文本进行嵌入表示处理,得到嵌入表示向量;
通过所述掩膜语言模型处理层对所述嵌入表示向量进行掩膜语言模型处理,得到掩膜表示向量;
通过所述预测处理层对所述掩膜表示向量进行预测处理,得到每个所述第二拼接文本的token概率得分。
在一些实施例中,所述根据N个所述token概率得分计算得到每个所述分类类别标签的预测得分,包括:
对N个所述token概率得分进行均值计算,得到每个所述分类类别标签的预测得分。
在一些实施例中,所述对M个所述预测得分进行数值比较,以确定所述初始文本对应的文本分类结果,包括:
获取M个所述分类类别标签对应的所述预测得分;
对M个所述预测得分进行数值比较,以确定预测得分最高的分类类别标签;
根据所述预测得分最高的分类类别标签确定所述初始文本对应的文本分类结果。
在一些实施例中,所述根据预训练的相似度匹配模型对预构建的训练样本集和所述初始文本进行文本相似度匹配,得到相似文本和所述相似文本的相似文本标签,包括:
获取预构建的训练样本集,所述训练样本集包括多个训练样本,每个所述训练样本包括样本文本和所述样本文本的初始样本标签;
基于BM25算法构建相似度匹配模型;
将所述训练样本集和所述初始文本输入至所述相似度匹配模型进行文本相似度匹配,得到每个所述样本文本对应的相似度值;
根据多个所述相似度值确定所述初始文本对应的相似文本和所述相似文本的相似文本标签。
为实现上述目的,本申请实施例的第二方面提出了一种文本分类装置,所述装置包括:
文本和模板获取模块,用于获取待分类的初始文本和预构建的N个分类模板,并将所述初始文本填充到每个所述分类模板中,得到N个初始分类文本,N为整数,每个所述初始分类文本中所述初始文本对应的初始文本标签为空;
相似度匹配模块,用于根据预训练的相似度匹配模型对预构建的训练样本集和所述初始文本进行文本相似度匹配,得到相似文本和所述相似文本的相似文本标签;
文本填充模块,用于将所述相似文本和所述相似文本标签填充到每个所述分类模板中,得到N个相似分类文本;
文本拼接模块,用于对N个所述分类模板对应的所述初始分类文本和所述相似分类文本进行文本拼接,得到第一拼接文本集,所述第一拼接文本集包括N个第一拼接文本;
类别替换模块,用于根据预设的M个分类类别标签对所述第一拼接文本中的所述初始文本标签进行类别替换,得到第二拼接文本集,所述第二拼接文本集包括M*N个第二拼接文本,M为整数;
分类预测模块,用于将每个所述分类类别标签下的N个所述第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个所述分类类别标签的预测得分;
分类确定模块,用于对M个所述预测得分进行数值比较,以确定所述初始文本对应的文本分类结果。
为实现上述目的,本申请实施例的第三方面提出了一种计算机设备,包括:
至少一个存储器;
至少一个处理器;
至少一个计算机程序;
所述至少一个计算机程序被存储在所述至少一个存储器中,所述至少一个处理器执行所述至少一个计算机程序以实现上述第一方面所述的文本分类方法。
为实现上述目的,本申请实施例的第四方面提出了一种存储介质,所述存储介质为计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序用于使计算机执行上述第一方面所述的文本分类方法。
本申请实施例提出的文本分类方法、文本分类装置、计算机设备及存储介质,首先,获取待分类的初始文本和预构建的N个分类模板,并将初始文本填充到每个分类模板中,得到N个初始分类文本,其中,N为整数,每个初始分类文本中初始文本对应的初始文本标签为空,即可以利用多个人工构建模版投票的方式有效避免了单个人工构建模版存在的偏差,增加了文本分类输出的可信度。然后,根据预训练的相似度匹配模型对预构建的训练样本集和初始文本进行文本相似度匹配,得到相似文本和相似文本的相似文本标签,从而可以根据带有标签信息的相似文本以更好地对没有标签的初始文本进行预测。之后,将相似文本和相似文本标签填充到每个分类模板中,得到N个相似分类文本。并对N个分类模板对应的初始分类文本和相似分类文本进行文本拼接,得到第一拼接文本集,该第一拼接文本集包括N个第一拼接文本。为了更准确地预测出初始文本对应的类别,获取预设的M个分类类别标签,并根据每个分类类别标签对第一拼接文本中的初始文本标签进行类别替换,得到第二拼接文本集,该第二拼接文本集包括M*N个第二拼接文本,M为整数。最后,将每个分类类别标签下的N个第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个分类类别标签的预测得分,并对M个预测得分进行数值比较,确定初始文本对应的文本分类结果。本申请实施例能够避免三方知识库引入可能存在的偏差和统计计算的消耗,提高了样本文本分类的准确度。
附图说明
图1是本申请实施例提供的文本分类方法的流程图;
图2是图1中的步骤S140的流程图;
图3是图1中的步骤S160的流程图;
图4是图3中的步骤S310的流程图;
图5是图1中的步骤S170的流程图;
图6是图1中的步骤S120的流程图;
图7是本申请实施例提供的文本分类装置的结构示意图;
图8是本申请实施例提供的计算机设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(Artificial Intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
掩膜(Mask):指的是用选定的图像、图形或物体,对处理的图像(全部或局部)进行遮挡,来控制图像处理的区域或处理过程,即用于覆盖的特定图像或物体称为掩模或模板。
token:是一种计算机术语,在计算机身份认证中是令牌(临时)的意思,在词法分析中是标记的意思,代表执行某些操作的权利的对象。
BM25算法:是一种用来评价搜索词和文档之间相关性的算法,并且是一种基于概率检索模型提出的算法。其中,BM是最佳匹配(Best Match)的缩写,25指的是第25次算法迭代。
词频-逆文档频率(Term Frequency-Inverse Document Frequency,TF-IDF)算法:是一种用于信息检索与数据挖掘的常用加权技术,即用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。
BERT(Bidirectional Encoder Representation from Transformers):用于进一步增加词向量模型泛化能力,充分描述字符级、词级、句子级甚至句间关系特征,是基于Transformer构建而成。BERT中有三种Embedding,即Token Embedding,SegmentEmbedding,Position Embedding;其中Token Embeddings是词向量,第一个单词是CLS标志,可以用于之后的分类任务;Segment Embeddings用来区别两种句子,因为预训练不光做LM还要做以两个句子为输入的分类任务;Position Embeddings,这里的位置词向量不是transfor中的三角函数,而是BERT经过训练学到的。但BERT直接训练一个PositionEmbedding来保留位置信息,每个位置随机初始化一个向量,加入模型训练,最后就得到一个包含位置信息的Embedding,最后这个Position Embedding和word Embedding的结合方式上,BERT选择直接拼接。
基于预训练模型的Prompt Learning零样本分类方法已经被普遍证明是一种高效的方法。即通过按照一定的模版把分类任务转换成完形填空任务,进而利用预训练模型中习的海量知识让预训练模型还原输入中的[Mask]token,再映射到对应的分类类别。
目前,基于预训练模型的提示学习(Prompt Learning)中的标签词映射进行样本文本分类的方法,即Prompt Learning中的verbalizer通常是基于人工经验生成标签到类别的映射。之后,通过引入三方知识库,即通过考虑当前类别标签所有的近似词,或是通过有监督的统计当前预训练模型的行为规律即当前[Mask]输出的类别,来精简输出词表和构造类别下对应的映射。然而,这种方法严重依赖三方知识库,且容易因为样本文本的不足而导致统计的结果存在偏差。同时,人工构建的Prompt模板可能存在一定偏差,自动生成的Prompt对有监督的数据量要求大,且生成的模版可解释性较弱。因此,如何避免三方知识库引入可能存在的偏差和统计计算的消耗,并提高样本文本分类的准确度,成为了亟待解决的技术问题。
基于此,本申请实施例提供了一种文本分类方法、文本分类装置、计算机设备及存储介质,能够避免三方知识库引入可能存在的偏差和统计计算的消耗,提高了样本文本分类的准确度。
本申请实施例提供的文本分类方法、文本分类装置、计算机设备及存储介质,具体通过如下实施例进行说明,首先描述本申请实施例中的一种文本分类方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的文本分类方法,涉及人工智能技术领域。本申请实施例提供的文本分类方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content DeliveryNetwork,CDN)以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现文本分类方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络个人计算机(Personal Computer,PC)、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
请参阅图1,图1是本申请实施例提供的文本分类方法的一个可选的流程图,该方法用于训练评分卡模型,图1中的方法可以具体包括但不限于步骤S110至步骤S170,下面结合图1对这七个步骤进行详细介绍。
步骤S110,获取待分类的初始文本和预构建的N个分类模板,并将初始文本填充到每个分类模板中,得到N个初始分类文本,N为整数,每个初始分类文本中初始文本对应的初始文本标签为空;
步骤S120,根据预训练的相似度匹配模型对预构建的训练样本集和初始文本进行文本相似度匹配,得到相似文本和相似文本的相似文本标签;
步骤S130,将相似文本和相似文本标签填充到每个分类模板中,得到N个相似分类文本;
步骤S140,对N个分类模板对应的初始分类文本和相似分类文本进行文本拼接,得到第一拼接文本集,第一拼接文本集包括N个第一拼接文本;
步骤S150,获取预设的M个分类类别标签,并根据每个分类类别标签对第一拼接文本中的初始文本标签进行类别替换,得到第二拼接文本集,第二拼接文本集包括M*N个第二拼接文本,M为整数;
步骤S160,将每个分类类别标签下的N个第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个分类类别标签的预测得分;
步骤S170,对M个预测得分进行数值比较,以确定初始文本对应的文本分类结果。
在一些实施例的步骤S110中,为了避免单个人工构建模版存在的偏差问题,本申请实施例利用多个人工构建模版投票的方式进行文本分离,增加了模型输出的可信度。首先,获取待分类的初始文本和预构建的N个分类模板,并将初始文本填充到每个分类模板中,以得到N个初始分类文本,其中,N为整数。由于现有的进行文本分类的初始文本大多是未标注或者有少量标注的文本数据,为了便于更准确地对初始文本进行分类预测,将每个初始分类文本中初始文本对应的初始文本标签设置为空。
需要说明的是,对于预构建的N个分类模板,假设初始文本为X,初始文本对应的初始文本标签为Y,则预构建的分类模板的形式可以表示为,例如,“X,这是Y”,或者“X,它是Y”,或者“X的标签类别是Y”等分类模板的形式。
在一些实施例的步骤S120中,为了更好地预测出没有标签的初始文本所对应的文本标签,根据预训练的相似度匹配模型对预构建的训练样本集和初始文本进行文本相似度匹配,得到相似文本和相似文本的相似文本标签。
需要说明的是,利用相似度匹配算法构建相似度匹配模型,其中,相似度匹配算法可以采用BM25算法、TF-IDF算法等,在此不作具体限定。在一具体的实施例中,例如,当基于BM25算法构建相似度匹配模型,则根据相似度匹配模型对初始文本进行文本相似度匹配,即对当前输入的初始文本召回与其最相似的相似文本和该相似文本对应的相似文本标签。
需要说明的是,在一些实施例中,对于训练样本集中训练样本的文本数据的获取可以通过编写网络爬虫或者脚本程序,进行有目标性地爬取数据得到。
在一些实施例的步骤S130中,为了便于根据相似文本对初始文本进行分类预测,将得到的相似文本和相似文本标签也填充到每个分类模板中,得到N个相似分类文本。
在一些实施例的步骤S140中,为了避免三方知识库引入可能存在的偏差和统计计算的消耗,本申请实施例通过对N个分类模板对应的初始文本和相似文本进行文本拼接,得到第一拼接文本集,该第一拼接文本集包括N个第一拼接文本。
在一些实施例的步骤S150中,为了更准确地确定初始文本对应的文本分类结果,本申请实施例通过遍历所有类别下组装得到的文本数据,即通过获取预设的M个分类类别标签,并根据每个分类类别标签对第一拼接文本中的初始文本标签进行类别替换,得到第二拼接文本集,其中,第二拼接文本集包括M*N个第二拼接文本,M为整数。具体地,M表示所设置的分类类别标签的数量,N表示分类模板的数量,分别将每个分类类别标签与每个分类模板所对应的第一拼接文本中的初始文本标签Y进行类别替换,则可以得到M*N个第二拼接文本。
在一些实施例的步骤S160中,将得到的M*N个第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个分类类别标签的预测得分。具体地,对于每个分类类别标签下的N个第二拼接文本输入至预训练的语言表征模型进行分类预测,以得到N个不同分类模板所对应的预测得分,从而确定每个分类类别标签的预测得分。
需要说明的是,本申请实施例可以采用基于BERT的语言表征模型,即将得到的M*N个第二拼接文本输入至BERT进行分类预测,得到每个分类类别标签的预测得分。
在一些实施例的步骤S170中,对M个分类类别标签对应的预测得分进行数值比较,从而更准确地确定初始文本对应的文本分类结果。
请参阅图2,图2是本申请一些实施例的步骤S140的具体方法的流程图。在本申请的一些实施例中,步骤S140具体包括但不限于步骤S210至步骤S230,下面结合图2对这三个步骤进行详细介绍。
步骤S210,分别获取N个分类模板对应的初始分类文本和相似分类文本;
步骤S220,对每个分类模板下的初始分类文本和相似分类文本进行文本拼接,得到第一拼接文本;
步骤S230,根据多个第一拼接文本构建第一拼接文本集。
在一些实施例的步骤S210至步骤S230中,在分别获取N个分类模板对应的初始分类文本和相似分类文本之后,为了提高分类预测的效率,将根据每个分类模板对应得到的初始分类文本和相似分类文本进行文本拼接,以得到第一拼接文本,并根据多个第一拼接文本构建第一拼接文本集。
具体地,可以采用SEP标签拼接方法对每个分类模板下的初始分类文本和相似分类文本进行文本拼接,即通过[SEP]进行文本拼接,例如,文本拼接的方式可以为:相似文本[SEP]相似文本标签[SEP]初始文本[SEP]初始文本标签。
请参阅图3,图3是本申请一些实施例的步骤S160的具体方法的流程图。在本申请的一些实施例中,步骤S160具体包括但不限于步骤S310和步骤S320,下面结合图3对这两个步骤进行详细介绍。
步骤S310,将每个分类类别标签下的N个第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个第二拼接文本的token概率得分;
步骤S320,根据N个token概率得分计算得到每个分类类别标签的预测得分。
在一些实施例的步骤S310中,将每个分类类别标签下的N个第二拼接文本输入至预训练的语言表征模型进行分类预测,具体地,当语言表征模型采用BERT模型,BERT会对每一个位置做一个词表大小的多分类预测,则会输出词表中的每个token的概率值,从而得到每个第二拼接文本的token概率得分。
在一些实施例的步骤S320中,对于输入的每个分类类别标签下的N个第二拼接文本,输入的每个分类模板下的第二拼接文本在经过BERT模型的分类预测后,得到一个预期答案的token概率得分,从而根据得到的N个token概率得分得到分类类别标签的预测得分。
请参阅图4,图4是本申请一些实施例的步骤S310的具体方法的流程图,在本申请的一些实施例中,语言表征模型包括嵌入表示处理层、掩膜语言模型处理层和预测处理层,则步骤S310具体包括但不限于步骤S410至步骤S440,下面结合图4对这四个步骤进行详细介绍。
步骤S410,将每个分类类别标签下的N个第二拼接文本分别输入至预训练的语言表征模型;
步骤S420,通过嵌入表示处理层对每个第二拼接文本进行嵌入表示处理,得到嵌入表示向量;
步骤S430,通过掩膜语言模型处理层对嵌入表示向量进行掩膜语言模型处理,得到掩膜表示向量;
步骤S440,通过预测处理层对掩膜表示向量进行预测处理,得到每个第二拼接文本的token概率得分。
在一些实施例的步骤S410至步骤S440中,基于BERT的语言表征模型包括嵌入表示处理层、掩膜语言模型处理层和预测处理层。对第二拼接文本的分类预测过程具体为,将每个分类类别标签下的N个第二拼接文本分别输入至预训练的语言表征模型。并根据拼接采用的[SEP]标签分辨出第二拼接文本中的初始分类文本和相似分类文本,然后,通过嵌入表示处理层对每个第二拼接文本进行嵌入表示处理,得到嵌入表示向量,即在第二拼接文本传递到嵌入表示处理层之前,对该第二拼接文本进行token化,并且在得到的tokens的开始和结束处添加额外的tokens,以有效分隔第二拼接文本中的初始分类文本和相似分类文本。之后,通过掩膜语言模型处理层对嵌入表示向量进行掩膜语言模型处理,得到掩膜表示向量,即本申请实施例充分利用MLM预训练的特性,根据预训练的掩膜语言模型中[MASK]位置的原生输入输出偏差来判断最终的映射,从而避免了三方知识库引入可能存在的偏差和统计计算的消耗。最后,通过预测处理层对掩膜表示向量进行预测处理,得到每个第二拼接文本的token概率得分。本申请实施例利用BERT的MLM预训练的特性作为Verbalizer的方式,遵循了原本的预训练方式,可以更大程度的利用预训练学会的知识,同时避免了三方知识库引入可能存在的偏差和统计计算的开销。
在本申请的一些实施例中,步骤S320具体包括:对N个token概率得分进行均值计算,得到每个分类类别标签的预测得分。
具体地,对于输入的每个分类类别标签下的N个第二拼接文本,输入的每个分类模板下的第二拼接文本在经过BERT模型的分类预测后,将得到一个预期答案对应的token概率得分,根据得到的N个token概率得分进行均值计算,则取平均后的得分可以作为该分类类别标签的预测得分。
请参阅图5,图5是本申请一些实施例的步骤S170的具体方法的流程图,在本申请的一些实施例中,步骤S170具体包括但不限于步骤S510至步骤S530,下面结合图5对这两个步骤进行详细介绍。
步骤S510,获取M个分类类别标签对应的预测得分;
步骤S520,对M个预测得分进行数值比较,以确定预测得分最高的分类类别标签;
步骤S530,根据预测得分最高的分类类别标签确定初始文本对应的文本分类结果。
在一些实施例的步骤S510至步骤S530中,由于第二拼接文本所对应的分类类别标签与相似文本标签越相似,则对应得到的预测得分就越高;而当第二拼接文本所对应的分类类别标签与相似文本标签越不相似,则对应得到的预测得分就越低。具体地,获取M个分类类别标签对应的预测得分,并对M个预测得分进行数值比较,以确定预测得分最高的分类类别标签,则预测得分最高的第二拼接文本所对应的分类类别标签为文本分类结果,即确定了初始文本对应的目标文本分类标签。
请参阅图6,图6是本申请一些实施例的步骤S120的具体方法的流程图,在本申请的一些实施例中,步骤S120具体包括但不限于步骤S610至步骤S640,下面结合图6对这四个步骤进行详细介绍。
步骤S610,获取预构建的训练样本集,训练样本集包括多个训练样本,每个训练样本包括样本文本和样本文本的初始样本标签;
步骤S620,基于BM25算法构建相似度匹配模型;
步骤S630,将训练样本集和初始文本输入至相似度匹配模型进行文本相似度匹配,得到每个样本文本对应的相似度值;
步骤S640,根据多个相似度值确定初始文本对应的相似文本和相似文本的相似文本标签。
在一些实施例的步骤S610至步骤S640中,为了更好地预测出没有标签的初始文本所对应的文本标签,获取预构建的训练样本集,该训练样本集包括多个训练样本,每个训练样本包括样本文本和样本文本的初始样本标签。然后,基于BM25算法构建相似度匹配模型。将训练样本集和初始文本输入至相似度匹配模型进行文本相似度匹配,得到每个样本文本对应的相似度值。之后,根据设置的相似度阈值对多个相似度值进行筛选,以确定初始文本对应的相似文本和相似文本的相似文本标签。
需要说明的是,本申请实施例可采用小样本构建预设的训练样本集,该训练样本集包括多个训练样本,即这些训练样本可以用于表示在真实业务场景中所得到的带标签的样本数据。
需要说明的的是,对于每个初始文本通过相似度阈值可能召回多个样本文本,选择其中相似度值最高的样本文本作为相似文本,从而将该样本文本对应的初始样本标签作为相似文本标签。
本申请实施例提供的一种文本分类方法,首先,获取待分类的初始文本和预构建的N个分类模板,并将初始文本填充到每个分类模板中,得到N个初始分类文本,其中,N为整数,每个初始分类文本中初始文本对应的初始文本标签为空,即可以利用多个人工构建模版投票的方式有效避免了单个人工构建模版存在的偏差,增加了文本分类输出的可信度。然后,根据预训练的相似度匹配模型对预构建的训练样本集和初始文本进行文本相似度匹配,得到相似文本和相似文本的相似文本标签,从而可以根据带有标签信息的相似文本以更好地对没有标签的初始文本进行预测。之后,将相似文本和相似文本标签填充到每个分类模板中,得到N个相似分类文本。并对每个分类模板下的初始分类文本和相似分类文本进行文本拼接,得到第一拼接文本,根据多个第一拼接文本构建第一拼接文本集。为了更准确地预测出初始文本对应的类别,根据预设的M个分类类别标签对第一拼接文本中的初始文本标签进行类别替换,得到第二拼接文本集,该第二拼接文本集包括M*N个第二拼接文本,M为整数。将每个分类类别标签下的N个第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个第二拼接文本的token概率得分,并根据N个token概率得分计算得到每个分类类别标签的预测得分。最后,对M个预测得分进行数值比较,确定初始文本对应的文本分类结果。本申请实施例利用多个人工构建的分类模板投票的方式,在一定程度上避免了单个分类模板存在的偏差,增加了模型输出的可信度。同时,本申请实施例利用相似度匹配召回相似样本,并进行拼接输入以作为完形填空输出参考的方式,在一定程度上也弥补了人工构建分类模板存在的偏差,能够避免三方知识库引入可能存在的偏差和统计计算的消耗,提高了样本文本分类的准确度。
请参阅图7,图7是本申请实施例提供的文本分类装置的模块结构示意图,该装置可以实现上述实施例的文本分类方法,该装置包括文本和模板获取模块710、相似度匹配模块720、文本填充模块730、文本拼接模块740、类别替换模块750、分类预测模块760和分类确定模块770。
文本和模板获取模块710,用于获取待分类的初始文本和预构建的N个分类模板,并将初始文本填充到每个分类模板中,得到N个初始分类文本,N为整数,每个初始分类文本中初始文本对应的初始文本标签为空;
相似度匹配模块720,用于根据预训练的相似度匹配模型对预构建的训练样本集和初始文本进行文本相似度匹配,得到相似文本和相似文本的相似文本标签;
文本填充模块730,用于将相似文本和相似文本标签填充到每个分类模板中,得到N个相似分类文本;
文本拼接模块740,用于对N个分类模板对应的初始分类文本和相似分类文本进行文本拼接,得到第一拼接文本集,第一拼接文本集包括N个第一拼接文本;
类别替换模块750,用于根据预设的M个分类类别标签对第一拼接文本中的初始文本标签进行类别替换,得到第二拼接文本集,第二拼接文本集包括M*N个第二拼接文本,M为整数;
分类预测模块760,用于将每个分类类别标签下的N个第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个分类类别标签的预测得分;
分类确定模块770,用于对M个预测得分进行数值比较,以确定初始文本对应的文本分类结果。
需要说明的是,本申请实施例的文本分类装置用于实现上述实施例的文本分类方法,本申请实施例的文本分类装置与前述的文本分类方法相对应,具体的处理过程请参照前述的文本分类方法,在此不再赘述。
本申请实施例还提供了一种计算机设备,该计算机设备包括:至少一个存储器,至少一个处理器,至少一个计算机程序,至少一个计算机程序被存储在至少一个存储器中,至少一个处理器执行至少一个计算机程序以实现上述实施例中任一种的文本分类方法。该计算机设备可以为包括平板电脑、车载电脑等任意智能终端。
请参阅图8,图8示意了另一实施例的一种计算机设备的硬件结构,该计算机设备包括:
处理器810,可以采用通用的中央处理器(Central Processing Unit,CPU)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器820,可以采用只读存储器(Read Only Memory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(Random Access Memory,RAM)等形式实现。存储器820可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器820中,并由处理器810来调用执行本申请实施例的文本分类方法;
输入/输出接口830,用于实现信息输入及输出;
通信接口840,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线850,在设备的各个组件(例如处理器810、存储器820、输入/输出接口830和通信接口840)之间传输信息;
其中处理器810、存储器820、输入/输出接口830和通信接口840通过总线850实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种存储介质,该存储介质为计算机可读存储介质,该计算机可读存储介质存储有计算机程序,计算机程序用于使计算机执行上述实施例中文本分类方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图1至6中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参阅附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。

Claims (10)

1.一种文本分类方法,其特征在于,所述方法包括:
获取待分类的初始文本和预构建的N个分类模板,并将所述初始文本填充到每个所述分类模板中,得到N个初始分类文本,N为整数,每个所述初始分类文本中所述初始文本对应的初始文本标签为空;
根据预训练的相似度匹配模型对预构建的训练样本集和所述初始文本进行文本相似度匹配,得到相似文本和所述相似文本的相似文本标签;
将所述相似文本和所述相似文本标签填充到每个所述分类模板中,得到N个相似分类文本;
对N个所述分类模板对应的所述初始分类文本和所述相似分类文本进行文本拼接,得到第一拼接文本集,所述第一拼接文本集包括N个第一拼接文本;
获取预设的M个分类类别标签,并根据每个所述分类类别标签对所述第一拼接文本中的所述初始文本标签进行类别替换,得到第二拼接文本集,所述第二拼接文本集包括M*N个第二拼接文本,M为整数;
将每个所述分类类别标签下的N个所述第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个所述分类类别标签的预测得分;
对M个所述预测得分进行数值比较,以确定所述初始文本对应的文本分类结果。
2.根据权利要求1所述的方法,其特征在于,所述对N个所述分类模板对应的所述初始分类文本和所述相似分类文本进行文本拼接,得到第一拼接文本集,包括:
分别获取N个所述分类模板对应的所述初始分类文本和所述相似分类文本;
对每个所述分类模板下的所述初始分类文本和所述相似分类文本进行文本拼接,得到第一拼接文本;
根据多个所述第一拼接文本构建第一拼接文本集。
3.根据权利要求1所述的方法,其特征在于,所述将每个所述分类类别标签下的N个所述第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个所述分类类别标签的预测得分,包括:
将每个所述分类类别标签下的N个所述第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个所述第二拼接文本的token概率得分;
根据N个所述token概率得分计算得到每个所述分类类别标签的预测得分。
4.根据权利要求3所述的方法,其特征在于,所述语言表征模型包括嵌入表示处理层、掩膜语言模型处理层和预测处理层,所述将每个所述分类类别标签下的N个所述第二拼接文本分别输入至预训练的语言表征模型,得到每个所述第二拼接文本的token概率得分,包括:
将每个所述分类类别标签下的N个所述第二拼接文本分别输入至预训练的语言表征模型;
通过所述嵌入表示处理层对每个所述第二拼接文本进行嵌入表示处理,得到嵌入表示向量;
通过所述掩膜语言模型处理层对所述嵌入表示向量进行掩膜语言模型处理,得到掩膜表示向量;
通过所述预测处理层对所述掩膜表示向量进行预测处理,得到每个所述第二拼接文本的token概率得分。
5.根据权利要求3所述的方法,其特征在于,所述根据N个所述token概率得分计算得到每个所述分类类别标签的预测得分,包括:
对N个所述token概率得分进行均值计算,得到每个所述分类类别标签的预测得分。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述对M个所述预测得分进行数值比较,以确定所述初始文本对应的文本分类结果,包括:
获取M个所述分类类别标签对应的所述预测得分;
对M个所述预测得分进行数值比较,以确定预测得分最高的分类类别标签;
根据所述预测得分最高的分类类别标签确定所述初始文本对应的文本分类结果。
7.根据权利要求1至5任一项所述的方法,其特征在于,所述根据预训练的相似度匹配模型对预构建的训练样本集和所述初始文本进行文本相似度匹配,得到相似文本和所述相似文本的相似文本标签,包括:
获取预构建的训练样本集,所述训练样本集包括多个训练样本,每个所述训练样本包括样本文本和所述样本文本的初始样本标签;
基于BM25算法构建相似度匹配模型;
将所述训练样本集和所述初始文本输入至所述相似度匹配模型进行文本相似度匹配,得到每个所述样本文本对应的相似度值;
根据多个所述相似度值确定所述初始文本对应的相似文本和所述相似文本的相似文本标签。
8.一种文本分类装置,其特征在于,所述装置包括:
文本和模板获取模块,用于获取待分类的初始文本和预构建的N个分类模板,并将所述初始文本填充到每个所述分类模板中,得到N个初始分类文本,N为整数,每个所述初始分类文本中所述初始文本对应的初始文本标签为空;
相似度匹配模块,用于根据预训练的相似度匹配模型对预构建的训练样本集和所述初始文本进行文本相似度匹配,得到相似文本和所述相似文本的相似文本标签;
文本填充模块,用于将所述相似文本和所述相似文本标签填充到每个所述分类模板中,得到N个相似分类文本;
文本拼接模块,用于对N个所述分类模板对应的所述初始分类文本和所述相似分类文本进行文本拼接,得到第一拼接文本集,所述第一拼接文本集包括N个第一拼接文本;
类别替换模块,用于根据预设的M个分类类别标签对所述第一拼接文本中的所述初始文本标签进行类别替换,得到第二拼接文本集,所述第二拼接文本集包括M*N个第二拼接文本,M为整数;
分类预测模块,用于将每个所述分类类别标签下的N个所述第二拼接文本输入至预训练的语言表征模型进行分类预测,得到每个所述分类类别标签的预测得分;
分类确定模块,用于对M个所述预测得分进行数值比较,以确定所述初始文本对应的文本分类结果。
9.一种计算机设备,其特征在于,包括:
至少一个存储器;
至少一个处理器;
至少一个计算机程序;
所述至少一个计算机程序被存储在所述至少一个存储器中,所述至少一个处理器执行所述至少一个计算机程序以实现:
如权利要求1至7中任一项所述的方法。
10.一种存储介质,所述存储介质为计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序用于使计算机执行:
如权利要求1至7中任一项所述的方法。
CN202211101839.5A 2022-09-09 2022-09-09 文本分类方法、文本分类装置、计算机设备及存储介质 Pending CN115640394A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211101839.5A CN115640394A (zh) 2022-09-09 2022-09-09 文本分类方法、文本分类装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211101839.5A CN115640394A (zh) 2022-09-09 2022-09-09 文本分类方法、文本分类装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN115640394A true CN115640394A (zh) 2023-01-24

Family

ID=84941635

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211101839.5A Pending CN115640394A (zh) 2022-09-09 2022-09-09 文本分类方法、文本分类装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN115640394A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116384411A (zh) * 2023-06-05 2023-07-04 北京水滴科技集团有限公司 基于外呼机器人的用户意图识别模型的训练方法和装置
CN116737935A (zh) * 2023-06-20 2023-09-12 青海师范大学 基于提示学习的藏文文本分类方法、装置及存储介质
CN117076596A (zh) * 2023-10-16 2023-11-17 微网优联科技(成都)有限公司 应用人工智能的数据存储方法、装置及服务器

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116384411A (zh) * 2023-06-05 2023-07-04 北京水滴科技集团有限公司 基于外呼机器人的用户意图识别模型的训练方法和装置
CN116384411B (zh) * 2023-06-05 2023-07-25 北京水滴科技集团有限公司 基于外呼机器人的用户意图识别模型的训练方法和装置
CN116737935A (zh) * 2023-06-20 2023-09-12 青海师范大学 基于提示学习的藏文文本分类方法、装置及存储介质
CN116737935B (zh) * 2023-06-20 2024-05-03 青海师范大学 基于提示学习的藏文文本分类方法、装置及存储介质
CN117076596A (zh) * 2023-10-16 2023-11-17 微网优联科技(成都)有限公司 应用人工智能的数据存储方法、装置及服务器
CN117076596B (zh) * 2023-10-16 2023-12-26 微网优联科技(成都)有限公司 应用人工智能的数据存储方法、装置及服务器

Similar Documents

Publication Publication Date Title
CN115640394A (zh) 文本分类方法、文本分类装置、计算机设备及存储介质
CN114240552A (zh) 基于深度聚类算法的产品推荐方法、装置、设备及介质
CN111897934A (zh) 问答对生成方法及装置
CN114638960A (zh) 模型的训练方法、图像描述生成方法和装置、设备、介质
CN114897060B (zh) 样本分类模型的训练方法和装置、样本分类方法和装置
CN115222066A (zh) 模型训练方法和装置、行为预测方法、设备及存储介质
CN114510570A (zh) 基于小样本语料的意图分类方法、装置及计算机设备
CN113836303A (zh) 一种文本类别识别方法、装置、计算机设备及介质
CN116541493A (zh) 基于意图识别的交互应答方法、装置、设备、存储介质
CN113378970A (zh) 语句相似性检测方法、装置、电子设备及存储介质
CN114637847A (zh) 模型的训练方法、文本分类方法和装置、设备、介质
CN114492661B (zh) 文本数据分类方法和装置、计算机设备、存储介质
CN115510232A (zh) 文本语句分类方法和分类装置、电子设备及存储介质
CN115205546A (zh) 模型训练方法和装置、电子设备、存储介质
CN113434722B (zh) 图像分类方法、装置、设备及计算机可读存储介质
CN114490949A (zh) 基于bm25算法的文档检索方法、装置、设备及介质
CN114416962A (zh) 问题答案的预测方法、预测装置、电子设备、存储介质
CN116741396A (zh) 文章归类方法和装置、电子设备和存储介质
CN116701604A (zh) 问答语料库的构建方法和装置、问答方法、设备及介质
CN116704581A (zh) 人脸识别方法、装置、设备及存储介质
CN116127066A (zh) 文本聚类方法、文本聚类装置、电子设备及存储介质
CN114398903B (zh) 意图识别方法、装置、电子设备及存储介质
CN115017886A (zh) 文本匹配方法、文本匹配装置、电子设备及存储介质
CN115982452A (zh) 一种信息推荐方法、装置、电子设备及存储介质
CN115796141A (zh) 文本数据增强方法和装置、电子设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination