CN117493550A - 文本分类模型的训练方法、文本分类方法及装置 - Google Patents
文本分类模型的训练方法、文本分类方法及装置 Download PDFInfo
- Publication number
- CN117493550A CN117493550A CN202310450519.9A CN202310450519A CN117493550A CN 117493550 A CN117493550 A CN 117493550A CN 202310450519 A CN202310450519 A CN 202310450519A CN 117493550 A CN117493550 A CN 117493550A
- Authority
- CN
- China
- Prior art keywords
- level
- text
- hierarchy
- sample
- classification model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013145 classification model Methods 0.000 title claims abstract description 335
- 238000012549 training Methods 0.000 title claims abstract description 105
- 238000000034 method Methods 0.000 title claims abstract description 94
- 238000004590 computer program Methods 0.000 claims description 18
- 238000010276 construction Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 206010027940 Mood altered Diseases 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24317—Piecewise classification, i.e. whereby each classification requires several discriminant rules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了一种文本分类模型的训练方法、文本分类方法及装置。文本分类模型的训练方法包括:根据样本文本,确定多层级标签组中的每个类别标签对应的标准特征句;根据样本文本、每个类别标签和标准特征句构建每个层级的第一样本特征数据;根据每个层级的第一样本特征数据对待训练层级分类模型进行训练,得到每个层级对应的层级分类模型;利用层级分类模型对样本文本进行层级分类,得到每个层级对应的层级分类结果,根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据;根据第二样本特征数据对待训练文本分类模型进行训练。本申请能够提升文本多层级标签分类的准确性。
Description
技术领域
本申请涉及语言处理技术领域,尤其涉及一种文本分类模型的训练方法、文本分类方法及装置。
背景技术
文本分类是自然语言处理应用领域中最常见、也最重要的任务类型,其难点在于长文本、按粒度层级化、多标签三个方面。层级多标签文本分类是多标签分类下的子任务,用于标记每个给定文本与最相关的多个层次标签。现有的文本分类方法基本都是用深度学习方法,通过训练层数很深的神经网络模型来强力捕捉文本特征,从而实现对长文本进行多标签文本分类。但是,现有的文本分类方法大多是使用相同的模型结构来预测不同层级的标签,忽略了不同层级之间的差异性和多样性,导致多标签文本分类结果不准确。因此,亟需提供一种准确性更高的多标签文本分类方法。
发明内容
本申请实施例的目的是提供一种文本分类模型的训练方法、文本分类方法及装置,用以解决现有技术中对文本进行多层级标签分类不准确的问题。
为解决上述技术问题,本申请实施例是这样实现的:
一方面,本申请实施例提供一种文本分类模型的训练方法,包括:
根据样本文本,确定多层级标签组中的每个类别标签对应的标准特征句;所述多层级标签组包括多个层级的类别标签,各所述类别标签之间具有层级关联关系;
根据所述样本文本、所述每个类别标签和所述标准特征句,构建每个层级的第一样本特征数据;
根据所述每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到所述每个层级对应的层级分类模型;
利用所述每个层级对应的层级分类模型对所述样本文本进行层级分类,得到所述每个层级对应的层级分类结果,并根据所述样本文本和所述层级分类结果构建所述每个层级对应的第二样本特征数据;所述第二样本特征数据包括:所述层级对应的层级分类结果和位于所述层级之上的父层级对应的层级分类结果;
根据所述第二样本特征数据对待训练文本分类模型进行训练,得到所述每个层级对应的文本分类模型。
另一方面,本申请实施例提供一种文本分类方法,包括:
将目标文本分别输入每个层级对应的层级分类模型中,对所述目标文本进行层级分类,得到所述每个层级对应的层级分类结果;
针对每个层级,根据所述目标文本和所述层级分类结果,并按照所述每个层级之间的层级关系执行文本分类操作,所述文本分类操作包括:构建所述层级对应的关联特征数据,并将所述关联特征数据输入所述层级对应的文本分类模型中,对所述目标文本进行文本分类;确定最后一个所述层级对应的文本分类结果为所述目标文本对应的文本分类结果;
其中,所述层级分类模型和所述文本分类模型按照上述任一方面所述的文本分类模型的训练方法训练得到。
再一方面,本申请实施例提供一种文本分类模型的训练装置,包括:
第一确定模块,用于根据样本文本,确定多层级标签组中的每个类别标签对应的标准特征句;所述多层级标签组包括多个层级的类别标签,各所述类别标签之间具有层级关联关系;
第一构建模块,用于根据所述样本文本、所述每个类别标签和所述标准特征句,构建每个层级的第一样本特征数据;
第一训练模块,用于根据所述每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到所述每个层级对应的层级分类模型;
第二构建模块,用于利用所述每个层级对应的层级分类模型对所述样本文本进行层级分类,得到所述每个层级对应的层级分类结果,并根据所述样本文本和所述层级分类结果构建所述每个层级对应的第二样本特征数据;所述第二样本特征数据包括:所述层级对应的层级分类结果和位于所述层级之上的父层级对应的层级分类结果;
第二训练模块,用于根据所述第二样本特征数据对待训练文本分类模型进行训练,得到所述每个层级对应的文本分类模型。
再一方面,本申请实施例提供一种文本分类装置,包括:
层级分类模块,用于将目标文本分别输入每个层级对应的层级分类模型中,对所述目标文本进行层级分类,得到所述每个层级对应的层级分类结果;
文本分类模块,用于针对每个层级,根据所述目标文本和所述层级分类结果,并按照所述每个层级之间的层级关系执行文本分类操作,所述文本分类操作包括:构建所述层级对应的关联特征数据,并将所述关联特征数据输入所述层级对应的文本分类模型中,对所述目标文本进行文本分类;确定最后一个所述层级对应的文本分类结果为所述目标文本对应的文本分类结果;
其中,所述层级分类模型和所述文本分类模型按照上述任一方面所述的文本分类模型的训练方法训练得到。
再一方面,本申请实施例提供一种电子设备,包括处理器和与所述处理器电连接的存储器,所述存储器存储有计算机程序,所述处理器用于从所述存储器调用并执行所述计算机程序以实现上述任一方面所述的文本分类模型的训练方法,或者,所述处理器用于从所述存储器调用并执行所述计算机程序以实现上述任一方面所述的文本分类方法。
再一方面,本申请实施例提供一种计算机可读存储介质,用于存储计算机程序,所述计算机程序能够被处理器执行以实现上述任一方面所述的文本分类模型的训练方法,或者,所述计算机程序能够被处理器执行以实现上述任一方面所述的文本分类方法。
采用本申请实施例的技术方案,通过确定多层级标签组中的每个类别标签对应的标准特征句,根据样本文本、每个类别标签和标准特征句,构建每个层级的第一样本特征数据,并根据每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到每个层级对应的层级分类模型。由于多层级标签组包括多个层级的类别标签,且各类别标签之间具有层级关联关系,因此,层级分类模型在层级维度上具备对文本进行分类和识别层级标签的作用,并且每个层级对应各自的层级分类模型,使得层级分类模型的输出(即层级分类结果)能够体现不同层级之间的差异性和多样性,而并非所有层级均使用相同的层级分类模型。进一步地,通过利用每个层级对应的层级分类模型对样本文本进行层级分类,得到每个层级对应的层级分类结果,根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据,进而根据第二样本特征数据对待训练文本分类模型进行训练,得到每个层级对应的文本分类模型。可见,在训练文本分类模型时,首先需要利用训练好的层级分类模型从层级维度上对样本文本进行层级分类,进而根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据,该第二样本特征数据包括当前层级对应的层级分类结果和位于当前层级之上的父层级对应的层级分类结果。因此,文本分类模型所依据的第二样本特征数据融合了当前层级以及当前层级的所有父层级的层级分类结果,也就是说,在训练文本分类模型时,能够将当前层级以及当前层级的所有父层级的特征空间融合起来作为训练样本,使得训练后的文本分类模型能够分析文本中隐含的各层级之间的关联特征信息,从而使文本分类模型能够在高度融合各层级间的关联性的情况下对文本进行分类,提升了文本分类模型的模型性能。
附图说明
为了更清楚地说明本申请一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请一个或多个实施例中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本申请一实施例的一种文本分类模型的训练方法的示意性流程图;
图2是根据本申请一实施例的一种多层级标签组的示意性层级关系图;
图3是根据本申请一实施例的一种层级分类模型的训练方法的示意性原理图;
图4是根据本申请一实施例的一种文本分类模型的训练方法的示意性原理图;
图5是根据本申请一实施例的一种文本分类方法的示意性流程图;
图6是根据本申请一实施例的一种文本分类方法的示意性原理图;
图7是根据本申请一实施例的一种文本分类模型的训练装置的示意性框图;
图8是根据本申请一实施例的一种文本分类装置的示意性框图;
图9是根据本申请一实施例的一种电子设备的示意性框图。
具体实施方式
本申请实施例提供一种文本分类模型的训练方法、文本分类方法及装置,用以解决现有技术中对文本进行多层级标签分类不准确的问题。
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
层级多标签文本分类作为多标签分类下的子任务,用于标记每个给定文本与最相关的多个层次标签。通常,文本分类采用深度学习方法,通过训练层数很深的神经网络模型来强力捕捉文本特征,从而实现对长文本进行多标签文本分类的效果。相关技术中,首先获取待识别文本,确定待识别文本的待识别文本向量。然后将待识别文本和多个层级标签进行组合,并将组合后得到的文本数据输入预先训练好的层级多标签分类模型中进行特征提取,得到各个层级分别对应的特征向量。然后,基于层级多标签分类模型对每个特征向量进行处理,从而确定出待识别文本所属的按照层级划分的多个标签。可见,该技术方案虽然能够实现多层级标签分类效果,但由于没有考虑到各个层级之间的关联性,因此无法识别到各个层级之间的关联特征信息,从而导致文本分类结果不准确。并且,随着层级的深入,层级标签的识别准确率会越来越低。而本申请提供的文本分类模型的训练方法及文本分类方法,在训练文本分类模型时,通过确定多层级标签组中的每个类别标签对应的标准特征句,根据样本文本、每个类别标签和标准特征句构建每个层级的第一样本特征数据,并根据每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到每个层级对应的层级分类模型。由于多层级标签组包括多个层级的类别标签,且各类别标签之间具有层级关联关系,因此,层级分类模型在层级维度上具备对文本进行分类和识别层级标签的作用,并且每个层级对应各自的层级分类模型,使得层级分类模型的输出(即层级分类结果)能够体现不同层级之间的差异性和多样性,而并非所有层级均使用相同的层级分类模型。进一步地,通过利用每个层级对应的层级分类模型对样本文本进行层级分类,得到每个层级对应的层级分类结果,根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据,进而根据第二样本特征数据对待训练文本分类模型进行训练,得到每个层级对应的文本分类模型。可见,在训练文本分类模型时,首先需要利用训练好的层级分类模型从层级维度上对样本文本进行层级分类,进而根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据,该第二样本特征数据包括当前层级对应的层级分类结果和位于当前层级之上的父层级对应的层级分类结果。因此,文本分类模型所依据的第二样本特征数据融合了当前层级以及当前层级的所有父层级的层级分类结果,也就是说,在训练文本分类模型时,能够将当前层级以及当前层级的所有父层级的特征空间融合起来作为训练样本,使得训练后的文本分类模型能够分析文本中隐含的各层级之间的关联特征信息,从而使文本分类模型能够在高度融合各层级间的关联性的情况下对文本进行分类,提升了文本分类模型的模型性能。
本申请实施例提供的文本分类模型的训练方法及文本分类方法方法可由电子设备执行,或者由安装于电子设备中的软件执行,具体地,电子设备可以是终端设备或者服务端设备。其中,终端设备可以包括智能手机、笔记本电脑、智能可穿戴设备、车载终端等,服务器设备可以包括独立的物理服务器、由多个服务器组成的服务器集群或者能够进行云计算的云服务器。
图1是根据本申请一实施例的一种文本分类模型的训练方法的示意性流程图,如图1所示,该方法包括:
S102,根据样本文本,确定多层级标签组中的每个类别标签对应的标准特征句;多层级标签组包括多个层级的类别标签,各类别标签之间具有层级关联关系。
其中,各类别标签之间的层级关联关系用于表明各类别标签之间的关联性、依赖性。例如,多层级标签组包括以下类别标签:催收类、催收态度、催收方式。可以看出,催收类属于第一层级标签,催收态度和催收方式属于并列的第二层级标签,“催收态度”和“催收方式”对应的层级均位于“催收类”对应的层级之下。也即,第一层级标签的层级最高,第二层级标签的层级次高,以此类推。
一个层级可对应有一个或多个类别标签,每个类别标签对应各自的标准特征句。
可选地,标准特征句可按照以下方式确定:首先,针对每个类别标签,确定该类别标签对应的标准句,标准句用于标识类别标签对应的语义特征。然后,将标准句和样本文本中的每个样本句子进行匹配,根据匹配结果从每个样本句子中提取与标准句相匹配的样本句子为标准特征句。例如,对于类别标签“催收类”,确定该类别标签“催收类”对应的标准句为“请不要催收我”,然后将标准句“请不要催收我”和样本文本中的每个样本句子进行匹配,从而匹配出和标准句“请不要催收我”相匹配的样本句子,作为标准特征句。
可选地,标准特征句仅包括一个样本句子。将类别标签对应的标准句和样本文本中的每个样本句子进行匹配,根据匹配结果从每个样本句子中提取与标准句相匹配的样本句子为标准特征句时,首先计算标准句和每个样本句子之间的相似度,进而根据相似度,从所有样本句子中提取与标准句之间相似度最高的样本句子,作为标准特征句。沿用上述举例,从样本文本中选择标准特征句时,可按照每个样本句子和标准句“请不要催收我”之间的相似度高低进行排序,选择出其中最高相似度对应的样本句子作为类别标签“催收类”对应的标准特征句。
S104,根据样本文本、每个类别标签和标准特征句,构建每个层级的第一样本特征数据。
可选地,将样本文本、每个类别标签和标准特征句中的部分或全部进行拼接,即可得到每个层级的第一样本特征数据。例如,对于第N层级,将第N层级的类别标签以及该类别标签对应的标准特征句进行拼接,然后和样本文本一起组合成第N层级对应的第一样本特征数据。其中,N为大于或等于1的整数。
S106,根据每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到每个层级对应的层级分类模型。
其中,每个层级分别对应各自的层级分类模型。多层级标签组中包括多少个层级的类别标签,就需要训练多少个层级分类模型。在训练第N层级对应的层级分类模型时,将第N层级对应的第一样本特征数据输入待训练层级分类模型中,得到样本文本对应的预测层级分类结果,根据预测层级分类结果以及第一样本特征数据对待训练层级分类模型进行训练。
第一样本特征数据可包括:样本文本、样本文本对应的第一正样本标签和第一负样本标签。第一正样本标签和第一负样本标签是由层级对应的标准特征句和类别标签确定得到的,例如将标准特征句和类别标签进行组合后作为第一正样本标签或者第一负样本标签。预测层级分类结果可包括:第一预测特征句以及第一预测特征句对应的第一预测类别标签。
S108,利用每个层级对应的层级分类模型对样本文本进行层级分类,得到每个层级对应的层级分类结果,并根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据;第二样本特征数据包括:层级对应的层级分类结果和位于层级之上的父层级对应的层级分类结果。
其中,层级分类结果可包括:独立特征句以及独立特征句对应的独立类别标签。第二样本特征数据包括:样本文本、样本文本对应的第二正样本标签和第二负样本标签。
S110,根据第二样本特征数据对待训练文本分类模型进行训练,得到每个层级对应的文本分类模型。
采用本申请实施例的技术方案,通过确定多层级标签组中的每个类别标签对应的标准特征句,根据样本文本、每个类别标签和标准特征句,构建每个层级的第一样本特征数据,并根据每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到每个层级对应的层级分类模型。由于多层级标签组包括多个层级的类别标签,且各类别标签之间具有层级关联关系,因此,层级分类模型在层级维度上具备对文本进行分类和识别层级标签的作用,并且每个层级对应各自的层级分类模型,使得层级分类模型的输出(即层级分类结果)能够体现不同层级之间的差异性和多样性,而并非所有层级均使用相同的层级分类模型。进一步地,通过利用每个层级对应的层级分类模型对样本文本进行层级分类,得到每个层级对应的层级分类结果,根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据,进而根据第二样本特征数据对待训练文本分类模型进行训练,得到每个层级对应的文本分类模型。可见,在训练文本分类模型时,首先需要利用训练好的层级分类模型从层级维度上对样本文本进行层级分类,进而根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据,该第二样本特征数据包括当前层级对应的层级分类结果和位于当前层级之上的父层级对应的层级分类结果。因此,文本分类模型所依据的第二样本特征数据融合了当前层级以及当前层级的所有父层级的层级分类结果,也就是说,在训练文本分类模型时,能够将当前层级以及当前层级的所有父层级的特征空间融合起来作为训练样本,使得训练后的文本分类模型能够分析文本中隐含的各层级之间的关联特征信息,从而使文本分类模型能够在高度融合各层级间的关联性的情况下对文本进行分类,提升了文本分类模型的模型性能。
以下示例性列举多层级标签组中包括的多个分类标签及其对应的标准特征句。
图2是根据本申请一实施例的一种多层级标签组的示意性层级关系图。如图2所示,仍以催收场景为例,假设多层级标签组中包括三个层级,第一层级的类别标签包括:催收类、费用类、协商还款类、前端类,等等。第二层级的类别标签包括:催收态度、催收方式、业务执行,等等。第三层级的类别标签包括:威胁恐吓、语气不好、未贷款被催收,等等。图2中的箭头指向表示了层级上下关系,例如,箭头由类别标签“催收类”指向了类别标签“催收态度”,说明类别标签“催收类”对应的层级位于类别标签“催收态度”对应的层级之上。本实施例中,第一层级的类别标签“费用类”、“协商还款类”和“前端类”也可以有各自对应的下一层级的类别标签,为简便说明,图2中仅示出了与类别标签“催收类”相关的部分类别标签。
在根据样本文本确定每个类别标签对应的标准特征句时,先确定每个类别标签对应的标准句,可选地,还可以为每个类别标签确定对应的语义含义,该语义含义用于表明对应的类别标签的语义信息。然后根据每个类别标签对应的标准句,从样本文中筛选出每个类标标签对应的标准特征句。下面以表格形式列举了图2中的部分类别标签及其对应的语义含义、标准句和标准特征句。其中,表1示出了第一层级的标签(简称一级标签)及其对应的语义含义、标准句和标准特征句。表2示出了第二层级的标签(简称二级标签)及其对应的语义含义、标准句和标准特征句。表3示出了第三层级的标签(简称三级标签)及其对应的语义含义。
表1
表2
表3
二级标签 | 三级标签 | 语义含义 |
催收态度 | 威胁恐吓 | 催收威胁恐吓 |
催收态度 | 语气不好 | 内部催收态度极其恶劣 |
催收方式 | 未贷款被催收 | 在我司无贷款,被催收 |
在一个实施例中,第一样本特征数据包括:样本文本、样本文本对应的第一正样本标签和第一负样本标签。针对每个层级,在根据样本文本、每个类别标签和标准特征句构建层级的第一样本特征数据时,可执行为以下步骤:
首先,将层级对应的标准特征句和类别标签进行组合,得到层级对应的第一正样本标签。
其中,组合的方式可以是直接拼接。例如,将标准特征句和类别标签依次拼接,即可得到层级对应的第一正样本标签。
其次,将层级对应的标准特征句和其它层级对应的类别标签进行组合,和/或,将层级对应的第一非特征句和类别标签进行组合,得到层级对应的第一负样本标签;第一非特征句是样本文本中与标准特征句不同的句子。
在第一样本特征数据中,第一正样本标签和第一负样本标签可以理解为样本文本携带的标签信息的标签类型,第一正样本标签和第一负样本标签对应的具体内容则可以理解为样本文本携带的标签信息。例如,第一层级对应的类别标签包括“催收类”,类别标签“催收类”对应的标准特征句为“催收人员一直给我打电话”,那么,可将标准特征句“催收人员一直给我打电话”和类别标签“催收类”进行拼接,得到第一层级对应的第一正样本标签“催收人员一直给我打电话#催收类”,其中,符号“#”不具有实际含义,其作用是为了间隔标准特征句和类别标签。将标准特征句“催收人员一直给我打电话”和其它类别标签“费用类”进行拼接,得到第一层级对应的第一负样本标签“催收人员一直给我打电话#费用类”,将第一非特征句“费用收费不对啊”和类别标签“催收类”进行拼接,得到第一层级对应的第一负样本标签“费用收费不对啊#催收类”。下表4列举了第一层级对应的部分第一正样本标签和第一负样本标签。
表4
第一样本特征数据 | 标签类型 |
催收人员一直给我打电话#催收类 | 第一正样本标签 |
催收人员一直给我打电话#费用类 | 第一负样本标签 |
费用收费不对啊#催收类 | 第一负样本标签 |
不要老是给我打电话催收我#前端类 | 第一负样本标签 |
本实施例中,对于每个层级,将层级对应的标准特征句和类别标签组合的结果作为正样本标签,将层级对应的标准特征句和其它类别标签、和/或层级对应的类别标签和其它句子组合的结果作为负样本标签,也即,相互匹配的标准特征句和类别标签的组合为正样本标签,不相匹配的句子和类别标签的组合为负样本标签,从而使待训练层级分类模型能够学习到相互匹配的句子和类别标签的特征,进而学习到对文本进行层级标签分类的能力。
在一个实施例中,针对每个层级,根据层级的第一样本特征数据,对待训练层级分类模型进行训练时,可执行为以下步骤A1-A3:
步骤A1,将第一样本特征数据输入待训练层级分类模型,对样本文本进行层级分类,得到样本文本对应的预测层级分类结果。其中,预测层级分类结果包括:第一预测特征句以及第一预测特征句对应的第一预测类别标签。
步骤A2,将预测层级分类结果与第一正样本标签和/或第一负样本标签进行比对,得到第一比对结果。
其中,第一比对结果可以是预测层级分类结果的正确率。例如,第一样本特征数据包括多个,将每个第一样本特征数据对应的预测层级分类结果和第一正样本标签(或者和第一负样本标签)进行比对,以确定每个第一样本特征数据对应的预测层级分类结果是正确还是错误,从而确定出多个第一样本特征数据对应的预测层级分类结果的正确率。其中,预测层级分类结果和第一正样本标签相同,则确定预测层级分类结果正确;预测层级分类结果和第一正样本标签不相同,或者预测层级分类结果和第一负样本标签相同,则确定预测层级分类结果错误。
步骤A3,根据第一比对结果对待训练层级分类模型的模型参数进行迭代调整,得到层级对应的层级分类模型。
可选地,根据第一比对结果,如果预测层级分类结果的正确率大于或等于第一预设阈值,则确定待训练层级分类模型达到了训练目标,此时停止迭代,得到当前层级对应的层级分类模型。如果预测层级分类结果的正确率小于第一预设阈值,则确定待训练层级分类模型未达到训练目标,此时,对待训练层级分类模型的模型参数进行调整,并进入下一轮迭代。
图3是根据本申请一实施例的一种层级分类模型的训练方法的示意性原理图。图3示出的是任一层级对应的层级分类模型的训练方法的原理图,如图3所示,在每一次迭代过程中,将多个第一样本特征数据输入待训练层级分类模型,待训练层级分类模型对输入的每个第一样本特征数据进行层级分类,得到每个第一样本特征数据对应的预测层级分类结果,该预测层级分类结果包括第一预测特征句及其对应的第一预测类别标签。然后,将每个第一样本特征数据对应的预测层级分类结果和第一样本特征数据中包括的第一正样本标签进行比对,确定出预测层级分类结果的正确率。若预测层级分类结果的正确率大于或等于第一预设阈值,则确定待训练层级分类模型达到了训练目标,此时停止迭代,得到当前层级对应的层级分类模型。若该正确率小于第一预设阈值,则确定待训练层级分类模型未达到训练目标,此时,对训练层级分类模型的模型参数进行调整,并进入下一轮迭代。
在一个实施例中,层级分类结果包括:独立特征句以及独立特征句对应的独立类别标签。第二样本特征数据包括:样本文本、样本文本对应的第二正样本标签和第二负样本标签。针对每个层级,根据样本文本和层级分类结果构建层级对应的第二样本特征数据时,可具体执行为以下步骤B1-B3:
步骤B1,确定位于层级之上的父层级对应的关联特征句,以及父层级对应的关联类别标签。
其中,除第一层级之外,其它层级均对应有各自的父层级,层级对应的父层级即为位于层级之上的其它层级,例如,第二层级的父层级为第一层级,第三层级的父层级包括第一层级和第二层级,等等。
步骤B2,将父层级对应的关联特征句、层级对应的独立特征句、父层级对应的关联类别标签和层级对应的独立类别标签进行组合,得到层级对应的第二正样本标签。
其中,组合的方式可以是直接拼接。例如,将关联特征句、层级对应的独立特征句、关联类别标签和层级对应的独立类别标签依次拼接,即可得到层级对应的第二正样本标签。
步骤B3,将父层级对应的关联特征句、层级对应的独立特征句、父层级对应的关联类别标签和其它层级对应的独立类别标签进行组合,和/或,将关联特征句、层级对应的第二非特征句、关联类别标签和层级对应的独立类别标签进行组合,得到层级对应的第二负样本标签;第二非特征句是样本文本中与独立特征句不同的句子。
在第二样本特征数据中,第二正样本标签和第二负样本标签可以理解为样本文本携带的标签信息的标签类型,第二正样本标签和第二负样本标签对应的具体内容则可以理解为样本文本携带的标签信息。
为体现出各个层级之间的层级关联关系,对于除第一层级之外的其它层级对应的类别标签,可以将层级对应的独立类别标签和层级的父层级对应的独立类别标签进行关联表示,即表示为关联类别标签。将层级对应的独立类别标签对应的独立特征句和其父层级对应的独立类别标签对应的独立特征句进行关联表示,即表示为关联特征句。对于每个层级而言,层级对应的类别标签可称之为独立类别标签,层级对应的类别标签对应的特征句可称之为独立特征句。其父层级对应的类别标签可称之为关联特征标签,其父层级对应的类别标签对应的特征句可称之为关联特征句。
例如,第一层级对应的独立类别标签包括“催收类”,该类别标签“催收类”对应的独立特征句为“催收人员一直给我打电话”。第二层级对应的独立类别标签包括“催收态度”,该独立类别标签“催收态度”对应的独立特征句为“态度不好”。按照本实施例中的表示方法,将第一层级的独立类别标签“催收类”和第二层级的独立类别标签“催收态度”进行关联表示,得到关联类别标签“催收类|催收态度”。将独立特征句“催收人员一直给我打电话”和独立特征句“态度不好”进行关联表示,得到关联特征句“催收人员一直给我打电话|态度不好”。符号“|”不具有实际含义,其作用是为了体现出相邻两个类别标签之间的层级关系。
下表5示出了部分第二样本特征数据、第二正样本标签和第二负样本标签的表示示例:
表5
第二样本特征数据 | 标签类型 |
催收人员一直给我打电话|态度不好#催收类|催收态度 | 第二正样本标签 |
催收人员一直给我打电话|态度不好#催收类|催收方式 | 第二负样本标签 |
催收人员一直给我打电话|态度不好#催收类|业务执行 | 第二负样本标签 |
本实施例中,对于每个层级,通过将层级对应的父层级对应的关联特征句、层级对应的独立特征句、父层级对应的关联类别标签和层级对应的独立类别标签进行组合后得到的结果作为正样本标签,将父层级对应的关联特征句、层级对应的独立特征句、父层级对应的关联类别标签和其它层级对应的独立类别标签组合后得到的结果,和/或关联特征句、层级对应的第二非特征句、关联类别标签和层级对应的独立类别标签组合后得到的结果作为负样本标签,也即,相互匹配的特征句和类别标签的组合为正样本标签,不相匹配的句子和类别标签的组合为负样本标签,从而使待训练文本分类模型能够学习到相互匹配的句子和类别标签的特征,进而学习到对文本进行多层级标签分类的能力。此外,由于每个层级对应的第二样本特征数据均融合了父层级对应的关联特征句和关联类别标签,因此,在训练文本分类模型时,能够将层级及其父层级的特征空间融合起来作为训练样本,使得训练后的文本分类模型能够分析文本中隐含的各层级之间的关联特征信息,从而使文本分类模型能够在高度融合各层级间的关联性的情况下对文本进行分类,提升了文本分类模型的模型性能。
在一个实施例中,确定位于层级之上的父层级对应的关联特征句,以及父层级对应的关联类别标签(即步骤B1)可执行为以下方式:
若父层级仅包括一个,则确定父层级对应的独立特征句为关联特征句,确定父层级对应的独立类别标签为关联类别标签。
若父层级包括多个,则按照多个父层级之间的层级关系,依次将每个父层级对应的独立特征句进行组合,得到关联特征句;以及,依次将每个父层级对应的独立类别标签进行组合,得到关联类别标签。
沿用上述举例,第一层级对应的独立类别标签包括“催收类”,该独立类别标签“催收类”对应的独立特征句为“催收人员一直给我打电话”。第二层级对应的独立类别标签包括“催收态度”,该独立类别标签“催收态度”对应的独立特征句为“态度不好”。第三层级对应的独立类别标签包括“语气不好”,该独立类别标签“语气不好”对应的独立特征句为“内部催收态度极其恶劣”。对于第二层级而言,其父层级为第一层级,因此,在确定第二层级对应的第二样本特征数据时,位于第一层级的独立类别标签“催收类”可作为第二层级对应的关联类别标签,独立类别标签“催收类”对应的独立特征句“催收人员一直给我打电话”可作为第二层级对应的关联特征句。对于第三层级而言,其父层级包括第一层级和第二层级,因此,在确定第三层级对应的第二样本特征数据时,第三层级对应的关联类别标签为“催收类|催收态度”,对应的关联特征句为“催收人员一直给我打电话|态度不好”。进一步地,将第三层级对应的关联特征句、独立特征句、关联类别标签和独立类别标签依次进行拼接,可得到第三层级对应的第二正样本标签“催收人员一直给我打电话|态度不好|内部催收态度极其恶劣#催收类|催收态度|语气不好”。其中,符号“#”和符号“|”不具有实际含义,符号“#”的作用是为了间隔特征句和类别标签,符号“|”的作用是为了体现出相邻两个类别标签之间的层级关系。
在一个实施例中,针对每个层级,根据第二样本特征数据对待训练文本分类模型进行训练时,可执行为以下步骤C1-C3:
步骤C1,将层级对应的第二样本特征数据输入待训练文本分类模型,对样本文本进行文本分类,得到样本文本对应的预测文本分类结果。其中,预测文本分类结果包括:第二预测特征句以及第二预测特征句对应的第二预测类别标签。
步骤C2,将预测文本分类结果与第二正样本标签和/或第二负样本标签进行比对,得到第二比对结果。
其中,第二比对结果可以是预测文本分类结果的正确率。例如,层级对应的第二样本特征数据包括多个,将每个第二样本特征数据对应的预测文本分类结果和第二正样本标签(或者和第二负样本标签)进行比对,以确定每个第二样本特征数据对应的预测文本分类结果是正确还是错误,从而确定出多个第二样本特征数据对应的预测文本分类结果的正确率。其中,预测文本分类结果和第二正样本标签相同,则确定预测文本分类结果正确;预测文本分类结果和第二正样本标签不相同,或者预测文本分类结果和第二负样本标签相同,则确定预测文本分类结果错误。
步骤C3,根据第二比对结果对待训练文本分类模型的模型参数进行迭代调整,得到层级对应的文本分类模型。
可选地,根据第二比对结果,如果预测文本分类结果的正确率大于或等于第二预设阈值,则确定待训练文本分类模型达到了训练目标,此时停止迭代,得到文本分类模型。如果预测文本分类结果的正确率小于第二预设阈值,则确定待训练文本分类模型未达到训练目标,此时,对待训练文本分类模型的模型参数进行调整,并进入下一轮迭代。
图4是根据本申请一实施例的一种文本分类模型的训练方法的示意性原理图。如图4所示,在每一次迭代过程中,将多个第二样本特征数据输入待训练文本分类模型,待训练文本分类模型对输入的每个第二样本特征数据进行文本分类,得到每个第二样本特征数据对应的预测文本分类结果,该预测文本分类结果包括第二预测特征句及其对应的第二预测类别标签。然后,将每个第二样本特征数据对应的预测文本分类结果和第二样本特征数据中包括的第二正样本标签进行比对,确定出预测文本分类结果的正确率。若预测文本分类结果的正确率大于或等于第二预设阈值,则确定待训练文本分类模型达到了训练目标,此时停止迭代,得到文本分类模型。若该正确率小于第二预设阈值,则确定待训练文本分类模型未达到训练目标,此时,对训练文本分类模型的模型参数进行调整,并进入下一轮迭代。
图5是根据本申请一实施例的一种文本分类方法的示意性流程图,如图5所示,该方法包括:
S502,将目标文本分别输入每个层级对应的层级分类模型中,对目标文本进行层级分类,得到每个层级对应的层级分类结果。
其中,层级分类结果可包括:独立特征句以及独立特征句对应的独立类别标签。
S504,针对每个层级,根据目标文本和层级分类结果,并按照每个层级之间的层级关系执行文本分类操作,文本分类操作包括:构建层级对应的关联特征数据,并将关联特征数据输入层级对应的文本分类模型中,对目标文本进行文本分类;确定最后一个层级对应的文本分类结果为目标文本对应的文本分类结果。
其中,层级分类模型和文本分类模型按照上述任一实施例中所述的文本分类模型的训练方法训练得到。每个层级对应的文本分类结果包括:层级对应的至少一个特征句和每个特征句对应的类别标签。
可选地,关联特征数据的构建方式可包括以下步骤:首先,根据位于层级之上的父层级对应的层级分类结果,确定父层级对应的关联特征句以及父层级对应的关联类别标签。其次,将关联特征句、层级对应的独立特征句、关联类别标签和层级对应的独立类别标签进行组合,得到层级对应的关联特征数据。
其中,若父层级仅包括一个,则确定父层级对应的独立特征句为关联特征句,确定父层级对应的独立类别标签为关联类别标签。若父层级包括多个,则按照多个父层级之间的层级关系,依次将每个父层级对应的独立特征句进行组合,得到关联特征句;以及,依次将每个父层级对应的独立类别标签进行组合,得到关联类别标签。
沿用上述举例,第一层级对应的独立类别标签包括“催收类”,该独立类别标签“催收类”对应的独立特征句为“催收人员一直给我打电话”。第二层级对应的独立类别标签包括“催收态度”,该独立类别标签“催收态度”对应的独立特征句为“态度不好”。第三层级对应的独立类别标签包括“语气不好”,该独立类别标签“语气不好”对应的独立特征句为“内部催收态度极其恶劣”。对于第二层级而言,其父层级为第一层级,因此,在构建第二层级对应的关联特征数据时,位于第一层级的独立类别标签“催收类”可作为第二层级对应的关联类别标签,独立类别标签“催收类”对应的独立特征句“催收人员一直给我打电话”可作为第二层级对应的关联特征句,第二层级对应的关联特征数据即为“催收人员一直给我打电话|态度不好#催收类|催收态度”。对于第三层级而言,其父层级包括第一层级和第二层级,因此,在构建第三层级对应的关联特征数据时,第三层级对应的关联类别标签为“催收类|催收态度”,对应的关联特征句为“催收人员一直给我打电话|态度不好”,第三层级对应的关联特征数据即为“催收人员一直给我打电话|态度不好|内部催收态度极其恶劣#催收类|催收态度|语气不好”。其中,符号“#”和符号“|”不具有实际含义,符号“#”的作用是为了间隔特征句和类别标签,符号“|”的作用是为了体现出相邻两个类别标签之间的层级关系。
采用本申请实施例的技术方案,通过将目标文本分别输入每个层级对应的层级分类模型中,对目标文本进行层级分类,得到每个层级对应的层级分类结果;进而针对每个层级,根据目标文本和层级分类结果,并按照每个层级之间的层级关系执行以下文本分类操作:构建层级对应的关联特征数据,并将关联特征数据输入层级对应的文本分类模型中,对目标文本进行文本分类。确定最后一个层级对应的文本分类结果为目标文本对应的文本分类结果。由于层级分类模型在层级维度上具备对文本进行分类和识别层级标签的作用,并且每个层级对应各自的层级分类模型,使得层级分类模型的输出(即层级分类结果)能够体现不同层级之间的差异性和多样性,而并非所有层级均使用相同的层级分类模型。此外,由于文本分类模型在训练时依据的样本特征数据融合了各层级及其父层级的的特征空间,也就是说,文本分类模型能够分析出文本中隐含的各层级之间的关联特征信息,因此,文本分类模型能够在高度融合各层级间的关联性的情况下对文本进行分类,从而提升了文本分类模型的模型性能,确保目标文本对应的文本分类结果的准确性。
图6是根据本申请一实施例的一种文本分类方法的示意性原理图,如图6所示,假设一共有第一层级、第二层级和第三层级3个层级,预先训练了第一层级、第二层级和第三层级分别对应的层级分类模型,包括第一层级分类模型、第二层级分类模型和第三层级分类模型。以及,预先训练了第一层级、第二层级和第三层级分别对应的文本分类模型,第二层级对应的文本分类模型记为第二文本分类模型,第三层级对应的文本分类模型记为第三文本分类模型。由于第一层级没有父层级,因此第一层级对应的文本分类模型(即为第一文本分类模型)和第一层级对应的层级分类模型相同。
首先将目标文本分别输入每个层级对应的层级分类模型中,每个层级分类模型分别对目标文本进行层级分类,得到每个层级对应的层级分类结果。层级分类结果包括:独立特征句以及独立特征句对应的独立类别标签。为便于区分,将第一层级分类模型输出的层级分类结果记为第一独立特征句和第一独立类别标签,将第二层级分类模型输出的层级分类结果记为第二独立特征句和第二独立类别标签,将第三层级分类模型输出的层级分类结果记为第三独立特征句和第三独立类别标签。
然后,针对每个层级,按照每个层级之间的层级关系执行以下文本分类操作:构建层级对应的关联特征数据,并将关联特征数据输入层级对应的文本分类模型中,对目标文本进行文本分类。确定最后一个层级对应的文本分类结果为目标文本对应的文本分类结果。
由于第一层级没有父层级,因此,第一层级对应的关联特征数据即为第一层级对应的独立特征句和独立类别标签的组合。第一层级对应的文本分类结果与第一层级对应的层级分类结果相同。第一层级对应的文本分类结果包括:第一层级对应的第一特征句和第一特征句对应的第一类别标签。
接着构建第二层级对应的关联特征数据,并将目标文本和第一层级对应的文本分类结果输入第二文本分类模型中,第二文本分类模型基于第二层级对应的关联特征数据对目标文本进行文本分类,得到第二层级对应的文本分类结果。其中,在构建第二层级对应的关联特征数据时,可将第二层级对应的关联特征句、独立特征句、关联类别标签和独立类别标签进行组合。第二层级对应的关联特征句即为第一层级对应的独立特征句,第二层级对应的关联类别标签即为第一层级对应的独立类别标签。第二层级对应的文本分类结果包括:第二层级对应的第二特征句和第二特征句对应的第二类别标签。
接着构建第三层级对应的关联特征数据,并将目标文本和第二层级对应的文本分类结果输入第三文本分类模型中,第三文本分类模型基于第三层级对应的关联特征数据对目标文本进行文本分类,得到第三层级对应的文本分类结果。其中,在构建第三层级对应的关联特征数据时,可将第三层级对应的关联特征句、独立特征句、关联类别标签和独立类别标签进行组合。第三层级对应的关联特征句为:第一层级对应的独立特征句和第二层级对应的独立特征句的组合,第三层级对应的关联类别标签为:第一层级对应的独立类别标签和第二层级对应的独立类别标签的组合。第三层级对应的文本分类结果包括:第三层级对应的第三特征句和第三特征句对应的第三类别标签。
由于第三层级为最后一个层级,因此第三层级对应的文本分类结果即为目标文本对应的文本分类结果。
综上,已经对本主题的特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作可以按照不同的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序,以实现期望的结果。在某些实施方式中,多任务处理和并行处理可以是有利的。
以上为本申请实施例提供的文本分类模型的训练方法和文本分类方法,基于同样的思路,本申请实施例还提供一种文本分类模型的训练装置和文本分类装置。
图7是根据本申请一实施例的一种文本分类模型的训练装置的示意性框图,如图7所示,该装置包括:
第一确定模块71,用于根据样本文本,确定多层级标签组中的每个类别标签对应的标准特征句;所述多层级标签组包括多个层级的类别标签,各所述类别标签之间具有层级关联关系;
第一构建模块72,用于根据所述样本文本、所述每个类别标签和所述标准特征句,构建每个层级的第一样本特征数据;
第一训练模块73,用于根据所述每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到所述每个层级对应的层级分类模型;
第二构建模块74,用于利用所述每个层级对应的层级分类模型对所述样本文本进行层级分类,得到所述每个层级对应的层级分类结果,并根据所述样本文本和所述层级分类结果构建所述每个层级对应的第二样本特征数据;所述第二样本特征数据包括:所述层级对应的层级分类结果和位于所述层级之上的父层级对应的层级分类结果;
第二训练模块75,用于根据所述第二样本特征数据对待训练文本分类模型进行训练,得到所述每个层级对应的文本分类模型。
在一个实施例中,所述第一确定模块71在针对每个类别标签,根据样本文本,确定所述类别标签对应的标准特征句时,可具体执行为:
确定所述类别标签对应的标准句;所述标准句用于标识所述类别标签对应的语义特征;
将所述标准句和所述样本文本中的每个样本句子进行匹配,根据匹配结果,从所述每个样本句子中提取与所述标准句相匹配的样本句子为所述标准特征句。
在一个实施例中,所述第一样本特征数据包括:所述样本文本、所述样本文本对应的第一正样本标签和第一负样本标签;
所述第一构建模块72在针对每个层级,根据所述样本文本、所述每个类别标签和所述标准特征句,构建层级的第一样本特征数据时,可具体执行为:
将所述层级对应的所述标准特征句和所述类别标签进行组合,得到所述层级对应的所述第一正样本标签;
将所述层级对应的所述标准特征句和其它层级对应的类别标签进行组合,和/或,将所述层级对应的第一非特征句和所述类别标签进行组合,得到所述层级对应的所述第一负样本标签;所述第一非特征句是所述样本文本中与所述标准特征句不同的句子。
在一个实施例中,所述第一训练模块73在针对每个层级,根据所述层级的第一样本特征数据,对待训练层级分类模型进行训练,得到所述层级对应的层级分类模型时,可具体执行为:
将所述第一样本特征数据输入所述待训练层级分类模型,对所述样本文本进行层级分类,得到所述样本文本对应的预测层级分类结果;所述预测层级分类结果包括:第一预测特征句以及所述第一预测特征句对应的第一预测类别标签;
将所述预测层级分类结果与所述第一正样本标签和/或所述第一负样本标签进行比对,得到第一比对结果;
根据所述第一比对结果对所述待训练层级分类模型的模型参数进行迭代调整,得到所述层级对应的所述层级分类模型。
在一个实施例中,所述层级分类结果包括:独立特征句以及所述独立特征句对应的独立类别标签;所述第二样本特征数据包括:所述样本文本、所述样本文本对应的第二正样本标签和第二负样本标签;
所述第二构建模块74在针对每个层级,根据所述样本文本和所述层级分类结果构建所述层级对应的第二样本特征数据时,可具体执行为:
确定位于所述层级之上的父层级对应的关联特征句,以及所述父层级对应的关联类别标签;
将所述关联特征句、所述层级对应的独立特征句、所述关联类别标签和所述层级对应的独立类别标签进行组合,得到所述层级对应的所述第二正样本标签;
将所述关联特征句、所述层级对应的独立特征句、所述关联类别标签和其它层级对应的独立类别标签进行组合,和/或,将所述关联特征句、所述层级对应的第二非特征句、所述关联类别标签和所述层级对应的独立类别标签进行组合,得到所述层级对应的所述第二负样本标签;所述第二非特征句是所述样本文本中与所述独立特征句不同的句子。
在一个实施例中,所述第二构建模块74在确定位于所述层级之上的父层级对应的关联特征句,以及所述父层级对应的关联类别标签时,可具体执行为:
若所述父层级仅包括一个,则确定所述父层级对应的所述独立特征句为所述关联特征句,确定所述父层级对应的所述独立类别标签为所述关联类别标签;
若所述父层级包括多个,则按照多个父层级之间的层级关系,依次将每个父层级对应的所述独立特征句进行组合,得到所述关联特征句;依次将所述每个父层级对应的所述独立类别标签进行组合,得到所述关联类别标签。
在一个实施例中,所述第二训练模块75在针对每个层级,根据所述第二样本特征数据对待训练文本分类模型进行训练,得到所述层级对应的文本分类模型时,可具体执行为:
将所述第二样本特征数据输入所述待训练文本分类模型,对所述样本文本进行文本分类,得到所述样本文本对应的预测文本分类结果;所述预测文本分类结果包括:第二预测特征句以及所述第二预测特征句对应的第二预测类别标签;
将所述预测文本分类结果与所述第二正样本标签和/或所述第二负样本标签进行比对,得到第二比对结果;
根据所述第二比对结果对所述待训练文本分类模型的模型参数进行迭代调整,得到所述层级对应的所述文本分类模型。
采用本申请实施例的装置,通过确定多层级标签组中的每个类别标签对应的标准特征句,根据样本文本、每个类别标签和标准特征句,构建每个层级的第一样本特征数据,并根据每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到每个层级对应的层级分类模型。由于多层级标签组包括多个层级的类别标签,且各类别标签之间具有层级关联关系,因此,层级分类模型在层级维度上具备对文本进行分类和识别层级标签的作用,并且每个层级对应各自的层级分类模型,使得层级分类模型的输出(即层级分类结果)能够体现不同层级之间的差异性和多样性,而并非所有层级均使用相同的层级分类模型。进一步地,通过利用每个层级对应的层级分类模型对样本文本进行层级分类,得到每个层级对应的层级分类结果,根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据,进而根据第二样本特征数据对待训练文本分类模型进行训练,得到每个层级对应的文本分类模型。可见,在训练文本分类模型时,首先需要利用训练好的层级分类模型从层级维度上对样本文本进行层级分类,进而根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据,该第二样本特征数据包括当前层级对应的层级分类结果和位于当前层级之上的父层级对应的层级分类结果。因此,文本分类模型所依据的第二样本特征数据融合了当前层级以及当前层级的所有父层级的层级分类结果,也就是说,在训练文本分类模型时,能够将当前层级以及当前层级的所有父层级的特征空间融合起来作为训练样本,使得训练后的文本分类模型能够分析文本中隐含的各层级之间的关联特征信息,从而使文本分类模型能够在高度融合各层级间的关联性的情况下对文本进行分类,提升了文本分类模型的模型性能。
本领域的技术人员应可理解,图7中的文本分类模型的训练装置能够用来实现前文所述的文本分类模型的训练方法,其中的细节描述应与前文方法部分描述类似,为避免繁琐,此处不另赘述。
图8是根据本申请一实施例的一种文本分类装置的示意性框图,如图8所示,该装置包括:
层级分类模块81,用于将目标文本分别输入每个层级对应的层级分类模型中,对所述目标文本进行层级分类,得到所述每个层级对应的层级分类结果;
文本分类模块82,用于针对每个层级,根据所述目标文本和所述层级分类结果,并按照所述每个层级之间的层级关系执行文本分类操作,所述文本分类操作包括:构建所述层级对应的关联特征数据,并将所述关联特征数据输入所述层级对应的文本分类模型中,对所述目标文本进行文本分类;确定最后一个所述层级对应的文本分类结果为所述目标文本对应的文本分类结果;
其中,所述层级分类模型和所述文本分类模型按照上述任一实施例所述的文本分类模型的训练方法训练得到。
在一个实施例中,所述层级分类结果包括:独立特征句以及所述独立特征句对应的独立类别标签;
所述文本分类模块82在构建所述层级对应的关联特征数据时,可具体执行为:
根据位于所述层级之上的父层级对应的所述层级分类结果,确定所述父层级对应的关联特征句以及所述父层级对应的关联类别标签;
将所述关联特征句、所述层级对应的所述独立特征句、所述关联类别标签和所述层级对应的所述独立类别标签进行组合,得到所述层级对应的所述关联特征数据。
在一个实施例中,所述文本分类模块82在根据位于所述层级之上的父层级对应的所述层级分类结果,确定所述父层级对应的关联特征句以及所述父层级对应的关联类别标签时,可具体执行为:
若所述父层级仅包括一个,则确定所述父层级对应的所述独立特征句为所述关联特征句,确定所述父层级对应的所述独立类别标签为所述关联类别标签;
若所述父层级包括多个,则按照多个父层级之间的层级关系,依次将每个父层级对应的所述独立特征句进行组合,得到所述关联特征句;依次将所述每个父层级对应的所述独立类别标签进行组合,得到所述关联类别标签。
采用本申请实施例的装置,通过将目标文本分别输入每个层级对应的层级分类模型中,对目标文本进行层级分类,得到每个层级对应的层级分类结果;进而针对每个层级,根据目标文本和层级分类结果,并按照每个层级之间的层级关系执行以下文本分类操作:构建层级对应的关联特征数据,并将关联特征数据输入层级对应的文本分类模型中,对目标文本进行文本分类。确定最后一个层级对应的文本分类结果为目标文本对应的文本分类结果。由于层级分类模型在层级维度上具备对文本进行分类和识别层级标签的作用,并且每个层级对应各自的层级分类模型,使得层级分类模型的输出(即层级分类结果)能够体现不同层级之间的差异性和多样性,而并非所有层级均使用相同的层级分类模型。此外,由于文本分类模型在训练时依据的样本特征数据融合了各层级及其父层级的的特征空间,也就是说,文本分类模型能够分析出文本中隐含的各层级之间的关联特征信息,因此,文本分类模型能够在高度融合各层级间的关联性的情况下对文本进行分类,从而提升了文本分类模型的模型性能,确保目标文本对应的文本分类结果的准确性。
本领域的技术人员应可理解,图8中的文本分类装置能够用来实现前文所述的文本分类方法,其中的细节描述应与前文方法部分描述类似,为避免繁琐,此处不另赘述。
基于同样的思路,本申请实施例还提供一种电子设备,如图9所示。电子设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器901和存储器902,存储器902中可以存储有一个或一个以上存储应用程序或数据。其中,存储器902可以是短暂存储或持久存储。存储在存储器902的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对电子设备中的一系列计算机可执行指令。更进一步地,处理器901可以设置为与存储器902通信,在电子设备上执行存储器902中的一系列计算机可执行指令。电子设备还可以包括一个或一个以上电源903,一个或一个以上有线或无线网络接口904,一个或一个以上输入输出接口905,一个或一个以上键盘906。
具体在本实施例中,电子设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对电子设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
根据样本文本,确定多层级标签组中的每个类别标签对应的标准特征句;所述多层级标签组包括多个层级的类别标签,各所述类别标签之间具有层级关联关系;
根据所述样本文本、所述每个类别标签和所述标准特征句,构建每个层级的第一样本特征数据;
根据所述每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到所述每个层级对应的层级分类模型;
利用所述每个层级对应的层级分类模型对所述样本文本进行层级分类,得到所述每个层级对应的层级分类结果,并根据所述样本文本和所述层级分类结果构建所述每个层级对应的第二样本特征数据;所述第二样本特征数据包括:所述层级对应的层级分类结果和位于所述层级之上的父层级对应的层级分类结果;
根据所述第二样本特征数据对待训练文本分类模型进行训练,得到所述每个层级对应的文本分类模型。
采用本申请实施例的技术方案,通过确定多层级标签组中的每个类别标签对应的标准特征句,根据样本文本、每个类别标签和标准特征句,构建每个层级的第一样本特征数据,并根据每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到每个层级对应的层级分类模型。由于多层级标签组包括多个层级的类别标签,且各类别标签之间具有层级关联关系,因此,层级分类模型在层级维度上具备对文本进行分类和识别层级标签的作用,并且每个层级对应各自的层级分类模型,使得层级分类模型的输出(即层级分类结果)能够体现不同层级之间的差异性和多样性,而并非所有层级均使用相同的层级分类模型。进一步地,通过利用每个层级对应的层级分类模型对样本文本进行层级分类,得到每个层级对应的层级分类结果,根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据,进而根据第二样本特征数据对待训练文本分类模型进行训练,得到每个层级对应的文本分类模型。可见,在训练文本分类模型时,首先需要利用训练好的层级分类模型从层级维度上对样本文本进行层级分类,进而根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据,该第二样本特征数据包括当前层级对应的层级分类结果和位于当前层级之上的父层级对应的层级分类结果。因此,文本分类模型所依据的第二样本特征数据融合了当前层级以及当前层级的所有父层级的层级分类结果,也就是说,在训练文本分类模型时,能够将当前层级以及当前层级的所有父层级的特征空间融合起来作为训练样本,使得训练后的文本分类模型能够分析文本中隐含的各层级之间的关联特征信息,从而使文本分类模型能够在高度融合各层级间的关联性的情况下对文本进行分类,提升了文本分类模型的模型性能。
具体在另一实施例中,电子设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对电子设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
将目标文本分别输入每个层级对应的层级分类模型中,对所述目标文本进行层级分类,得到所述每个层级对应的层级分类结果;
针对每个层级,根据所述目标文本和所述层级分类结果,并按照所述每个层级之间的层级关系执行文本分类操作,所述文本分类操作包括:构建所述层级对应的关联特征数据,并将所述关联特征数据输入所述层级对应的文本分类模型中,对所述目标文本进行文本分类;确定最后一个所述层级对应的文本分类结果为所述目标文本对应的文本分类结果;
其中,所述层级分类模型和所述文本分类模型按照上述任一实施例所述的文本分类模型的训练方法训练得到。
采用本申请实施例的技术方案,通过将目标文本分别输入每个层级对应的层级分类模型中,对目标文本进行层级分类,得到每个层级对应的层级分类结果;进而针对每个层级,根据目标文本和层级分类结果,并按照每个层级之间的层级关系执行以下文本分类操作:构建层级对应的关联特征数据,并将关联特征数据输入层级对应的文本分类模型中,对目标文本进行文本分类。确定最后一个层级对应的文本分类结果为目标文本对应的文本分类结果。由于层级分类模型在层级维度上具备对文本进行分类和识别层级标签的作用,并且每个层级对应各自的层级分类模型,使得层级分类模型的输出(即层级分类结果)能够体现不同层级之间的差异性和多样性,而并非所有层级均使用相同的层级分类模型。此外,由于文本分类模型在训练时依据的样本特征数据融合了各层级及其父层级的的特征空间,也就是说,文本分类模型能够分析出文本中隐含的各层级之间的关联特征信息,因此,文本分类模型能够在高度融合各层级间的关联性的情况下对文本进行分类,从而提升了文本分类模型的模型性能,确保目标文本对应的文本分类结果的准确性。
本申请实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个计算机程序,该一个或多个计算机程序包括指令,该指令当被包括多个应用程序的电子设备执行时,能够使该电子设备执行上述文本分类模型的训练方法实施例的各个过程,并具体用于执行:
根据样本文本,确定多层级标签组中的每个类别标签对应的标准特征句;所述多层级标签组包括多个层级的类别标签,各所述类别标签之间具有层级关联关系;
根据所述样本文本、所述每个类别标签和所述标准特征句,构建每个层级的第一样本特征数据;
根据所述每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到所述每个层级对应的层级分类模型;
利用所述每个层级对应的层级分类模型对所述样本文本进行层级分类,得到所述每个层级对应的层级分类结果,并根据所述样本文本和所述层级分类结果构建所述每个层级对应的第二样本特征数据;所述第二样本特征数据包括:所述层级对应的层级分类结果和位于所述层级之上的父层级对应的层级分类结果;
根据所述第二样本特征数据对待训练文本分类模型进行训练,得到所述每个层级对应的文本分类模型。
采用本申请实施例的技术方案,通过确定多层级标签组中的每个类别标签对应的标准特征句,根据样本文本、每个类别标签和标准特征句,构建每个层级的第一样本特征数据,并根据每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到每个层级对应的层级分类模型。由于多层级标签组包括多个层级的类别标签,且各类别标签之间具有层级关联关系,因此,层级分类模型在层级维度上具备对文本进行分类和识别层级标签的作用,并且每个层级对应各自的层级分类模型,使得层级分类模型的输出(即层级分类结果)能够体现不同层级之间的差异性和多样性,而并非所有层级均使用相同的层级分类模型。进一步地,通过利用每个层级对应的层级分类模型对样本文本进行层级分类,得到每个层级对应的层级分类结果,根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据,进而根据第二样本特征数据对待训练文本分类模型进行训练,得到每个层级对应的文本分类模型。可见,在训练文本分类模型时,首先需要利用训练好的层级分类模型从层级维度上对样本文本进行层级分类,进而根据样本文本和层级分类结果构建每个层级对应的第二样本特征数据,该第二样本特征数据包括当前层级对应的层级分类结果和位于当前层级之上的父层级对应的层级分类结果。因此,文本分类模型所依据的第二样本特征数据融合了当前层级以及当前层级的所有父层级的层级分类结果,也就是说,在训练文本分类模型时,能够将当前层级以及当前层级的所有父层级的特征空间融合起来作为训练样本,使得训练后的文本分类模型能够分析文本中隐含的各层级之间的关联特征信息,从而使文本分类模型能够在高度融合各层级间的关联性的情况下对文本进行分类,提升了文本分类模型的模型性能。
本申请实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个计算机程序,该一个或多个计算机程序包括指令,该指令当被包括多个应用程序的电子设备执行时,能够使该电子设备执行上述文本分类方法实施例的各个过程,并具体用于执行:
将目标文本分别输入每个层级对应的层级分类模型中,对所述目标文本进行层级分类,得到所述每个层级对应的层级分类结果;
针对每个层级,根据所述目标文本和所述层级分类结果,并按照所述每个层级之间的层级关系执行文本分类操作,所述文本分类操作包括:构建所述层级对应的关联特征数据,并将所述关联特征数据输入所述层级对应的文本分类模型中,对所述目标文本进行文本分类;确定最后一个所述层级对应的文本分类结果为所述目标文本对应的文本分类结果;
其中,所述层级分类模型和所述文本分类模型按照上述任一实施例所述的文本分类模型的训练方法训练得到。
采用本申请实施例的技术方案,通过将目标文本分别输入每个层级对应的层级分类模型中,对目标文本进行层级分类,得到每个层级对应的层级分类结果;进而针对每个层级,根据目标文本和层级分类结果,并按照每个层级之间的层级关系执行以下文本分类操作:构建层级对应的关联特征数据,并将关联特征数据输入层级对应的文本分类模型中,对目标文本进行文本分类。确定最后一个层级对应的文本分类结果为目标文本对应的文本分类结果。由于层级分类模型在层级维度上具备对文本进行分类和识别层级标签的作用,并且每个层级对应各自的层级分类模型,使得层级分类模型的输出(即层级分类结果)能够体现不同层级之间的差异性和多样性,而并非所有层级均使用相同的层级分类模型。此外,由于文本分类模型在训练时依据的样本特征数据融合了各层级及其父层级的的特征空间,也就是说,文本分类模型能够分析出文本中隐含的各层级之间的关联特征信息,因此,文本分类模型能够在高度融合各层级间的关联性的情况下对文本进行分类,从而提升了文本分类模型的模型性能,确保目标文本对应的文本分类结果的准确性。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本申请中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (14)
1.一种文本分类模型的训练方法,其特征在于,包括:
根据样本文本,确定多层级标签组中的每个类别标签对应的标准特征句;所述多层级标签组包括多个层级的类别标签,各所述类别标签之间具有层级关联关系;
根据所述样本文本、所述每个类别标签和所述标准特征句,构建每个层级的第一样本特征数据;
根据所述每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到所述每个层级对应的层级分类模型;
利用所述每个层级对应的层级分类模型对所述样本文本进行层级分类,得到所述每个层级对应的层级分类结果,并根据所述样本文本和所述层级分类结果构建所述每个层级对应的第二样本特征数据;所述第二样本特征数据包括:所述层级对应的层级分类结果和位于所述层级之上的父层级对应的层级分类结果;
根据所述第二样本特征数据对待训练文本分类模型进行训练,得到所述每个层级对应的文本分类模型。
2.根据权利要求1所述的方法,其特征在于,针对每个类别标签,所述根据样本文本,确定所述类别标签对应的标准特征句,包括:
确定所述类别标签对应的标准句;所述标准句用于标识所述类别标签对应的语义特征;
将所述标准句和所述样本文本中的每个样本句子进行匹配,根据匹配结果,从所述每个样本句子中提取与所述标准句相匹配的样本句子为所述标准特征句。
3.根据权利要求1所述的方法,其特征在于,所述第一样本特征数据包括:所述样本文本、所述样本文本对应的第一正样本标签和第一负样本标签;
针对每个层级,所述根据所述样本文本、所述每个类别标签和所述标准特征句,构建所述层级的第一样本特征数据,包括:
将所述层级对应的所述标准特征句和所述类别标签进行组合,得到所述层级对应的所述第一正样本标签;
将所述层级对应的所述标准特征句和其它层级对应的类别标签进行组合,和/或,将所述层级对应的第一非特征句和所述类别标签进行组合,得到所述层级对应的所述第一负样本标签;所述第一非特征句是所述样本文本中与所述标准特征句不同的句子。
4.根据权利要求3所述的方法,其特征在于,针对每个层级,所述根据所述层级的第一样本特征数据,对待训练层级分类模型进行训练,得到所述层级对应的层级分类模型,包括:
将所述第一样本特征数据输入所述待训练层级分类模型,对所述样本文本进行层级分类,得到所述样本文本对应的预测层级分类结果;所述预测层级分类结果包括:第一预测特征句以及所述第一预测特征句对应的第一预测类别标签;
将所述预测层级分类结果与所述第一正样本标签和/或所述第一负样本标签进行比对,得到第一比对结果;
根据所述第一比对结果对所述待训练层级分类模型的模型参数进行迭代调整,得到所述层级对应的所述层级分类模型。
5.根据权利要求1所述的方法,其特征在于,所述层级分类结果包括:独立特征句以及所述独立特征句对应的独立类别标签;所述第二样本特征数据包括:所述样本文本、所述样本文本对应的第二正样本标签和第二负样本标签;
针对每个层级,所述根据所述样本文本和所述层级分类结果构建所述层级对应的第二样本特征数据,包括:
确定位于所述层级之上的父层级对应的关联特征句,以及所述父层级对应的关联类别标签;
将所述关联特征句、所述层级对应的独立特征句、所述关联类别标签和所述层级对应的独立类别标签进行组合,得到所述层级对应的所述第二正样本标签;
将所述关联特征句、所述层级对应的独立特征句、所述关联类别标签和其它层级对应的独立类别标签进行组合,和/或,将所述关联特征句、所述层级对应的第二非特征句、所述关联类别标签和所述层级对应的独立类别标签进行组合,得到所述层级对应的所述第二负样本标签;所述第二非特征句是所述样本文本中与所述独立特征句不同的句子。
6.根据权利要求5所述的方法,其特征在于,所述确定位于所述层级之上的父层级对应的关联特征句,以及所述父层级对应的关联类别标签,包括:
若所述父层级仅包括一个,则确定所述父层级对应的所述独立特征句为所述关联特征句,确定所述父层级对应的所述独立类别标签为所述关联类别标签;
若所述父层级包括多个,则按照多个父层级之间的层级关系,依次将每个父层级对应的所述独立特征句进行组合,得到所述关联特征句;依次将所述每个父层级对应的所述独立类别标签进行组合,得到所述关联类别标签。
7.根据权利要求5所述的方法,其特征在于,针对每个层级,所述根据所述第二样本特征数据对待训练文本分类模型进行训练,得到所述层级对应的文本分类模型,包括:
将所述第二样本特征数据输入所述待训练文本分类模型,对所述样本文本进行文本分类,得到所述样本文本对应的预测文本分类结果;所述预测文本分类结果包括:第二预测特征句以及所述第二预测特征句对应的第二预测类别标签;
将所述预测文本分类结果与所述第二正样本标签和/或所述第二负样本标签进行比对,得到第二比对结果;
根据所述第二比对结果对所述待训练文本分类模型的模型参数进行迭代调整,得到所述层级对应的所述文本分类模型。
8.一种文本分类方法,其特征在于,包括:
将目标文本分别输入每个层级对应的层级分类模型中,对所述目标文本进行层级分类,得到所述每个层级对应的层级分类结果;
针对每个层级,根据所述目标文本和所述层级分类结果,并按照所述每个层级之间的层级关系执行文本分类操作,所述文本分类操作包括:构建所述层级对应的关联特征数据,并将所述关联特征数据输入所述层级对应的文本分类模型中,对所述目标文本进行文本分类;确定最后一个所述层级对应的文本分类结果为所述目标文本对应的文本分类结果;
其中,所述层级分类模型和所述文本分类模型按照权利要求1至7任一项所述的文本分类模型的训练方法训练得到。
9.根据权利要求8述的方法,其特征在于,所述层级分类结果包括:独立特征句以及所述独立特征句对应的独立类别标签;
所述构建所述层级对应的关联特征数据,包括:
根据位于所述层级之上的父层级对应的所述层级分类结果,确定所述父层级对应的关联特征句以及所述父层级对应的关联类别标签;
将所述关联特征句、所述层级对应的所述独立特征句、所述关联类别标签和所述层级对应的所述独立类别标签进行组合,得到所述层级对应的所述关联特征数据。
10.根据权利要求9述的方法,其特征在于,所述根据位于所述层级之上的父层级对应的所述层级分类结果,确定所述父层级对应的关联特征句以及所述父层级对应的关联类别标签,包括:
若所述父层级仅包括一个,则确定所述父层级对应的所述独立特征句为所述关联特征句,确定所述父层级对应的所述独立类别标签为所述关联类别标签;
若所述父层级包括多个,则按照多个父层级之间的层级关系,依次将每个父层级对应的所述独立特征句进行组合,得到所述关联特征句;依次将所述每个父层级对应的所述独立类别标签进行组合,得到所述关联类别标签。
11.一种文本分类模型的训练装置,其特征在于,包括:
第一确定模块,用于根据样本文本,确定多层级标签组中的每个类别标签对应的标准特征句;所述多层级标签组包括多个层级的类别标签,各所述类别标签之间具有层级关联关系;
第一构建模块,用于根据所述样本文本、所述每个类别标签和所述标准特征句,构建每个层级的第一样本特征数据;
第一训练模块,用于根据所述每个层级的第一样本特征数据,对待训练层级分类模型进行训练,得到所述每个层级对应的层级分类模型;
第二构建模块,用于利用所述每个层级对应的层级分类模型对所述样本文本进行层级分类,得到所述每个层级对应的层级分类结果,并根据所述样本文本和所述层级分类结果构建所述每个层级对应的第二样本特征数据;所述第二样本特征数据包括:所述层级对应的层级分类结果和位于所述层级之上的父层级对应的层级分类结果;
第二训练模块,用于根据所述第二样本特征数据对待训练文本分类模型进行训练,得到所述每个层级对应的文本分类模型。
12.一种文本分类装置,其特征在于,包括:
层级分类模块,用于将目标文本分别输入每个层级对应的层级分类模型中,对所述目标文本进行层级分类,得到所述每个层级对应的层级分类结果;
文本分类模块,用于针对每个层级,根据所述目标文本和所述层级分类结果,并按照所述每个层级之间的层级关系执行文本分类操作,所述文本分类操作包括:构建所述层级对应的关联特征数据,并将所述关联特征数据输入所述层级对应的文本分类模型中,对所述目标文本进行文本分类;确定最后一个所述层级对应的文本分类结果为所述目标文本对应的文本分类结果;
其中,所述层级分类模型和所述文本分类模型按照权利要求1至7任一项所述的文本分类模型的训练方法训练得到。
13.一种电子设备,其特征在于,包括处理器和与所述处理器电连接的存储器,所述存储器存储有计算机程序,所述处理器用于从所述存储器调用并执行所述计算机程序以实现如权利要求1-7任一项所述的文本分类模型的训练方法,或者,所述处理器用于从所述存储器调用并执行所述计算机程序以实现如权利要求8-10任一项所述的文本分类方法。
14.一种计算机可读存储介质,其特征在于,所述存储介质用于存储计算机程序,所述计算机程序能够被处理器执行以实现如权利要求1-7任一项所述的文本分类模型的训练方法,或者,所述计算机程序能够被处理器执行以实现如权利要求8-10任一项所述的文本分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310450519.9A CN117493550A (zh) | 2023-04-24 | 2023-04-24 | 文本分类模型的训练方法、文本分类方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310450519.9A CN117493550A (zh) | 2023-04-24 | 2023-04-24 | 文本分类模型的训练方法、文本分类方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117493550A true CN117493550A (zh) | 2024-02-02 |
Family
ID=89683559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310450519.9A Pending CN117493550A (zh) | 2023-04-24 | 2023-04-24 | 文本分类模型的训练方法、文本分类方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117493550A (zh) |
-
2023
- 2023-04-24 CN CN202310450519.9A patent/CN117493550A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110413877B (zh) | 一种资源推荐方法、装置及电子设备 | |
CN105210064B (zh) | 使用深度网络将资源分类 | |
CN111488426A (zh) | 一种查询意图确定方法、装置及处理设备 | |
US20160170982A1 (en) | Method and System for Joint Representations of Related Concepts | |
CN110968654B (zh) | 文本数据的地址类目确定方法、设备以及系统 | |
CN112686022A (zh) | 违规语料的检测方法、装置、计算机设备及存储介质 | |
CN114817538B (zh) | 文本分类模型的训练方法、文本分类方法及相关设备 | |
Derczynski et al. | Helping crisis responders find the informative needle in the tweet haystack | |
CN113254777B (zh) | 信息推荐方法、装置、电子设备及存储介质 | |
CN113837635A (zh) | 风险检测处理方法、装置及设备 | |
CN111310065A (zh) | 一种社交推荐方法、装置、服务器及存储介质 | |
CN108229564B (zh) | 一种数据的处理方法、装置及设备 | |
CN116151236A (zh) | 文本处理模型的训练方法、文本处理方法及相关设备 | |
CN113627194B (zh) | 信息抽取方法及装置、通信消息分类方法及装置 | |
CN111460808B (zh) | 同义文本识别及内容推荐方法、装置及电子设备 | |
CN111259975B (zh) | 分类器的生成方法及装置、文本的分类方法及装置 | |
AU2019290658B2 (en) | Systems and methods for identifying and linking events in structured proceedings | |
CN112434126A (zh) | 一种信息处理方法、装置、设备和存储介质 | |
CN117493550A (zh) | 文本分类模型的训练方法、文本分类方法及装置 | |
CN111159397B (zh) | 文本分类方法和装置、服务器 | |
Hong et al. | An efficient tag recommendation method using topic modeling approaches | |
CN114067343A (zh) | 一种数据集的构建方法、模型训练方法和对应装置 | |
Qiu et al. | Deep active learning with crowdsourcing data for privacy policy classification | |
Kumar et al. | Transformer-based Models for Language Identification: A Comparative Study | |
CN118194096A (zh) | 一种名单筛查的方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |