CN112328798A - 文本分类方法以及装置 - Google Patents
文本分类方法以及装置 Download PDFInfo
- Publication number
- CN112328798A CN112328798A CN202011361185.0A CN202011361185A CN112328798A CN 112328798 A CN112328798 A CN 112328798A CN 202011361185 A CN202011361185 A CN 202011361185A CN 112328798 A CN112328798 A CN 112328798A
- Authority
- CN
- China
- Prior art keywords
- classification
- candidate
- label
- text
- classified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000013145 classification model Methods 0.000 claims abstract description 102
- 238000012549 training Methods 0.000 claims abstract description 63
- 238000004364 calculation method Methods 0.000 claims abstract description 35
- 239000013598 vector Substances 0.000 claims description 53
- 238000012216 screening Methods 0.000 claims description 29
- 230000015654 memory Effects 0.000 claims description 19
- 238000010276 construction Methods 0.000 claims description 13
- 239000000126 substance Substances 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 4
- PUAQLLVFLMYYJJ-UHFFFAOYSA-N 2-aminopropiophenone Chemical compound CC(N)C(=O)C1=CC=CC=C1 PUAQLLVFLMYYJJ-UHFFFAOYSA-N 0.000 claims 2
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/316—Indexing structures
- G06F16/322—Trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种文本分类方法以及装置。具体实现方案为:方法包括从分类标签结构体系中提取多个分类标签,分类标签结构体系包括多个层级结构,层级结构包括多个标签节点,分类标签包括从各层级结构中提取的标签节点;计算待分类文本分别与各分类标签对应的文本集之间的相似度,确定候选集,候选集包括多个候选标签;利用各层级结构对应的文本集,训练各层级结构对应的分类模型;利用各层级结构对应的分类模型,结合计算得到的相似度,预测待分类文本分别属于各候选标签的分数;将分数满足预设条件的候选标签,作为待分类文本的分类结果。有效提高了分类效率以及分类准确率,避免在分类标签结构上逐层选择标签节点。
Description
技术领域
本申请涉及机器学习领域,尤其涉及文本分类领域。
背景技术
随着互联网技术的快速发展,信息量呈几何级数的增长,如何高效地从大量信息中找到用户感兴趣的信息,成为亟待解决的问题。目前,按照主题层次结构对大量信息进行分析,能够更快的帮助用户找到所需的信息。以企业客服部门为例,客服坐席人员在服务完用户后,普遍需要针对客服对话增加分类标签,即在客服坐席系统集成一个树形结构的选择功能,坐席人员需针对具体的对话内容在复杂的树形结构中逐层挑选合适的分类标签。但是,随着公司业务的快速发展,标签类别会不断膨胀,导致业务人员将新的业务条目(例如,客服对话文本)难以归类到合适的分类标签上。
目前,通常利用人工为业务条目选择适合的分类标签:针对具体的业务场景开发一套树形结构的分类模型,用户在树形结构分类模型上逐层选择对应的业务标签,直至叶子节点或者采用多级联动下拉框的分类模型,进行逐级选择。然而,这种方式的效率非常低,而且难以保证准确率。此外,随着公司业务的不断发展,业务标签体系也会不断更新,需要针对新业务来掌握不同分类标签的区分规则,导致分类成本高昂。
发明内容
本申请实施例提供一种文本分类方法以及装置,以解决相关技术存在的问题,技术方案如下:
第一方面,本申请实施例提供了一种文本分类方法,包括:
从分类标签结构体系中提取多个分类标签,分类标签结构体系包括多个层级结构,层级结构包括多个标签节点,分类标签包括从各层级结构中提取的标签节点;
计算待分类文本分别与各分类标签对应的文本集之间的相似度,确定候选集,候选集包括多个候选标签;
利用各层级结构对应的文本集,训练各层级结构对应的分类模型;
利用各层级结构对应的分类模型,结合计算得到的相似度,预测待分类文本分别属于各候选标签的分数;
将分数满足预设条件的候选标签,作为待分类文本的分类结果。
在一种实施方式中,计算待分类文本分别与各分类标签对应的文本集之间的相似度,确定候选集,包括:
针对分类标签cl,根据分类标签cl对应的文本集构建对应的特征向量Dl,Dl=(k1,w1;k2,w2;…;kn,wn),其中,kn为分类标签cl对应的文本集中的特征词,wn为特征词kn在分类标签cl中的权重;
根据待分类文本dj构建对应的特征向量Dj,Dj=(k′1,w′1;k′2,w′2;…;k′n,w′n),其中,k′n为待分类文本dj的特征词,w′n为特征词k′n在Dj中的权重;
计算特征向量Dl和特征向量Dj之间的相似度:
其中,n为特征向量的维度,wk为Dl的第k维权重,w′k为Dj的第k维权重;
在计算得到的多个相似度中,选择相似度大于阈值的分类标签作为候选标签ci。
在一种实施方式中,利用各层级结构对应的分类模型,结合计算得到的相似度,预测待分类文本分别属于各候选标签的分数,包括:
利用各层级结构对应的分类模型,预测待分类文本dj属于候选标签ci的第一概率值s2(dj,ci)(i=1,2,…,k)。
在一种实施方式中,利用各层级结构对应的分类模型,结合计算得到的相似度,预测待分类文本分别属于各候选标签的分数,包括:
利用各层级结构对应的分类模型,预测待分类文本dj属于候选标签ci中所有上层标签节点的概率值,得到第二概率值s2(dj,cia):
其中,n是候选标签ci中所有上层标签节点的数目,cia是候选标签ci中所有上层标签节点的集合,是候选标签ci中向上回溯m(m=1,2,…,n)层的标签节点,是候选标签ci中向上回溯t(t=1,2,…,n)层的标签节点,是所在层级的分类模型对dj的分类结果,是所在层级的分类模型对dj的分类结果,am(m=1,2,…,n)是权重系数。
在一种实施方式中,利用各层级结构对应的分类模型,结合计算得到的相似度,预测待分类文本分别属于各候选标签的分数,包括:
利用各层级结构对应的分类模型,预测待分类文本dj属于候选标签ci对应的所有兄弟分类标签的概率值,得到第三概率值s2(dj,cib):
其中,T是候选标签ci对应的所有兄弟分类标签的数目,cib是候选标签ci的所有同级分类标签的集合,是候选标签ci的第bM兄弟分类标签,是的叶子节点所在层级的分类模型对dj的分类结果,s2(dj,ci)是候选标签ci所在层级的分类模型对dj的分类结果。
在一种实施方式中,利用各层级结构对应的分类模型,结合计算得到的相似度,预测待分类文本分别属于各候选标签的分数,包括:
根据第一概率值s2(dj,ci)、第二概率值s2(dj,cia)、第三概率值s2(dj,cib),计算综合概率值s2final(dj,ci);
在一种实施方式中,利用各层级结构对应的分类模型,结合计算得到的相似度,预测待分类文本分别属于各候选标签的分数,包括:
根据相似度s1(dj,ci)和综合概率值s2final(dj,ci),计算待分类文本dj属于候选标签ci的分数s(dj,ci):
s(dj,ci)=(1-θ)×s1(dj,ci)+θ×s2final(dj,ci)
其中,θ是权重系数,0≤θ≤1。
在一种实施方式中,将分数满足预设条件的候选标签,作为待分类文本的分类结果,包括:
选择分数s(dj,ci)的最大值对应的候选标签,作为待分类文本的分类结果:
其中,ci是候选集中的任意一个候选标签,c(dj)是候选集。
在一种实施方式中,还包括:
在分数满足预设条件的候选标签中,确定存在有候选标签与待分类文本完全匹配的情况下,将完全匹配的候选标签作为分类结果,自动保存完全匹配的候选标签。
在一种实施方式中,还包括:
在分数满足预设条件的候选标签中,确定不存在有候选标签与待分类文本完全匹配的情况下,选择最大程度匹配的候选标签作为分类结果,在最大程度匹配的候选标签中筛选匹配的标签节点,作为分类结果。
在一种实施方式中,还包括:
在分数满足预设条件的候选标签中,确定存在有候选标签与待分类文本完全不匹配的情况下,从分类标签结构体系的根节点开始逐层筛选匹配的标签节点,作为分类结果。
在一种实施方式中,还包括:
记录分数满足预设条件的候选标签,以及分类结果,并更新到训练样本库中;
利用训练样本库对各层级结构对应的分类模型进行训练;
训练后得到的分类结果指标优于训练前的分类结果指标的情况下,触发各层级结构对应的分类模型进行自动更新。
第二方面,本申请实施例提供了一种文本分类装置,包括:
分类标签提取模块,用于从分类标签结构体系中提取多个分类标签,分类标签结构体系包括多个层级结构,层级结构包括多个标签节点,分类标签包括从各层级结构中提取的标签节点;
相似度计算模块,用于计算待分类文本分别与各分类标签对应的文本集之间的相似度,确定候选集,候选集包括多个候选标签;
分类模型训练模块,用于利用各层级结构对应的文本集,训练各层级结构对应的分类模型;
分数预测模块,用于利用各层级结构对应的分类模型,结合计算得到的相似度,预测待分类文本分别属于各候选标签的分数;
分类结果生成模块,用于将分数满足预设条件的候选标签,作为待分类文本的分类结果。
在一种实施方式中,相似度计算模块,包括:
第一向量构建子模块,用于针对分类标签cl,根据分类标签cl对应的文本集构建对应的特征向量Dl,Dl=(k1,w1;k2,w2;…;kn,wn),其中,kn为分类标签cl对应的文本集中的特征词,wn为特征词kn在分类标签cl中的权重;
第二向量构建子模块,用于根据待分类文本dj构建对应的特征向量Dj,Dj=(k′1,w′1;k′2,w′2;…;k′n,w′n),其中,k′n为待分类文本dj的特征词,w′n为特征词k′n在Dj中的权重;
相似度计算子模块,用于计算特征向量Dl和特征向量Dj之间的相似度:
其中,n为特征向量的维度,wk为Dl的第k维权重,w′k为Dj的第k维权重;
候选标签选择子模块,用于在计算得到的多个相似度中,选择相似度大于阈值的分类标签作为候选标签ci。
在一种实施方式中,分数预测模块包括:
第一概率计算子模块,用于利用各层级结构对应的分类模型,预测待分类文本dj属于候选标签ci的第一概率值s2(dj,ci)(i=1,2,…,k)。
在一种实施方式中,分数预测模块包括:
第二概率计算子模块,用于利用各层级结构对应的分类模型,预测待分类文本dj属于候选标签ci中所有上层标签节点的概率值,得到第二概率值s2(dj,cia):
其中,n是候选标签ci中所有上层标签节点的数目,cia是候选标签ci中所有上层标签节点的集合,是候选标签ci中向上回溯m(m=1,2,…,n)层的标签节点,是候选标签ci中向上回溯t(t=1,2,…,n)层的标签节点,是所在层级的分类模型对dj的分类结果,是所在层级的分类模型对dj的分类结果,am(m=1,2,…,n)是权重系数。
在一种实施方式中,分数预测模块包括:
第三概率计算子模块,用于利用各层级结构对应的分类模型,预测待分类文本dj属于候选标签ci对应的所有兄弟分类标签的概率值,得到第三概率值s2(dj,cib):
其中,T是候选标签ci对应的所有兄弟分类标签的数目,cib是候选标签ci的所有同级分类标签的集合,是候选标签ci的第bM兄弟分类标签,是的叶子节点所在层级的分类模型对dj的分类结果,s2(dj,ci)是候选标签ci所在层级的分类模型对dj的分类结果。
在一种实施方式中,分数预测模块包括:
综合概率值计算子模块,用于根据第一概率值s2(dj,ci)、第二概率值s2(dj,cia)、第三概率值s2(dj,cib),计算综合概率值s2final(dj,ci);
在一种实施方式中,分数预测模块包括:
分数计算子模块,用于根据相似度s1(dj,ci)和综合概率值s2final(dj,ci),计算待分类文本dj属于候选标签ci的分数s(dj,ci):
s(dj,ci)=(1-θ)×s1(dj,ci)+θ×s2final(dj,ci)
其中,θ是权重系数,0≤θ≤1。
在一种实施方式中,分类结果生成模块,包括:
候选标签选择子模块,用于选择分数s(dj,ci)的最大值对应的候选标签,作为待分类文本的分类结果:
其中,ci是候选集中的任意一个候选标签,c(dj)是候选集。
在一种实施方式中,还包括:
第一标签节点筛选模块,用于在分数满足预设条件的候选标签中,确定不存在有候选标签与待分类文本完全匹配的情况下,选择最大程度匹配的候选标签作为分类结果,在最大程度匹配的候选标签中筛选匹配的标签节点,作为分类结果。
在一种实施方式中,还包括:
第二标签节点筛选模块,用于在分数满足预设条件的候选标签中,确定存在有候选标签与待分类文本完全不匹配的情况下,从分类标签结构体系的根节点开始逐层筛选匹配的标签节点,作为分类结果。
在一种实施方式中,还包括:
第三标签节点筛选模块,用于在分数满足预设条件的候选标签中,确定存在有候选标签与待分类文本完全不匹配的情况下,从分类标签结构体系的根节点开始逐层筛选匹配的标签节点,作为分类结果。
在一种实施方式中,还包括:
记录模块,用于记录分数满足预设条件的候选标签,以及分类结果,并更新到训练样本库中;
更新训练模块,用于利用训练样本库对各层级结构对应的分类模型进行训练;
模型更新触发模块,用于训练后得到的分类结果指标优于训练前的分类结果指标的情况下,触发各层级结构对应的分类模型进行自动更新。
第三方面,提供了一种电子设备,包括:
至少一个处理器;以及与至少一个处理器通信连接的存储器;
其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述任一项的方法。
第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行上述任一项的方法。
上述申请中的一个实施例具有如下优点或有益效果:通过计算待分类文本分别与各分类标签对应的文本集之间的相似度确定候选集,来初步统计待分类文本可能被归类到的多个候选标签,然后,利用各层级结构对应的分类模型结合计算得到的相似度,预测待分类文本分别属于各候选标签的分数,在候选集中,根据分数进一步筛选符合预设条件的候选标签,作为最终的分类结果,有效提高了分类效率以及分类准确率,解决了在分类标签结构上逐层选择标签节点导致的分类效率和准确率低下的问题。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请一实施例的一种文本分类方法的示意图;
图2是根据本申请一实施例的网络客服对话文本示意图;
图3是根据本申请另一实施例的一种文本分类方法的场景示意图;
图4是根据本申请另一实施例的一种文本分类装置的场景图;
图5是用来实现本申请实施例的一种文本分类方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
如图1所示,本实施方式提供了一种文本分类方法,包括如下步骤:
步骤S110:从分类标签结构体系中提取多个分类标签,分类标签结构体系包括多个层级结构,层级结构包括多个标签节点,分类标签包括从各层级结构中提取的标签节点;
步骤S120:根据待分类文本分别与各分类标签对应的文本集之间的相似度,确定候选集,候选集包括多个候选标签;
步骤S130:利用各层级结构对应的文本集,训练各层级结构对应的分类模型;
步骤S140:利用各层级结构对应的分类模型,结合计算得到的相似度,预测待分类文本分别属于各候选标签的分数;
步骤S150:将分数满足预设条件的候选标签,作为待分类文本的分类结果。
一种示例中,以对网络客服对话数据构成的文本进行分类为例进行说明,网络服务对话的具体样例如图2所示。网络客服对话的分类标签体系可以是树形结构,层次嵌套复杂,深度达到七层之多。分类标签可以有2200多个,属于大规模的文本分类任务,对文本分类的准确率、泛化性能以及模型运行性能要求高。分类标签结构体系包括多个层级结构,每个层级结构包括多个标签节点。例如,网络客服对话的分类标签结构中第一层级结构中可以包括多个标签节点作为根节点,根节点包括“客户服务”、“营销支持”等;第二层级结构中包括同属于“客户服务”根节点下的两个节点:第一节点“云闪付APP”和第二节点“支付宝APP”;第三层级结构中包括第一节点“云闪付APP”下的第三节点“咨询”,第二节点“支付宝APP”下的第四节点“咨询”;第四层级结构中包括第三节点“咨询”下的第五节点“账户管理”,第三节点“咨询”下的第六节点“账户管理”;第五层级结构中包括第五节点“账户管理”下的叶子节点“客户端注册及登录”。当然,上述仅展示了网络客服对话的分类标签体系中的部分结构。从分类标签结构体系中提取多个分类标签,分类标签包括从各层级结构中提取的标签节点,是根节点到某一层的标签节点的路径。例如,分类标签可以是“客户服务;云闪付APP;咨询;账户管理;客户端注册及登录”,或者“营销支持;移动支付;投诉;差错;线下支付;二维码支付”等。
采用本实施方式提供的文本分类方法实施此分类任务,如图3所示,提供了一种文本分类的系统结构图,由候选标签筛选组件、分类标签细分组件、预测分类标签组件以及分类模型自学习组件构成。候选标签筛选组件中,将待分类文本(例如,网络客服对话数据)分别与各分类标签(例如,分类标签“客户服务;云闪付APP;咨询;账户管理;客户端注册及登录”,分类标签“营销支持;移动支付;投诉;差错;线下支付;二维码支付”等多个分类标签)对应的文本集之间的相似度。分类标签对应的文本集是指分类标签中各个标签节点对应的文本的集合,构成语料库。例如,文本集包括:根节点“客户服务”对应的文本;“云闪付APP”对应的文本;“咨询”对应的文本;“账户管理”对应的文本;“客户端注册及登录”对应的文本。可以通过TF-IDF(term frequency–inverse document frequency,词频-逆向文件频率)的统计方法以及余弦相似度计算方法,来计算各个不同分类标签对应的文本的特征向量与待分类文本的特征向量之间的相似度。TF-IDF是一种用于信息检索与数据挖掘的常用加权技术。然后,选取相似度排在前几位的分类标签,作为候选标签,组成候选集。
利用候选标签筛选组件实现了待分类文本的候选标签的初步筛选,利用分类标签细分组件实现下级标签的精确划分。分类标签细分组件中,首先,在原始的分类标签结构体系中逐层训练分类模型,分类模型可以包括CBow(连续词袋)模型、Skip-gram(跳字)模型。每一层分类模型的训练语料(层级结构对应的文本集)是该层标签节点包含的语料(层级结构中包含的标签节点对应的文本集)。利用训练语料来训练每个层级结构对应的分类模型。例如,如果根节点下有两个标签节点,那么这两个标签节点对应的文本集可以训练二分类的分类模型。如果某一层级结构中的标签节点有四个,那么可以训练四分类的分类模型等。为了提升分类模型的训练速度,分类模型训练的效率以及考虑到训练样本不均衡的问题,在具体训练过程中,采用基于FastText(快速文本分类算法)的分类模型进行训练。训练分类模型的具体过程如下:抽取网络客服对话数据的文本特征,主要使用词袋以及n元表征语句,结合使用词向量特征,通过隐藏层表征标签节点间共享信息。将输入层中的词和词组构成特征向量,再将特征向量通过线性变换映射到隐藏层,隐藏层通过求解最大似然函数,然后根据每个标签节点的权重和模型参数构建哈夫曼树(Huffman树),将Huffman树作为输出。Huffman树是带权路径长度最短的树,权值较大的结点离根较近,利用哈夫曼编码,对标签节点进行编码能够极大缩小模型预测目标的数量,能大幅度提升分类模型训练和预测的效率。
然后,利用训练好的分类模型,分别计算待分类文本属于当前候选标签的概率值、待分类文本属于当前候选标签中所有上层标签节点的概率值、以及待分类文本属于当前候选标签的所有同级分类标签的概率值,最后再融合待分类文本分别与各分类标签对应的文本集之间的相似度,得到待分类文本属于各当前候选标签的分数。预设条件可以为“选择最高分数”或“选择排名前n位的分数”,将分数满足预设条件的候选标签作为待分类文本的分类结果。
预测分类标签组件主要包含树形结构选择模块以及分类标签推荐模块。例如,树形结构选择模块可以是基于网路客服对话分类标签体系的树形结构选择模块。树形结构选择模块主要向用户呈现一个层次化标签选择功能,用户能够在每一个层级上为指定的业务条目选择一个合适的标签,其中下级标签依赖上级选择的标签。分类标签推荐模块用于将分数满足预设条件的候选标签推荐并呈现给客服坐席人员。客服坐席人员仅需要在分数满足预设条件的候选标签中挑选准确的分类标签,不需要在复杂的树形结构中逐层点选,来确定最终的分类标签。
分类模型自学习组件中,记录推荐的分数满足预设条件的候选标签,同时记录坐席人员实际选择的分类标签,自动统计不一致的分类标签数据规模,当数据规模超过指定阈值后,会和原始训练样本进行合并,重新训练,重新执行分类标签细分组件的过程。
在网络客户对话的智能小结中,利用本实施方式提供的文本分类方法,一方面有效提升了网络客服坐席人员话后小结的工作效率,能够平均提高网络客服坐席人员话后小结效率90%以上;另一方面,大大提升了网络客服对话分类的准确率,优化话后小结的工作质量。
本实施方式中,通过计算待分类文本分别与各分类标签对应的文本集之间的相似度确定候选集,来初步统计待分类文本可能被归类到的多个候选标签,然后,利用各层级结构对应的分类模型结合计算得到的相似度,预测待分类文本分别属于各候选标签的分数,在候选集中,根据分数进一步筛选符合预设条件的候选标签,作为最终的分类结果,有效提高了分类效率以及分类准确率,解决了在分类标签结构上逐层选择标签节点导致的分类效率和准确率低下的问题。
在一种实施方式中,步骤S120,包括:
步骤S121:针对分类标签cl,根据分类标签cl对应的文本集构建对应的特征向量Dl,Dl=(k1,w1;k2,w2;…;kn,wn),其中,kn为分类标签cl对应的文本集中的特征词,wn为特征词kn在分类标签cl中的权重;
步骤S122:根据待分类文本dj构建对应的特征向量Dj,Dj=(k′1,w′1;k′2,w′2;…;k′n,w′n),其中,k′n为待分类文本dj的特征词,w′n为特征词k′n在Dj中的权重;
步骤S123:计算特征向量Dl和特征向量Dj之间的相似度:
其中,n为特征向量的维度,wk为Dl的第k维权重,w′k为Dj的第k维权重;
步骤S124:在计算得到的多个相似度中,选择相似度大于阈值的分类标签作为候选标签ci。
一种示例中,针对如图2所示的网络服务对话的具体样例,待分类文本dj为网络客服对话,对应的特征向量Dj=[(消费,0.26041398),…,(参加,0.11053618),(单数,0.00879123),(活动,0.0066379),…]。第一个分类标签cl“客户服务;云闪付APP;咨询;账户管理;客户端注册及登录”的特征向量Dl=[(登陆,0.061798),…,(注册,0.0104308),(失败,0.00278917),(云闪付,0.28086379),…];第二个分类标签cl“营销支持;移动支付;投诉;差错;线下支付;二维码支付”的特征向量Dl=[(活动,0.06061798),…,(二维码,0.01043018),(买,0.00278917),(优惠,0.0016379),…]等多个分类标签。基于上述特征向量,计算网络客服对话与不同的分类标签的相似度,根据计算的相似度,挑选相似度排在前若干个分类标签作为候选标签,候选标签组成候选集。其中,阈值可以根据需求进行设置,例如,相似度大于阈值的可以有5个分类标签、10个分类标签等等,那么这5个或者10个分类标签作为候选标签,实现了待分类文本的候选分类标签的初步筛选。
在一种实施方式中,步骤S140包括:
步骤S141:利用各层级结构对应的分类模型,预测待分类文本dj属于候选标签ci的第一概率值s2(dj,ci)(i=1,2,…,k)。
一种示例中,基于层次分类标签体系逐层训练分类模型,利用分类模型预测待分类文本dj属于候选标签ci的概率分数。输入FastText(快速文本分类算法)的分类模型,一个词的序列(一段文本或者一句话),输出这个词序列属于各个候选标签ci的概率值,即待分类文本dj属于候选标签ci的概率,记作s2(dj,ci)(i=1,2,…,k)。
在一种实施方式中,步骤S140包括:
步骤S142:利用各层级结构对应的分类模型,预测待分类文本dj属于候选标签ci中所有上层标签节点的概率值,得到第二概率值s2(dj,cia):
其中,n是候选标签ci中所有上层标签节点的数目,cia是候选标签ci中所有上层标签节点的集合,是候选标签ci中向上回溯m(m=1,2,…,n)层的标签节点,是候选标签ci中向上回溯t(t=1,2,…,n)层的标签节点,是所在层级的分类模型对dj的分类结果,是所在层级的分类模型对dj的分类结果,am(m=1,2,…,n)是权重系数。
一种示例中,s2(dj,cia)可以预测待分类文本dj属于候选标签ci中叶子节点的所有上层标签节点的概率值,或者是候选标签中某个中间节点的所有上层标签节点的概率值。
am(m=1,2,…,n)是权重系数,距叶子节点越近的上层标签节点,标签节点的权重系数越大,因此,a1≥a2…≥an。权重系数am可以通过学习计算,也可以根据经验进行设置。
本实施方式中,不仅考虑当前层次分类标签分类模型的分类结果,还有效融合了上层标签节点的分类结果,一方面快速匹配到中间标签节点,提升了分类模型的训练速度,另一方面利用候选标签中层级之间标签节点的内在联系,避免了层次式迭代分类过程中的错误传播问题,大大提升了标签节点的分类准确率。
在一种实施方式中,步骤S140包括:
步骤S143:利用各层级结构对应的分类模型,预测待分类文本dj属于候选标签ci对应的所有兄弟分类标签的概率值,得到第三概率值s2(dj,cib):
其中,T是候选标签ci对应的所有兄弟分类标签的数目,cib是候选标签ci的所有同级分类标签的集合,是候选标签ci的第bM兄弟分类标签,是的叶子节点所在层级的分类模型对dj的分类结果,s2(dj,ci)是候选标签ci所在层级的分类模型对dj的分类结果。
一种示例中,假设树形的分类标签结构体系为:第一层级包括根节点A,第二层级包括中间节点B1和B2,第三层级包括中间节点为B1下的C1和C2,B2下的C3和C4。假设候选标签ci为(A,B1,C1),那么候选标签ci对应的所有兄弟分类标签包括:第一兄弟分类标签(A,B1,C2)、第二兄弟分类标签(A,B2,C3)以及第三兄弟分类标签(A,B2,C4)。第一层级的分类模型为A模型,第二层级的分类模型为B模型,第三层级的分类模型为C模型,是第bM兄弟分类标签中的叶子节点所在层级即第三层级对应的C模型预测的概率值。
本实施方式中,不仅考虑当前候选标签所在层级的分类模型预测的分类结果,还有效融合了兄弟分类标签所在层级的分类模型预测的分类结果,一方面快速匹配到中间标签节点,提升了分类模型的训练速度,另一方面利用兄弟分类标签的内在联系,避免了层次式迭代分类过程中的错误传播问题,大大提升了标签节点的分类准确率。
在一种实施方式中,步骤S140包括:
步骤S144:根据第一概率值s2(dj,ci)、第二概率值s2(dj,cia)、第三概率值s2(dj,cib),计算综合概率值s2final(dj,ci);
在一种实施方式中,步骤S140包括:
步骤S145:根据相似度s1(dj,ci)和综合概率值s2final(dj,ci),计算待分类文本dj属于候选标签ci的分数s(dj,ci):
s(dj,ci)=(1-θ)×s1(dj,ci)+θ×s2final(dj,ci)
其中,θ是权重系数,0≤θ≤1。
一种示例中,待分类文本dj的特征向量Dj,分类标签cl对应的文本集对应的特征向量Dl的相似度得分s1(dj,ci);s2final(dj,ci)是待分类文本dj属于候选标签ci的综合概率值。θ是权重系数,取值范围为0≤θ≤1,可以通过实验来确定θ的取值。从θ=0开始,使用训练集估计整个分类模型的准确率,重复该过程,每次θ值增加0.1,直至θ取值为1,最后取最大准确率的θ值。
在一种实施方式中,步骤S140包括:
步骤S146:选择分数s(dj,ci)的最大值对应的候选标签,作为待分类文本的分类结果:
其中,ci是候选集中的任意一个候选标签,c(dj)是候选集。
一种示例中,可以将待分类文本分别属于各候选标签的分数由大到小排名,预设条件可以是选择排名序列中,分数排名前n个对应的候选标签,形成推荐列表作为分类结果。或者,选择分数s(dj,ci)的最大值对应的候选标签,作为待分类文本的分类结果。
预测分类标签组件中,分类标签推荐模块主要用于向用户呈现推荐的分类结果。
在一种实施方式中,还包括:
步骤S151:在分数满足预设条件的候选标签中,确定存在有候选标签与待分类文本完全匹配的情况下,将完全匹配的候选标签作为分类结果,自动保存完全匹配的候选标签。
一种示例中,如图3所示,预测分类标签组件中,分类标签推荐模块主要用于向用户呈现置信度排在前n位(分数符合预设条件)的候选标签,然后,可根据推荐的候选标签与业务条目(待分类文本)的匹配度,确定进一步动作。若判断某个推荐的候选标签与业务条目完全匹配,树形结构选择模块自动选中某个推荐的候选标签中每个层级对应的标签节点,保存选中的标签节点。
在一种实施方式中,还包括:
步骤S152:在分数满足预设条件的候选标签中,确定不存在有候选标签与待分类文本完全匹配的情况下,选择最大程度匹配的候选标签作为分类结果,在最大程度匹配的候选标签中筛选匹配的标签节点,作为分类结果。
一种示例中,如图3所示,若判断所有推荐的候选标签均与业务条目(待分类文本)不完全匹配,可从标签推荐列表中选择一个与业务条目最类似的候选标签(部分层级标签节点正确)。树形结构选择模块会自动选中最类似的候选标签中每个层级对应的标签节点。用户(例如,客服坐席人员)可进一步在树形结构选择模块中修改错误层级上的标签节点,但不需要从最类似的候选标签的根节点选择,仅需要纠正错误层级上的标签节点即可,提高了分类效率和准确率。
在一种实施方式中,还包括:
步骤S153:在分数满足预设条件的候选标签中,确定存在有候选标签与待分类文本完全不匹配的情况下,从分类标签结构体系的根节点开始逐层筛选匹配的标签节点,作为分类结果。
一种示例中,如图3所示,若判断所有推荐的候选标签与业务条目(待分类文本)完全不匹配,可以直接从树形结构的根节点逐层选择正确的标签节点,提高了分类效率和准确率。
在一种实施方式中,还包括:
步骤S161:记录分数满足预设条件的候选标签,以及分类结果,并更新到训练样本库中;
步骤S162:利用训练样本库对各层级结构对应的分类模型进行训练;
步骤S163:训练后得到的分类结果指标优于训练前的分类结果指标的情况下,触发各层级结构对应的分类模型进行自动更新。
一种示例中,如图3所示,分类模型自学习组件一方面会记录每次推荐的分数排名前n个候选标签,另一方面,会记录针对推荐的候选标签使用结果日志,包括完全没有采纳推荐候选标签情形下,重新选择的分类标签,或者部分采纳的推荐候选标签情形下,修正后的分类标签。针对重新选择分类标签的业务条目以及部分修正分类标签的业务条目,分别进行分组统计,对于超过阈值的分类标签,收集具体的业务条目及对应的分类标签,更新到训练样本库中。定期触发分类模型迭代训练功能,基于更新后的训练样本库进行模型训练,将本次模型训练的指标与上一轮模型训练的指标进行对比,若指标均有提升,则触发分类模型的在线自动更新功能。指标主要包含但不限于准确率、召回率以及精度。
本实施方式中,基于分类模型的使用状况,自动监控分类模型的准确率并收集训练数据,自动进行分类模型的迭代,即实现分类模型的自学习,分类模型使用的时间越久、频度越高,准确率就越高。
如图4所示,提供了一种文本分类装置,包括:
分类标签提取模块110,用于从分类标签结构体系中提取多个分类标签,分类标签结构体系包括多个层级结构,层级结构包括多个标签节点,分类标签包括从各层级结构中提取的标签节点;
相似度计算模块120,用于计算待分类文本分别与各分类标签对应的文本集之间的相似度,确定候选集,候选集包括多个候选标签;
分类模型训练模块130,用于利用各层级结构对应的文本集,训练各层级结构对应的分类模型;
分数预测模块140,用于利用各层级结构对应的分类模型,结合计算得到的相似度,预测待分类文本分别属于各候选标签的分数;
分类结果生成模块150,用于将分数满足预设条件的候选标签,作为待分类文本的分类结果。
在一种实施方式中,相似度计算模块120,包括:
第一向量构建子模块,用于针对分类标签cl,根据分类标签cl对应的文本集构建对应的特征向量Dl,Dl=(k1,w1;k2,w2;…;kn,wn),其中,kn为分类标签cl对应的文本集中的特征词,wn为特征词kn在分类标签cl中的权重;
第二向量构建子模块,用于根据待分类文本dj构建对应的特征向量Dj,Dj=(k′1,w′1;k′2,w′2;…;k′n,w′n),其中,k′n为待分类文本dj的特征词,w′n为特征词k′n在Dj中的权重;
相似度计算子模块,用于计算特征向量Dl和特征向量Dj之间的相似度:
其中,n为特征向量的维度,wk为Dl的第k维权重,w′k为Dj的第k维权重;
候选标签选择子模块,用于在计算得到的多个相似度中,选择相似度大于阈值的分类标签作为候选标签ci。
在一种实施方式中,分数预测模块140包括:
第一概率计算子模块,用于利用各层级结构对应的分类模型,预测待分类文本dj属于候选标签ci的第一概率值s2(dj,ci)(i=1,2,…,k)。
在一种实施方式中,分数预测模块140包括:
第二概率计算子模块,用于利用各层级结构对应的分类模型,预测待分类文本dj属于候选标签ci中所有上层标签节点的概率值,得到第二概率值s2(dj,cia):
其中,n是候选标签ci中所有上层标签节点的数目,cia是候选标签ci中所有上层标签节点的集合,是候选标签ci中向上回溯m(m=1,2,…,n)层的标签节点,是候选标签ci中向上回溯t(t=1,2,…,n)层的标签节点,是所在层级的分类模型对dj的分类结果,是所在层级的分类模型对dj的分类结果,am(m=1,2,…,n)是权重系数。
在一种实施方式中,分数预测模块140包括:
第三概率计算子模块,用于利用各层级结构对应的分类模型,预测待分类文本dj属于候选标签ci对应的所有兄弟分类标签的概率值,得到第三概率值s2(dj,cib):
其中,T是候选标签ci对应的所有兄弟分类标签的数目,cib是候选标签ci的所有同级分类标签的集合,是候选标签ci的第bM兄弟分类标签,是的叶子节点所在层级的分类模型对dj的分类结果,s2(dj,ci)是候选标签ci所在层级的分类模型对dj的分类结果。
在一种实施方式中,分数预测模块140包括:
综合概率值计算子模块,用于根据第一概率值s2(dj,ci)、第二概率值s2(dj,cia)、第三概率值s2(dj,cib),计算综合概率值s2final(dj,ci);
在一种实施方式中,分数预测模块140包括:
分数计算子模块,用于根据相似度s1(dj,ci)和综合概率值s2final(dj,ci),计算待分类文本dj属于候选标签ci的分数s(dj,ci):
s(dj,ci)=(1-θ)×s1(dj,ci)+θ×s2final(dj,ci)
其中,θ是权重系数,0≤θ≤1。
在一种实施方式中,分类结果生成模块150,包括:
候选标签选择子模块,用于选择分数s(dj,ci)的最大值对应的候选标签,作为待分类文本的分类结果:
其中,ci是候选集中的任意一个候选标签,c(dj)是候选集。
在一种实施方式中,还包括:
第一标签节点筛选模块,用于在分数满足预设条件的候选标签中,确定不存在有候选标签与待分类文本完全匹配的情况下,选择最大程度匹配的候选标签作为分类结果,在最大程度匹配的候选标签中筛选匹配的标签节点,作为分类结果。
在一种实施方式中,还包括:
第二标签节点筛选模块,用于在分数满足预设条件的候选标签中,确定存在有候选标签与待分类文本完全不匹配的情况下,从分类标签结构体系的根节点开始逐层筛选匹配的标签节点,作为分类结果。
在一种实施方式中,还包括:
第三标签节点筛选模块,用于在分数满足预设条件的候选标签中,确定存在有候选标签与待分类文本完全不匹配的情况下,从分类标签结构体系的根节点开始逐层筛选匹配的标签节点,作为分类结果。
在一种实施方式中,还包括:
记录模块,用于记录分数满足预设条件的候选标签,以及分类结果,并更新到训练样本库中;
更新训练模块,用于利用训练样本库对各层级结构对应的分类模型进行训练;
模型更新触发模块,用于训练后得到的分类结果指标优于训练前的分类结果指标的情况下,触发各层级结构对应的分类模型进行自动更新。
本申请实施例各装置中的各模块的功能可以参见上述方法中的对应描述,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图5所示,是根据本申请实施例的一种文本分类方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图5所示,该电子设备包括:一个或多个处理器501、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示图形用户界面(Graphical User Interface,GUI)的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图5中以一个处理器501为例。
存储器502即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的一种文本分类方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的一种文本分类方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的一种文本分类方法对应的程序指令/模块(例如,附图4所示的分类标签提取模块110、相似度计算模块120、分类模型训练模块130、分数预测模块140以及分类结果生成模块150)。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的一种文本分类方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据一种文本分类方法的电子设备的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至上述电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
上述电子设备还可以包括:输入装置503和输出装置504。处理器501、存储器502、输入装置503和输出装置504可以通过总线或者其他方式连接,图5中以通过总线连接为例。
输入装置503可接收输入的数字或字符信息,以及产生与上述电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置504可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(Liquid Cr5stal Displa5,LCD)、发光二极管(Light Emitting Diode,LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用集成电路(Application Specific Integrated Circuits,ASIC)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(programmable logic device,PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(Cathode Ray Tube,阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(Local Area Network,LAN)、广域网(Wide Area Network,WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (26)
1.一种文本分类方法,其特征在于,包括:
从分类标签结构体系中提取多个分类标签,所述分类标签结构体系包括多个层级结构,所述层级结构包括多个标签节点,所述分类标签包括从各所述层级结构中提取的标签节点;
计算待分类文本分别与各所述分类标签对应的文本集之间的相似度,确定候选集,所述候选集包括多个候选标签;
利用各所述层级结构对应的文本集,训练各所述层级结构对应的分类模型;
利用各所述层级结构对应的分类模型,结合计算得到的相似度,预测所述待分类文本分别属于各所述候选标签的分数;
将所述分数满足预设条件的候选标签,作为所述待分类文本的分类结果。
2.根据权利要求1所述的方法,其特征在于,所述计算待分类文本分别与各所述分类标签对应的文本集之间的相似度,确定候选集,包括:
针对所述分类标签cl,根据所述分类标签cl对应的文本集构建对应的特征向量Dl,Dl=(k1,w1;k2,w2;…;kn,wn),其中,kn为所述分类标签cl对应的文本集中的特征词,wn为特征词kn在所述分类标签cl中的权重;
根据所述待分类文本dj构建对应的特征向量Dj,Dj=(k′1,w′1;k′2,w′2;…;k′n,w′n),其中,k′n为待分类文本dj的特征词,w′n为特征词k′n在Dj中的权重;
计算特征向量Dl和特征向量Dj之间的相似度:
其中,n为特征向量的维度,wk为Dl的第k维权重,w′k为Dj的第k维权重;
在计算得到的多个相似度中,选择相似度大于阈值的分类标签作为所述候选标签ci。
3.根据权利要求2所述的方法,其特征在于,所述利用各所述层级结构对应的分类模型,结合计算得到的相似度,预测所述待分类文本分别属于各所述候选标签的分数,包括:
利用各所述层级结构对应的分类模型,预测所述待分类文本dj属于所述候选标签ci的第一概率值s2(dj,ci)(i=1,2,…,k)。
4.根据权利要求3所述的方法,其特征在于,所述利用各所述层级结构对应的分类模型,结合计算得到的相似度,预测所述待分类文本分别属于各所述候选标签的分数,包括:
利用各所述层级结构对应的分类模型,预测所述待分类文本dj属于所述候选标签ci中所有上层标签节点的概率值,得到第二概率值s2(dj,cia):
7.根据权利要求6所述的方法,其特征在于,所述利用各所述层级结构对应的分类模型,结合计算得到的相似度,预测所述待分类文本分别属于各所述候选标签的分数,包括:
根据所述相似度s1(dj,ci)和所述综合概率值s2final(dj,ci),计算所述待分类文本dj属于所述候选标签ci的分数s(dj,ci):
s(dj,ci)=(1-θ)×s1(dj,ci)+θ×s2final(dj,ci)
其中,θ是权重系数,0≤θ≤1。
9.根据权利要求1所述的方法,其特征在于,还包括:
在所述分数满足所述预设条件的候选标签中,确定存在有所述候选标签与所述待分类文本完全匹配的情况下,将完全匹配的候选标签作为所述分类结果,自动保存完全匹配的候选标签。
10.根据权利要求1所述的方法,其特征在于,还包括:
在所述分数满足所述预设条件的候选标签中,确定不存在有所述候选标签与所述待分类文本完全匹配的情况下,选择最大程度匹配的候选标签作为所述分类结果,在最大程度匹配的候选标签中筛选匹配的标签节点,作为所述分类结果。
11.根据权利要求1所述的方法,其特征在于,还包括:
在所述分数满足所述预设条件的候选标签中,确定存在有所述候选标签与所述待分类文本完全不匹配的情况下,从所述分类标签结构体系的根节点开始逐层筛选匹配的标签节点,作为所述分类结果。
12.根据权利要求9-11任一项所述的方法,其特征在于,还包括:
记录所述分数满足所述预设条件的候选标签,以及所述分类结果,并更新到训练样本库中;
利用所述训练样本库对各所述层级结构对应的分类模型进行训练;
训练后得到的分类结果指标优于训练前的分类结果指标的情况下,触发各所述层级结构对应的分类模型进行自动更新。
13.一种文本分类装置,其特征在于,包括:
分类标签提取模块,用于从分类标签结构体系中提取多个分类标签,所述分类标签结构体系包括多个层级结构,所述层级结构包括多个标签节点,所述分类标签包括从各所述层级结构中提取的标签节点;
相似度计算模块,用于计算待分类文本分别与各所述分类标签对应的文本集之间的相似度,确定候选集,所述候选集包括多个候选标签;
分类模型训练模块,用于利用各所述层级结构对应的文本集,训练各所述层级结构对应的分类模型;
分数预测模块,用于利用各所述层级结构对应的分类模型,结合计算得到的相似度,预测所述待分类文本分别属于各所述候选标签的分数;
分类结果生成模块,用于将所述分数满足预设条件的候选标签,作为所述待分类文本的分类结果。
14.根据权利要求13所述的装置,其特征在于,所述相似度计算模块,包括:
第一向量构建子模块,用于针对所述分类标签cl,根据所述分类标签cl对应的文本集构建对应的特征向量Dl,Dl=(k1,w1;k2,w2;…;kn,wn),其中,kn为所述分类标签cl对应的文本集中的特征词,wn为特征词kn在所述分类标签cl中的权重;
第二向量构建子模块,用于根据所述待分类文本dj构建对应的特征向量Dj,Dj=(k′1,w′1;k′2,w′2;…;k′n,w′n),其中,k′n为待分类文本dj的特征词,w′n为特征词k′n在Dj中的权重;
相似度计算子模块,用于计算特征向量Dl和特征向量Dj之间的相似度:
其中,n为特征向量的维度,wk为Dl的第k维权重,w′k为Dj的第k维权重;
候选标签选择子模块,用于在计算得到的多个相似度中,选择相似度大于阈值的分类标签作为所述候选标签ci。
15.根据权利要求14所述的装置,其特征在于,所述分数预测模块包括:
第一概率计算子模块,用于利用各所述层级结构对应的分类模型,预测所述待分类文本dj属于所述候选标签ci的第一概率值s2(dj,ci)(i=1,2,…,k)。
19.根据权利要求18所述的装置,其特征在于,所述分数预测模块包括:
分数计算子模块,用于根据所述相似度s1(dj,ci)和所述综合概率值s2final(dj,ci),计算所述待分类文本dj属于所述候选标签ci的分数s(dj,ci):
s(dj,ci)=(1-θ)×s1(dj,ci)+θ×s2final(dj,ci)
其中,θ是权重系数,0≤θ≤1。
21.根据权利要求13所述的装置,其特征在于,还包括:
第一标签节点筛选模块,用于在所述分数满足所述预设条件的候选标签中,确定不存在有所述候选标签与所述待分类文本完全匹配的情况下,选择最大程度匹配的候选标签作为所述分类结果,在最大程度匹配的候选标签中筛选匹配的标签节点,作为所述分类结果。
22.根据权利要求13所述的装置,其特征在于,还包括:
第二标签节点筛选模块,用于在所述分数满足所述预设条件的候选标签中,确定存在有所述候选标签与所述待分类文本完全不匹配的情况下,从所述分类标签结构体系的根节点开始逐层筛选匹配的标签节点,作为所述分类结果。
23.根据权利要求13所述的装置,其特征在于,还包括:
第三标签节点筛选模块,用于在所述分数满足所述预设条件的候选标签中,确定存在有所述候选标签与所述待分类文本完全不匹配的情况下,从所述分类标签结构体系的根节点开始逐层筛选匹配的标签节点,作为所述分类结果。
24.根据权利要求20-23任一项所述的装置,其特征在于,还包括:
记录模块,用于记录所述分数满足所述预设条件的候选标签,以及所述分类结果,并更新到训练样本库中;
更新训练模块,用于利用所述训练样本库对各所述层级结构对应的分类模型进行训练;
模型更新触发模块,用于训练后得到的分类结果指标优于训练前的分类结果指标的情况下,触发各所述层级结构对应的分类模型进行自动更新。
25.一种电子设备,其特征在于,包括:
至少一个处理器;以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-12中任一项所述的方法。
26.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-12中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011361185.0A CN112328798A (zh) | 2020-11-27 | 2020-11-27 | 文本分类方法以及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011361185.0A CN112328798A (zh) | 2020-11-27 | 2020-11-27 | 文本分类方法以及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112328798A true CN112328798A (zh) | 2021-02-05 |
Family
ID=74308712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011361185.0A Pending CN112328798A (zh) | 2020-11-27 | 2020-11-27 | 文本分类方法以及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112328798A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113656579A (zh) * | 2021-07-23 | 2021-11-16 | 北京亿欧网盟科技有限公司 | 文本分类方法、装置、设备及介质 |
CN114254588A (zh) * | 2021-12-16 | 2022-03-29 | 马上消费金融股份有限公司 | 数据标签处理方法和装置 |
CN114547283A (zh) * | 2022-02-25 | 2022-05-27 | 广域铭岛数字科技有限公司 | 基于语义理解的对话质量分析方法、装置、设备和介质 |
CN116738343A (zh) * | 2023-08-08 | 2023-09-12 | 云筑信息科技(成都)有限公司 | 建筑行业物料数据识别方法、装置及电子设备 |
CN116975295A (zh) * | 2023-09-21 | 2023-10-31 | 腾讯科技(深圳)有限公司 | 一种文本分类方法、装置及相关产品 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040024769A1 (en) * | 2002-08-02 | 2004-02-05 | Forman George H. | System and method for inducing a top-down hierarchical categorizer |
US20040111438A1 (en) * | 2002-12-04 | 2004-06-10 | Chitrapura Krishna Prasad | Method and apparatus for populating a predefined concept hierarchy or other hierarchical set of classified data items by minimizing system entrophy |
JP6148427B1 (ja) * | 2016-03-03 | 2017-06-14 | 楽天株式会社 | 文書分類装置、文書分類方法、および文書分類プログラム |
CN107391565A (zh) * | 2017-06-13 | 2017-11-24 | 东南大学 | 一种基于主题模型的跨语言层次分类体系匹配方法 |
CN110543563A (zh) * | 2019-08-20 | 2019-12-06 | 暨南大学 | 一种层次型文本分类方法及系统 |
CN111858843A (zh) * | 2019-04-30 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种文本分类方法及装置 |
CN111930944A (zh) * | 2020-08-12 | 2020-11-13 | 中国银行股份有限公司 | 文件标签分类方法及装置 |
-
2020
- 2020-11-27 CN CN202011361185.0A patent/CN112328798A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040024769A1 (en) * | 2002-08-02 | 2004-02-05 | Forman George H. | System and method for inducing a top-down hierarchical categorizer |
US20040111438A1 (en) * | 2002-12-04 | 2004-06-10 | Chitrapura Krishna Prasad | Method and apparatus for populating a predefined concept hierarchy or other hierarchical set of classified data items by minimizing system entrophy |
JP6148427B1 (ja) * | 2016-03-03 | 2017-06-14 | 楽天株式会社 | 文書分類装置、文書分類方法、および文書分類プログラム |
CN107391565A (zh) * | 2017-06-13 | 2017-11-24 | 东南大学 | 一种基于主题模型的跨语言层次分类体系匹配方法 |
CN111858843A (zh) * | 2019-04-30 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种文本分类方法及装置 |
CN110543563A (zh) * | 2019-08-20 | 2019-12-06 | 暨南大学 | 一种层次型文本分类方法及系统 |
CN111930944A (zh) * | 2020-08-12 | 2020-11-13 | 中国银行股份有限公司 | 文件标签分类方法及装置 |
Non-Patent Citations (5)
Title |
---|
GUI-RONG XUE等: "Deep classification in large-scale text hierarchies", SIGIR \'08: PROCEEDINGS OF THE 31ST ANNUAL INTERNATIONAL ACM SIGIR CONFERENCE ON RESEARCH AND DEVELOPMENT IN INFORMATION RETRIEVAL, pages 619 * |
古平;王春元;: "结合邻居辅助策略的两阶段层次文本分类模型", 计算机工程与应用, no. 09 * |
张春焰;李涛;刘峥;: "基于路径选择的层次多标签分类", 计算机技术与发展, no. 10 * |
王春元: "基于邻居辅助策略的两阶段层次文本分类模型研究", 中国优秀硕士学位论文全文数据库 信息科技辑, pages 138 - 6360 * |
邱锡鹏: "神经网络与深度学习", 31 July 2020, 机械工业出版社, pages: 240 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113656579A (zh) * | 2021-07-23 | 2021-11-16 | 北京亿欧网盟科技有限公司 | 文本分类方法、装置、设备及介质 |
CN113656579B (zh) * | 2021-07-23 | 2024-01-26 | 北京亿欧网盟科技有限公司 | 文本分类方法、装置、设备及介质 |
CN114254588A (zh) * | 2021-12-16 | 2022-03-29 | 马上消费金融股份有限公司 | 数据标签处理方法和装置 |
CN114254588B (zh) * | 2021-12-16 | 2023-10-13 | 马上消费金融股份有限公司 | 数据标签处理方法和装置 |
CN114547283A (zh) * | 2022-02-25 | 2022-05-27 | 广域铭岛数字科技有限公司 | 基于语义理解的对话质量分析方法、装置、设备和介质 |
CN116738343A (zh) * | 2023-08-08 | 2023-09-12 | 云筑信息科技(成都)有限公司 | 建筑行业物料数据识别方法、装置及电子设备 |
CN116738343B (zh) * | 2023-08-08 | 2023-10-20 | 云筑信息科技(成都)有限公司 | 建筑行业物料数据识别方法、装置及电子设备 |
CN116975295A (zh) * | 2023-09-21 | 2023-10-31 | 腾讯科技(深圳)有限公司 | 一种文本分类方法、装置及相关产品 |
CN116975295B (zh) * | 2023-09-21 | 2024-01-30 | 腾讯科技(深圳)有限公司 | 一种文本分类方法、装置及相关产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112507715B (zh) | 确定实体之间关联关系的方法、装置、设备和存储介质 | |
KR102526040B1 (ko) | 정보 검색 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램 | |
CN112328798A (zh) | 文本分类方法以及装置 | |
WO2022100045A1 (zh) | 分类模型的训练方法、样本分类方法、装置和设备 | |
US11714831B2 (en) | Data processing and classification | |
US10606849B2 (en) | Techniques for assigning confidence scores to relationship entries in a knowledge graph | |
US20190354810A1 (en) | Active learning to reduce noise in labels | |
US10607142B2 (en) | Responding to user input based on confidence scores assigned to relationship entries in a knowledge graph | |
KR102476056B1 (ko) | 아이템 추천방법, 시스템, 전자기기 및 기록매체 | |
JP2021166109A (ja) | 融合順序付けモデルの訓練方法と装置、検索の順序付け方法と装置、電子デバイス、記憶媒体、及びプログラム | |
CN112765477B (zh) | 信息处理、信息推荐的方法和装置、电子设备和存储介质 | |
CN116034355A (zh) | 通信内容定制 | |
CN110717340B (zh) | 推荐方法、装置、电子设备及存储介质 | |
CN111667056A (zh) | 用于搜索模型结构的方法和装置 | |
CN112329453B (zh) | 样本章节的生成方法、装置、设备以及存储介质 | |
CN111831813A (zh) | 对话生成方法、装置、电子设备及介质 | |
US20220100772A1 (en) | Context-sensitive linking of entities to private databases | |
CN111563198B (zh) | 一种物料召回方法、装置、设备及存储介质 | |
WO2021253238A1 (en) | Learning interpretable relationships between entities, relations, and concepts via bayesian structure learning on open domain facts | |
CN111460791A (zh) | 文本分类方法、装置、设备以及存储介质 | |
CN116127376A (zh) | 模型训练方法、数据分类分级方法、装置、设备及介质 | |
CN111125445A (zh) | 社区主题生成方法、装置、电子设备及存储介质 | |
CN111274497B (zh) | 社区推荐及模型训练方法、装置、电子设备及存储介质 | |
CN112052402B (zh) | 信息推荐方法、装置、电子设备及存储介质 | |
CN111695036B (zh) | 内容推荐方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |