CN112069321A - 用于文本层级分类的方法、电子设备和存储介质 - Google Patents

用于文本层级分类的方法、电子设备和存储介质 Download PDF

Info

Publication number
CN112069321A
CN112069321A CN202011251117.9A CN202011251117A CN112069321A CN 112069321 A CN112069321 A CN 112069321A CN 202011251117 A CN202011251117 A CN 202011251117A CN 112069321 A CN112069321 A CN 112069321A
Authority
CN
China
Prior art keywords
samples
categories
text data
text
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011251117.9A
Other languages
English (en)
Other versions
CN112069321B (zh
Inventor
王东
陈广顺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zkh Industrial Supply Co ltd
Zhenkunxing Network Technology Nanjing Co ltd
Original Assignee
Zkh Industrial Supply Co ltd
Zhenkunxing Network Technology Nanjing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zkh Industrial Supply Co ltd, Zhenkunxing Network Technology Nanjing Co ltd filed Critical Zkh Industrial Supply Co ltd
Priority to CN202011251117.9A priority Critical patent/CN112069321B/zh
Publication of CN112069321A publication Critical patent/CN112069321A/zh
Application granted granted Critical
Publication of CN112069321B publication Critical patent/CN112069321B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/247Thesauruses; Synonyms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开的实施例涉及用于文本层级分类的方法、设备和介质,涉及信息处理领域。根据该方法,对每项文本数据生成多个层级类目;生成训练样本集合和验证样本集合;对与相同层级中的不同类目相关联的样本数量进行排序;基于样本数量在对应排序结果中的位置,确定多个权重;S1:基于训练样本集合和多标签神经网络模型,生成多标签分类结果集合;S2:基于多标签分类结果集合和多个权重,确定损失值;S3:基于损失值,更新多标签神经网络模型;重复S1‑S3,直至损失值小于预定值以及验证样本集合的准确率达到预定准确率,以得到经训练的多标签神经网络模型。由此,能够在损失函数中考虑多层级类目的多个权重,避免多层级类目数据不均衡和数据质量问题。

Description

用于文本层级分类的方法、电子设备和存储介质
技术领域
本公开的实施例总体涉及信息处理领域,具体涉及用于文本层级分类的方法、电子设备和计算机存储介质。
背景技术
不均衡数据广泛存在于现实世界中,比如垃圾邮件检测、机器的故障检测、信用卡的欺诈检测等等。目前业界对于不均衡数据分类的处理方法,主要有以下几方面:一是过采样:通过对于少数类样本进行多次重复抽样提高少数类的样本数,例如随机过采样、SMOTE、ADASYN算法等,该方法增加了少数类的样本,但存在过拟合的风险;二是欠采样,通过对于多数类样本进行随机欠采样或者其他算法降低多数类的样本,例如随机欠采样、EasyEnsemble、BalanceCascade等算法,该方法减少了多数类的样本,存在欠拟合的风险;三是代价敏感学习,通过引入代价敏感矩阵,从算法层面上解决不平衡数据引起的问题,比如决策树可以在分裂标准、剪枝等方面引入代价矩阵等。
发明内容
提供了一种用于文本层级分类的方法、电子设备以及计算机存储介质,能够在损失函数中考虑多个层级类目的多个权重,避免多层级类目数据不均衡和数据质量问题。
根据本公开的第一方面,提供了一种用于文本层级分类的方法。该方法包括:对文本数据集合中的每项文本数据生成多个层级类目作为标签数据,以得到标签数据集合;基于文本数据集合和标签数据集合,生成训练样本集合和验证样本集合;对训练样本集合中与相同层级中的不同类目相关联的样本数量进行排序,以得到与多个层级相关联的多个排序结果;基于训练样本集合中与相同层级中的不同类目相关联的样本数量在对应排序结果中的位置,确定与多个层级类目相关联的多个权重;S1:基于训练样本集合中的文本数据子集合和多标签分类神经网络模型,生成多标签分类结果集合;S2:基于多标签分类结果集合、多个权重、训练样本集合中的标签数据子集合和预定损失函数,确定损失值;S3:基于损失值和梯度下降算法,更新多标签分类神经网络模型中的参数;以及重复步骤S1-S3,直至损失值小于预定值以及验证样本集合的准确率达到预定准确率,以得到经训练的多标签分类神经网络模型。
根据本公开的第二方面,提供了一种电子设备。该电子设备包括:至少一个处理器,以及与至少一个处理器通信连接的存储器,其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行根据第一方面所述的方法。
在本公开的第三方面中,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现根据本公开的第一方面的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标注表示相同或相似的元素。
图1是根据本公开的实施例的信息处理环境100的示意图。
图2是根据本公开的实施例的用于文本层级分类的方法200的示意图。
图3是根据本公开的实施例的用于生成多标签分类结果集合的方法300的示意图。
图4是根据本公开的实施例的用于确定多个权重的方法400的示意图。
图5是根据本公开的实施例的多标签分类神经网络模型500的示意框图。
图6是用来实现本公开实施例的用于文本层级分类的方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如上所述,不均衡数据广泛存在,但是目前没有针对多层级类目的不均衡数据的解决方案。
另外,现实中存在很多层级类目的情况,比如中国大学共有13个学科,92个大学专业类,506种大学专业,其中13个学科类似于一级类目,比如工学学科,92个大学专业类类似于二级类目,比如计算机类,506种大学专业类似于三级类目,比如计算机科学与技术专业。目前业界针对层级分类方法主要有两种,一种是针对每一级类目分别训练一个模型,然后分别预测,这种方式会比较耗时;另一种是针对最后一层类目训练出一个模型,算法预测出最后一层类目后逐层根据类目映射关系找出上层类目,该方法优点是只需要一个模型,缺点是如果最后一层类目预测错误,上层类目很可能也会出错,造成误差的叠加。
此外,传统的神经网络模型也没有充分考虑数据不均衡情况和短文本特性,从而针对短文本类目进行多层级类目预测的效果不佳。
为了至少部分地解决上述问题以及其他潜在问题中的一个或者多个,本公开的示例实施例提出了一种用于文本层级分类的方案。在该方案中,对文本数据集合中的每项文本数据生成多个层级类目作为标签数据,以得到标签数据集合;基于文本数据集合和标签数据集合,生成训练样本集合和验证样本集合;对训练样本集合中与相同层级中的不同类目相关联的样本数量进行排序,以得到与多个层级相关联的多个排序结果;基于训练样本集合中与相同层级中的不同类目相关联的样本数量在对应排序结果中的位置,确定与多个层级类目相关联的多个权重;S1:基于训练样本集合中的文本数据子集合和多标签分类神经网络模型,生成多标签分类结果集合;S2:基于多标签分类结果集合、多个权重、训练样本集合中的标签数据子集合和预定损失函数,确定损失值;S3:基于损失值和梯度下降算法,更新多标签分类神经网络模型中的参数;以及重复步骤S1-S3,直至损失值小于预定值以及验证样本集合的准确率达到预定准确率,以得到经训练的多标签分类神经网络模型。以此方式,能够在损失函数中考虑多个层级类目的多个权重,避免多层级类目数据不均衡和数据质量问题。
在下文中,将结合附图更详细地描述本方案的具体示例。
图1示出了根据本公开的实施例的信息处理环境100的示例的示意图。信息处理环境100可以包括计算设备110、文本数据集合120以及经训练的多标签分类神经网络模型130。
计算设备110例如包括但不限于服务器计算机、多处理器系统、大型计算机、包括上述系统或设备中的任意一个的分布式计算环境等。在一些实施例中,计算设备110可以具有一个或多个处理单元,包括诸如图像处理单元GPU、现场可编程门阵列FPGA和专用集成电路ASIC等的专用处理单元以及诸如中央处理单元CPU的通用处理单元。
计算设备110用于对文本数据集合120中的每项文本数据生成多个层级类目作为标签数据,以得到标签数据集合;基于文本数据集合120和标签数据集合,生成训练样本集合和验证样本集合;对训练样本集合中与相同层级中的不同类目相关联的样本数量进行排序,以得到与多个层级相关联的多个排序结果;基于训练样本集合中与相同层级中的不同类目相关联的样本数量在对应排序结果中的位置,确定与多个层级类目相关联的多个权重;S1:基于训练样本集合中的文本数据子集合和多标签分类神经网络模型,生成多标签分类结果集合;S2:基于多标签分类结果集合、多个权重、训练样本集合中的标签数据子集合和预定损失函数,确定损失值;S3:基于损失值和梯度下降算法,更新多标签分类神经网络模型中的参数;以及重复步骤S1-S3,直至损失值小于预定值以及验证样本集合的准确率达到预定准确率,以得到经训练的多标签分类神经网络模型130,用于文本层级分类。
由此,能够在损失函数中考虑多个层级类目的多个权重,避免多层级类目数据不均衡和数据质量问题。
图2示出了根据本公开的实施例的用于数据项推荐的方法200的流程图。例如,方法200可以由如图1所示的计算设备110来执行。应当理解的是,方法200还可以包括未示出的附加框和/或可以省略所示出的框,本公开的范围在此方面不受限制。
在框202处,计算设备110对文本数据集合120中的每项文本数据生成多个层级类目作为标签数据,以得到标签数据集合。在一些实施例中,文本数据集合120中的每项文本数据的长度不超过预定长度。预定长度例如包括但不限于15个词。这样的文本数据也可以成为短文本。
关于层级类目,例如可以有多个层级,例如3、5个层级等,一级类目、二级类目和三级类目。每个层级可以有至少一个类目,例如1、3、5、10等,不同层级中的类目数量可以相同或不同。例如,对于3个词组成的文本可以生成一级类目1、二级类目1、二级类目2、三级类目1、三级类目2等多个层级类目,例如可以采用_label_lelvel1_一级类目1,label_lelvel2_二级类目1,label_lelvel2_二级类目2, label_lelvel3_三级类目1,label_lelvel3三级类目2的形式。例如,一级类目可以包括办公用品,二级类目可以包括耗材、办公3C、文具等,三级类目可以包括办公用纸、网络产品、文件收纳等,则为某项文本数据生成的多个层级类目可以包括一级类目办公用品、二级类目耗材、三级类目办公用纸,这些层级类目将作为该项文本数据的标签。
在一些实施例中,在步骤202之前,计算设备110可以通过以下步骤得到文本数据集合120:对初始文本数据集合小写转大写、分词、去停用词和/或近义词替换。
例如,计算设备110可以确定初始文本数据集合中与停用词词典相匹配的词语,随后从初始文本数据集合中删除确定的词语,以得到文本数据集合120。
还如,计算设备110可以基于近义词词库对初始文本数据集合中的词语进行近义词替换,以得到近义词替换版本集合,随后将初始文本数据集合和近义词替换版本集合合并为文本数据集合120。
在框204处,计算设备110基于文本数据集合120和标签数据集合,生成训练样本集合和验证样本集合。
如上所述,文本数据集合120可以是从初始文本数据集合经过分词得到的。在此情况下,计算设备110可以对文本数据集合120中的分词进行词嵌入,以得到词向量集合。
此外,计算设备110还可以对标签数据集合进行向量化,以得到标签向量集合。标签向量的维度例如为层级类目的总数量。例如,如果某一项文本数据分别属于某个一、二、三级类目,则对应一、二、三级类目的值为1,其余均为零,也就是multi-hot的形式。
对得到的词向量集合和标签向量集合组合为数据集,并按照预定比例将数据集划分为训练样本集合和验证样本集合,例如80%为训练样本集合,20%为验证样本集合。
在框206处,计算设备110对训练样本集合中与相同层级中的不同类目相关联的样本数量进行排序,以得到与多个层级相关联的多个排序结果。
例如,三级类目包括办公用纸、网络产品和文件收纳,则对训练样本集合标记为办公用纸的样本数量、标记为网络产品的样本数量和标记为文件收纳的样本数量进行排序。对于二级类目和一级类目也是类似操作,不再赘述。
在框208处,计算设备110基于训练样本集合中与相同层级中的不同类目相关联的样本数量在对应排序结果中的位置,确定与多个层级类目相关联的多个权重。下文将结合图4详细说明用于确定多个权重的方法。
在框210处,计算设备110基于训练样本集合中的文本数据子集合和多标签分类神经网络模型,生成多标签分类结果集合。下文将结合图3详细描述用于生成多标签分类结果集合的方法。
在框212处,计算设备110基于多标签分类结果集合、多个权重、训练样本集合中的标签数据子集合和预定损失函数,确定损失值。
预定损失函数的公式如下。
Figure 153607DEST_PATH_IMAGE001
其中,N表示训练的批大小,例如训练样本集合的数量。M表示层级类目的总数。
Figure 70747DEST_PATH_IMAGE002
表示训练样本i所属层级类目j的权重。
Figure 788167DEST_PATH_IMAGE003
表示训练样本i的实际层级类目标签j。
Figure 183377DEST_PATH_IMAGE004
表示训练样本i针对层级类目j的分类结果,其是步骤210得到的。
在框214处,计算设备110基于损失值和梯度下降算法,更新多标签分类神经网络模型中的参数。
梯度下降算法例如包括但不限于Adam算法。
在框216处,计算设备110确定是否损失值小于预定值且验证样本集合的准确率达到预定准确率。
如果在框216处计算设备110确定损失值小于预定值且验证样本集合的准确率达到预定准确率,则在框218得到经训练的多标签分类神经网络模型130。
准确率例如可以采用以下任一准确率计算公式。
Figure 184699DEST_PATH_IMAGE005
这里N为测试样本数量。
如果在框216处计算设备110确定损失值大于或等于预定值或者验证样本集合的准确率低于预定准确率,则重复上述步骤210-216。
由此,能够在损失函数中考虑多个层级类目的多个权重,避免多层级类目数据不均衡和数据质量问题。此外,对于各层级的类目分别计算各自权重,一方面充分考虑每一级类目的样本数特点,另一方面可以灵活控制算法对于每一级类目准确率的要求,比如要提高二级类目准确性,那么该层级下的类目就赋予相对较高的权重。
下面将结合图3和图5描述用于生成多标签分类结果集合的方法。图5示出了根据本公开的实施例的多标签分类神经网络模型500的示意框图。如图5所示,多标签分类神经网络模型500包括输入层501、嵌入层502、双向长短记忆模型层503、自注意力层504、全局平均池化层505、拼接层506、全连接层507以及输出层508。
关于输入层501,其就是作为输入的文本数据,其中w1-w4表示文本数据中的词语。应当理解,w1-w4只是举例,文本数据可以包括更多或更少的词语。
关于嵌入层502,其对于输入的词语进行词嵌入处理,以得到词向量,例如e1-e4。
关于双向长短记忆模型(BiLSTM)层503,其对词向量进行前向长短记忆传递和后向长短记忆传递得到的结果拼接后,得到双向时序特征。
关于自注意力层504,其对双向时序特征进行处理,以得到关键词特征。可采用任何合适的自注意力层。
关于全局平均池化(GlobalAveragePooling1D)层505,其对双向时序特征进行处理,以得到全局的词语特征。
关于拼接层506,其对关键词特征和词语特征进行拼接,以得到文本特征。
关于全连接层507,其例如包括256个神经元节点,激活函数为relu。
关于输出层508,其例如包括层级类目总数量个神经元节点,激活函数为sigmoid。应当理解,图中示出1个sigmoid只是为了示例说明,本公开的范围在此不受限制。
由此,提出一种包括BiLSTM、自注意力层及GlobalAveragePooling1D层的新网络结构用于短文本层级分类,其充分考虑了数据不均衡和短文本的特性。
图3示出了根据本公开的实施例的用于生成多标签分类结果集合的方法300的流程图。例如,方法300可以由如图1所示的计算设备110来执行。应当理解的是,方法300还可以包括未示出的附加框和/或可以省略所示出的框,本公开的范围在此方面不受限制。方法300可以包括对于文本数据子集合中的每项文本数据执行以下步骤。
在框302处,计算设备110将文本数据输入多标签分类神经网络模型500中的双向长短记忆模型(Bi-LSTM)503,以得到双向时序特征。
在一些实施例中,在将文本数据输入双向长短记忆模型503之前,计算设备110可以将文本数据输入到嵌入层502,以得到词向量。随后,计算设备110可以将词向量输入到双向长短记忆模型503。此外,计算设备110可以对文本数据映射到预定维度,例如64维。例如可以采用统一的embeddings_initializer来实现。
在框304处,计算设备110将双向时序特征分别输入多标签分类神经网络模型500中的自注意力(self-Attention)层504和全局平均池化(GlobalAveragePooling1D)层505,以得到关键词特征和词语特征。
在框306处,计算设备110将关键词特征和词语特征进行拼接,以得到文本特征。例如,计算设备110通过拼接层506将关键词特征和词语特征进行拼接。
在框308处,计算设备110将文本特征输入多标签分类神经网络模型500中的全连接层507,以得到全连接结果。
在框310处,计算设备110将全连接结果输入到多标签分类神经网络模型500中的输出层508,以得到多标签分类结果。
在一些实施例中,输出层508包括层级类目总数量个神经元节点。
由此,使用双向长短记忆模型提取文本的词序特征、自注意力层提取关键词特征,全局平均池化层提取全局的词语特征,综合以上特征可以更加全面的反映文本的词序、语义等信息特征,使得文本层级分类更加准确。此外,可以使用一个模型将每个层级类目同时预测出来,提高预测效率的同时也避免了误差叠加的情况。
图4示出了根据本公开的实施例的用于确定多个权重的方法400的流程图。例如,方法400可以由如图1所示的计算设备110来执行。应当理解的是,方法400还可以包括未示出的附加框和/或可以省略所示出的框,本公开的范围在此方面不受限制。方法400可以包括对于多个排序结果中的每一个排序结果执行以下步骤。
在框402处,计算设备110确定排序结果中与第一预定分位数对应的第一样本数量和与第二预定分位数相对应的第二样本数量,第一预定分位数小于第二预定分位数。
第一预定分位数例如为20分位数,例如可以记为P20,与之对应的第一样本数量例如为在排序结果中位于20分位数的样本数量,例如排序结果1、2、3、4、5、6、7、8、9、10中的2。第二预定分位数例如为80分位数,例如可以记为P80,与之对应的第一样本数量例如为在排序结果中位于80分位数的样本数量,例如排序结果1、2、3、4、5、6、7、8、9、10中的8。应当理解,上述第一预定分位数和第二预定分位数只是举例,本公开的范围在此不受限制。
在框404处,计算设备110对于样本数量小于第一样本数量的层级类目,基于训练样本集合的样本总量、层级类目所属层级中的类目数量以及第一样本数量,确定层级类目的权重。
例如,对于样本数量<P20的一级类目,其权重为训练样本集合的样本总量/(第一层级中的类目数量*P20)。对于其他层级类目,也是类似处理。
在框406处,计算设备110对于样本数量大于第二样本数量的层级类目,基于训练样本集合的样本总量、层级类目所属层级中的类目数量以及第二样本数量,确定层级类目的权重。
例如,对于样本数量>P80的一级类目,其权重为训练样本集合的样本总量/(第一层级中的类目数量*P80)。对于其他层级类目,也是类似处理。
在框408处,计算设备110对于排序结果中大于或等于第一样本数量且小于或等于第二样本数量的层级类目,基于训练样本集合的样本总量、层级类目所属层级中的类目数量以及训练样本集合中与层级类目相关联的样本数量,确定层级类目的权重。
例如,对于P20<=样本数量<=P80的一级类目,其权重为训练样本集合的样本总量/(第一层级中的类目数量*该一级类目的样本数量)。对于其他层级类目,也是类似处理。
由此,采用分位数的损失权重计算方法,对于不同数量的类目赋予不同的权重,充分考虑了各级类目的特点,解决了传统模型中偏向于预测数量较大的类目的问题,同时解决了数据质量的问题。
在一些实施例中,计算设备110还可以基于与多个层级相关联的多个权重调节因子,调节与多个层级类目相关联的多个权重。
例如对于3级类目,调节过程例如为一级类目权重*3,二级类目权重*2,三级类目权重*1。应当理解,这只是举例说明,层级可以更多或更少,权重调节因子也可以是其他例子。
由此,可以根据需要对层级类目的权重进行调节,例如高层级类目的权重调节因子更大,从而使得高层级类目具有更好预测准确率。
在得到经训练的多标签分类神经网络模型之后,计算设备110可以获取目标文本;基于经训练的多标签分类神经网络模型130,确定用于目标文本的多个层级类目;以及提示确定的多个层级类目。
由此,能够利用经训练的多标签分类神经网络模型来确定目标文本的多个层级类目,从而实现层级类目的自动提示。
此外,在一些实施例中,计算设备110还可以在层级表格中自动填写确定的多个层级类目。
由此,实现输入文本的层级类目的自动填写。
备选地或者附加,在一些实施例中,计算设备110还可以基于确定的多个层级类目作为搜索关键词,搜索数据库以获取搜索结果。
由此,能够实现利用输入文本的层级类目进行搜索,提高搜索准确度。
图6示出了可以用来实施本公开内容的实施例的示例设备600的示意性框图。例如,如图1所示的计算设备110可以由设备600来实施。如图所示,设备600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的计算机程序指令或者从存储单元608加载到随机存取存储器(RAM)603中的计算机程序指令,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。中央处理单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标、麦克风等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法200-400,可由中央处理单元601执行。例如,在一些实施例中,方法200-400可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序被加载到RAM 603并由中央处理单元601执行时,可以执行上文描述的方法200-400的一个或多个动作。
本公开涉及方法、装置、系统、电子设备、计算机可读存储介质和/或计算机程序产品。计算机程序产品可以包括用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (10)

1.一种用于文本层级分类的方法,包括:
对文本数据集合中的每项文本数据生成多个层级类目作为标签数据,以得到标签数据集合;
基于所述文本数据集合和所述标签数据集合,生成训练样本集合和验证样本集合;
对所述训练样本集合中与相同层级中的不同类目相关联的样本数量进行排序,以得到与多个层级相关联的多个排序结果;
基于所述训练样本集合中与相同层级中的不同类目相关联的样本数量在对应排序结果中的位置,确定与所述多个层级类目相关联的多个权重;
S1:基于所述训练样本集合中的文本数据子集合和多标签分类神经网络模型,生成多标签分类结果集合;
S2:基于所述多标签分类结果集合、所述多个权重、所述训练样本集合中的标签数据子集合和预定损失函数,确定损失值;
S3:基于所述损失值和梯度下降算法,更新所述多标签分类神经网络模型中的参数;以及
重复S1-S3,直至所述损失值小于预定值以及所述验证样本集合的准确率达到预定准确率,以得到经训练的多标签分类神经网络模型。
2.根据权利要求1所述的方法,其中生成所述多标签分类结果集合包括对于所述文本数据子集合中的每项文本数据执行以下步骤:
将所述文本数据输入所述多标签分类神经网络模型中的双向长短记忆模型,以得到双向时序特征;
将所述双向时序特征分别输入所述多标签分类神经网络模型中的自注意力层和全局平均池化层,以得到关键词特征和词语特征;
将所述关键词特征和所述词语特征进行拼接,以得到文本特征;
将所述文本特征输入所述多标签分类神经网络模型中的全连接层,以得到全连接结果;以及
将所述全连接结果输入到所述多标签分类神经网络模型中的输出层,以得到多标签分类结果。
3.根据权利要求2所述的方法,其中所述输出层包括层级类目总数量个神经元节点。
4.根据权利要求1所述的方法,其中确定所述多个权重包括:对于所述多个排序结果中的每一个排序结果执行以下步骤:
确定所述排序结果中与第一预定分位数对应的第一样本数量和与第二预定分位数相对应的第二样本数量,所述第一预定分位数小于所述第二预定分位数;
对于样本数量小于所述第一样本数量的层级类目,基于训练样本集合的样本总量、所述层级类目所属层级中的类目数量以及所述第一样本数量,确定所述层级类目的权重;
对于样本数量大于所述第二样本数量的层级类目,基于训练样本集合的样本总量、所述层级类目所属层级中的类目数量以及所述第二样本数量,确定所述层级类目的权重;以及
对于所述排序结果中大于或等于所述第一样本数量且小于或等于所述第二样本数量的层级类目,基于训练样本集合的样本总量、所述层级类目所属层级中的类目数量以及所述训练样本集合中与所述层级类目相关联的样本数量,确定所述层级类目的权重。
5.根据权利要求4所述的方法,其中确定所述多个权重还包括:
基于与多个层级相关联的多个权重调节因子,调节与所述多个层级类目相关联的多个权重。
6.根据权利要求1所述的方法,还包括:
对初始文本数据集合进行以下操作中的至少一项,以得到所述文本数据集合:
小写转大写、分词、去停用词和近义词随机替换。
7.根据权利要求1所述的方法,还包括:
获取目标文本;
基于经训练的所述多标签分类神经网络模型,确定用于目标文本的多个层级类目;以及
提示确定的所述多个层级类目。
8.根据权利要求1所述的方法,其中所述文本数据集合中的每项文本数据的长度不超过预定长度。
9.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
CN202011251117.9A 2020-11-11 2020-11-11 用于文本层级分类的方法、电子设备和存储介质 Active CN112069321B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011251117.9A CN112069321B (zh) 2020-11-11 2020-11-11 用于文本层级分类的方法、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011251117.9A CN112069321B (zh) 2020-11-11 2020-11-11 用于文本层级分类的方法、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN112069321A true CN112069321A (zh) 2020-12-11
CN112069321B CN112069321B (zh) 2021-02-12

Family

ID=73655211

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011251117.9A Active CN112069321B (zh) 2020-11-11 2020-11-11 用于文本层级分类的方法、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN112069321B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113553433A (zh) * 2021-09-17 2021-10-26 平安科技(深圳)有限公司 基于人工智能的产品分类方法、装置、介质及终端设备
CN113836329A (zh) * 2021-09-29 2021-12-24 腾讯科技(深圳)有限公司 多媒体内容分类方法、装置、电子设备和存储介质
CN114065741A (zh) * 2021-11-16 2022-02-18 北京有竹居网络技术有限公司 用于验证表述的真实性的方法、设备、装置和介质
CN114091446A (zh) * 2021-11-24 2022-02-25 北京有竹居网络技术有限公司 生成文本的方法和装置
WO2022134968A1 (zh) * 2020-12-24 2022-06-30 北京有竹居网络技术有限公司 模型的训练方法、语音识别方法、装置、介质及设备
CN115374859A (zh) * 2022-08-24 2022-11-22 东北大学 一种针对非平衡、多类别的复杂工业数据的分类方法
CN116503872A (zh) * 2023-06-26 2023-07-28 四川集鲜数智供应链科技有限公司 一种基于机器学习的授信客户挖掘方法
CN116975400A (zh) * 2023-08-03 2023-10-31 星环信息科技(上海)股份有限公司 一种数据分级分类方法、装置、电子设备及存储介质
CN117313562A (zh) * 2023-11-30 2023-12-29 西华大学 适用于机载防撞系统的逻辑表压缩方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180285771A1 (en) * 2017-03-31 2018-10-04 Drvision Technologies Llc Efficient machine learning method
CN111309912A (zh) * 2020-02-24 2020-06-19 深圳市华云中盛科技股份有限公司 文本分类方法、装置、计算机设备及存储介质
CN111737465A (zh) * 2020-06-15 2020-10-02 上海理想信息产业(集团)有限公司 一种多层级多类别的中文文本分类的实现方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180285771A1 (en) * 2017-03-31 2018-10-04 Drvision Technologies Llc Efficient machine learning method
CN111309912A (zh) * 2020-02-24 2020-06-19 深圳市华云中盛科技股份有限公司 文本分类方法、装置、计算机设备及存储介质
CN111737465A (zh) * 2020-06-15 2020-10-02 上海理想信息产业(集团)有限公司 一种多层级多类别的中文文本分类的实现方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李洋 等: "基于CNN和BiLSTM网络特征融合的文本情感分析", 《计算机应用》 *
葛文镇 等: "基于层级类别信息的标题自动分类研究", 《计算机应用研究》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022134968A1 (zh) * 2020-12-24 2022-06-30 北京有竹居网络技术有限公司 模型的训练方法、语音识别方法、装置、介质及设备
CN113553433A (zh) * 2021-09-17 2021-10-26 平安科技(深圳)有限公司 基于人工智能的产品分类方法、装置、介质及终端设备
CN113836329B (zh) * 2021-09-29 2024-02-02 腾讯科技(深圳)有限公司 多媒体内容分类方法、装置、电子设备和存储介质
CN113836329A (zh) * 2021-09-29 2021-12-24 腾讯科技(深圳)有限公司 多媒体内容分类方法、装置、电子设备和存储介质
CN114065741A (zh) * 2021-11-16 2022-02-18 北京有竹居网络技术有限公司 用于验证表述的真实性的方法、设备、装置和介质
CN114065741B (zh) * 2021-11-16 2023-08-11 北京有竹居网络技术有限公司 用于验证表述的真实性的方法、设备、装置和介质
CN114091446A (zh) * 2021-11-24 2022-02-25 北京有竹居网络技术有限公司 生成文本的方法和装置
CN115374859A (zh) * 2022-08-24 2022-11-22 东北大学 一种针对非平衡、多类别的复杂工业数据的分类方法
CN116503872A (zh) * 2023-06-26 2023-07-28 四川集鲜数智供应链科技有限公司 一种基于机器学习的授信客户挖掘方法
CN116503872B (zh) * 2023-06-26 2023-09-05 四川集鲜数智供应链科技有限公司 一种基于机器学习的授信客户挖掘方法
CN116975400A (zh) * 2023-08-03 2023-10-31 星环信息科技(上海)股份有限公司 一种数据分级分类方法、装置、电子设备及存储介质
CN116975400B (zh) * 2023-08-03 2024-05-24 星环信息科技(上海)股份有限公司 一种数据分类分级方法、装置、电子设备及存储介质
CN117313562A (zh) * 2023-11-30 2023-12-29 西华大学 适用于机载防撞系统的逻辑表压缩方法
CN117313562B (zh) * 2023-11-30 2024-02-27 西华大学 适用于机载防撞系统的逻辑表压缩方法

Also Published As

Publication number Publication date
CN112069321B (zh) 2021-02-12

Similar Documents

Publication Publication Date Title
CN112069321B (zh) 用于文本层级分类的方法、电子设备和存储介质
CA3129721C (en) Pre-trained contextual embedding models for named entity recognition and confidence prediction
US9495345B2 (en) Methods and systems for modeling complex taxonomies with natural language understanding
CN111309912B (zh) 文本分类方法、装置、计算机设备及存储介质
CN109872162B (zh) 一种处理用户投诉信息的风控分类识别方法及系统
RU2723293C1 (ru) Идентификация полей и таблиц в документах с помощью нейронных сетей с использованием глобального контекста документа
CN109471942B (zh) 基于证据推理规则的中文评论情感分类方法及装置
CN110968695A (zh) 基于弱监督技术主动学习的智能标注方法、装置及平台
CN109684627A (zh) 一种文本分类方法及装置
CN108664512B (zh) 文本对象分类方法及装置
CA3048356A1 (en) Unstructured data parsing for structured information
WO2021169423A1 (zh) 客服录音的质检方法、装置、设备及存储介质
US11222179B2 (en) Named entity recognition and extraction using genetic programming
WO2021208727A1 (zh) 基于人工智能的文本错误检测方法、装置、计算机设备
CN110580308A (zh) 信息审核方法及装置、电子设备、存储介质
CN110162771A (zh) 事件触发词的识别方法、装置、电子设备
CN109960727A (zh) 针对非结构化文本的个人隐私信息自动检测方法及系统
US11669687B1 (en) Systems and methods for natural language processing (NLP) model robustness determination
CN113924582A (zh) 机器学习处理流水线优化
CN111753082A (zh) 基于评论数据的文本分类方法及装置、设备和介质
CN115809887B (zh) 一种基于发票数据确定企业主要经营范围的方法和装置
CN114357170A (zh) 模型训练方法、分析方法、装置、设备及介质
WO2021042529A1 (zh) 文章摘要自动生成方法、装置及计算机可读存储介质
CN110019807B (zh) 一种商品分类方法及装置
CN113515625A (zh) 测试结果分类模型训练方法、分类方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant