CN113268597B - 文本分类方法、装置、设备及存储介质 - Google Patents

文本分类方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113268597B
CN113268597B CN202110569162.7A CN202110569162A CN113268597B CN 113268597 B CN113268597 B CN 113268597B CN 202110569162 A CN202110569162 A CN 202110569162A CN 113268597 B CN113268597 B CN 113268597B
Authority
CN
China
Prior art keywords
vector
text
classified
preset
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110569162.7A
Other languages
English (en)
Other versions
CN113268597A (zh
Inventor
杨海钦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202110569162.7A priority Critical patent/CN113268597B/zh
Publication of CN113268597A publication Critical patent/CN113268597A/zh
Application granted granted Critical
Publication of CN113268597B publication Critical patent/CN113268597B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及人工智能,提供一种文本分类方法、装置、设备及存储介质。该方法能够获取待分类文本,计算预设库中初始文本与待分类文本的相似度,从预设库中选取目标文本,对待分类文本进行向量化处理,得到待分类向量,获取目标文本的目标向量,根据待分类向量生成第一输出向量,根据待分类向量及目标向量生成第二输出向量,从预设库中获取终端输出向量,根据待分类向量、终端输出向量、第一输出向量及第二输出向量生成语义向量,将语义向量输入至预设网络中,得到网络输出向量,对网络输出向量进行映射处理,得到分类结果。本发明能够快速并准确分析出待分类文本所属的类别。此外,本发明还涉及区块链技术,所述分类结果可存储于区块链中。

Description

文本分类方法、装置、设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种文本分类方法、装置、设备及存储介质。
背景技术
目前,通过预训练语言模型能够准确地分析出文本信息所属的类别,然而,由于此类模型的模型巨大,为此,导致分类效率低下。为了提高分类效率,通常采用知识蒸馏的方法对此类模型进行压缩,然而,这种方式训练出的子模型会丢弃原本母模型的信息,从而导致分类准确率低下。
为此,如何在确保分类效率的前提下,准确的分析出文本所属的类别成了亟需解决的问题。
发明内容
鉴于以上内容,有必要提供一种文本分类方法、装置、设备及存储介质,能够在确保分类效率的前提下,准确的分析出文本所属的类别。
一方面,本发明提出一种文本分类方法,所述文本分类方法包括:
当接收到分类请求时,根据所述分类请求获取待分类文本;
计算预设库中每个初始文本与所述待分类文本的相似度,并根据所述相似度从所述预设库中选取目标文本;
对所述待分类文本进行向量化处理,得到待分类向量,并从所述预设库中获取与所述目标文本对应的初始输入向量作为目标向量,所述目标向量的维度大于所述待分类向量的维度;
根据所述待分类向量生成所述待分类文本的第一输出向量,并根据所述待分类向量及所述目标向量生成所述待分类文本的第二输出向量;
从所述预设库中获取与所述目标文本对应的输出向量作为终端输出向量,并根据所述待分类向量、所述终端输出向量、所述第一输出向量及所述第二输出向量生成所述待分类文本的语义向量;
将所述语义向量输入至预设网络中,得到网络输出向量;
对所述网络输出向量进行映射处理,得到分类结果。
根据本发明优选实施例,所述计算预设库中每个初始文本与所述待分类文本的相似度包括:
计算所述待分类文本中每个字在所述预设库中的词频,并计算所述待分类文本中每个字在所述预设库中的逆向文件频率;
将所述词频乘以所述逆向文件频率,得到所述待分类文本中每个字的向量值;
确定每个字在所述待分类文本中的位置,并根据所述位置拼接所述向量值,得到所述待分类文本的第一文本向量;
从所述预设库中获取每个初始文本的第二文本向量;
根据余弦公式计算所述第一文本向量与所述第二文本向量的距离,得到所述相似度。
根据本发明优选实施例,所述根据所述待分类向量及所述目标向量生成所述待分类文本的第二输出向量包括:
获取第一预设矩阵,并从所述预设库中获取第一初始矩阵;
将所述第一预设矩阵乘以所述待分类向量,得到第一待拼接向量;
将所述第一初始矩阵乘以所述目标向量,得到第二待拼接向量;
对所述第一待拼接向量及所述第二待拼接向量进行拼接,得到所述第二输出向量。
根据本发明优选实施例,所述根据所述待分类向量、所述终端输出向量、所述第一输出向量及所述第二输出向量生成所述待分类文本的语义向量包括:
对所述第二输出向量进行转置处理,得到转置结果,并计算所述第二输出向量的向量维度;
将所述第一输出向量乘以所述转置结果,并将计算后得到的结果除以所述向量维度的平方根,得到所述第一输出向量与所述第二输出向量的注意力分数;
对所述注意力分数进行归一化处理,得到注意力概率;
获取第二预设矩阵,并从所述预设库中获取第二初始矩阵;
将所述第二预设矩阵乘以所述待分类向量,得到第三待拼接向量;
将所述第二初始矩阵乘以所述终端输出向量,得到第四待拼接向量;
对所述第三待拼接向量及所述第四待拼接向量进行拼接,得到第三输出向量;
计算所述注意力概率与预设值的差值,并将所述差值乘以所述第三输出向量,得到所述语义向量。
根据本发明优选实施例,在将所述语义向量输入至预设网络中,得到网络输出向量之前,所述方法还包括:
获取训练样本;
构建损失函数;
根据所述训练样本及所述损失函数对初始的Transformer网络进行压缩训练;
监测所述损失函数的取值;
当所述损失函数不再降低时,停止训练,并将当前的Transformer网络确定为所述预设网络。
根据本发明优选实施例,采用下列公式构建损失函数:
Figure BDA0003081982210000031
Figure BDA0003081982210000032
Figure BDA0003081982210000041
Figure BDA0003081982210000042
Figure BDA0003081982210000043
其中,L为所述损失函数,LS为所述Transformer网络的最大网络层数,γl为第l层上的调节权值,Sl为所述预设网络中第l层上的输出向量,Tm(l)为所述初始的Transformer网络在第m(l)层上的输出向量,
Figure BDA0003081982210000044
为所述预设网络中第l层上的输入向量,Wl为所述预设网络中第l层上的配置矩阵,Wl
Figure BDA0003081982210000045
hm(l)为所述初始的Transformer网络在第m(l)层上的输入向量,H为所述预设网络的最大网络层数,/>
Figure BDA0003081982210000046
为所述预设网络在第h层上的注意力向量,Atth为所述Transformer网络在第h层上的注意力向量,o为所述初始的Transformer网络中的全连接网络输出的logits值,oS为所述预设网络中的全连接网络输出的logits值,t为常数值,通常为1,所述初始的Transformer网络中的第m(l)层与所述预设网络中的第l层对应。
根据本发明优选实施例,所述对所述网络输出向量进行映射处理,得到分类结果包括:
将所述网络输出向量乘以预设权重矩阵,并加上预设偏置值,得到分数向量;
对所述分数向量进行归一化处理,得到概率向量;
将所述概率向量中概率最大的维度确定为目标维度,并将所述目标维度在配置列表中对应的类别确定为所述分类结果。
另一方面,本发明还提出一种文本分类装置,所述文本分类装置包括:
获取单元,用于当接收到分类请求时,根据所述分类请求获取待分类文本;
选取单元,用于计算预设库中每个初始文本与所述待分类文本的相似度,并根据所述相似度从所述预设库中选取目标文本;
所述获取单元,还用于对所述待分类文本进行向量化处理,得到待分类向量,并从所述预设库中获取与所述目标文本对应的初始输入向量作为目标向量,所述目标向量的维度大于所述待分类向量的维度;
生成单元,用于根据所述待分类向量生成所述待分类文本的第一输出向量,并根据所述待分类向量及所述目标向量生成所述待分类文本的第二输出向量;
所述生成单元,还用于从所述预设库中获取与所述目标文本对应的输出向量作为终端输出向量,并根据所述待分类向量、所述终端输出向量、所述第一输出向量及所述第二输出向量生成所述待分类文本的语义向量;
输入单元,用于将所述语义向量输入至预设网络中,得到网络输出向量;
映射单元,用于对所述网络输出向量进行映射处理,得到分类结果。
另一方面,本发明还提出一种电子设备,所述电子设备包括:
存储器,存储计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现所述文本分类方法。
另一方面,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现所述文本分类方法。
由以上技术方案可以看出,本发明通过所述相似度能够快速从所述预设库中选取出与所述待分类文本相似的目标文本,进而通过所述待分类向量、所述目标向量及所述终端输出向量生成所述语义向量,由于所述预设库中存储有所述目标文本的初始输入向量及所述输出向量,以及,所述待分类向量的维度小于所述目标向量的维度,因此,能够双重提高所述语义向量的生成效率,同时,由于所述语义向量中包含有所述目标文本的语义信息,因此,能够提高所述语义向量的生成准确率,从而在确保所述待分类文本的分类效率的前提下,能够准确分析出所述待分类文本所属的类别。
附图说明
图1是本发明文本分类方法的较佳实施例的流程图。
图2是本发明文本分类装置的较佳实施例的功能模块图。
图3是本发明实现文本分类方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明文本分类方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述文本分类方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的计算机可读指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字信号处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能穿戴式设备等。
所述电子设备可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络电子设备、多个网络电子设备组成的电子设备组或基于云计算(CloudComputing)的由大量主机或网络电子设备构成的云。
所述电子设备所处的网络包括,但不限于:互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,当接收到分类请求时,根据所述分类请求获取待分类文本。
在本发明的至少一个实施例中,所述分类请求可以由任意用户触发生成,所述分类请求携带的信息有所述存储路径、所述文本编号等。
所述待分类文本是指需要进行分类的文本。
在本发明的至少一个实施例中,所述电子设备根据所述分类请求获取待分类文本包括:
解析所述分类请求的方法体,得到所述方法体携带的数据信息;
从所述数据信息中提取指示路径的信息作为存储路径,并从所述数据信息中提取指示文本的信息作为文本编号;
将所述存储路径及所述文本编号写入预设模板中,得到查询语句;
运行所述查询语句,得到所述待分类文本。
其中,所述分类请求可以是一段代码,所述方法体是指代码中{}中包含的信息。
所述数据信息包括,但不限于:指示路径的标签、所述存储路径、指示文本的标签、所述文本编号等。
所述预设模板可以是预先设置好的结构化查询语句。
通过解析所述方法体能够快速获取到所述数据信息,通过从所述数据信息中提取出所述存储路径及所述文本编号,能够快速生成所述查询语句,从而通过所述查询语句能够快速从所述存储路径中获取到所述待分类文本。
S11,计算预设库中每个初始文本与所述待分类文本的相似度,并根据所述相似度从所述预设库中选取目标文本。
在本发明的至少一个实施例中,所述预设库中存储有多个有标注结果的初始文本、所述初始文本的文本向量、所述初始文本的输出向量等。
所述目标文本是指与所述待分类文本的相似度最大的初始文本。
在本发明的至少一个实施例中,所述电子设备计算预设库中每个初始文本与所述待分类文本的相似度包括:
计算所述待分类文本中每个字在所述预设库中的词频,并计算所述待分类文本中每个字在所述预设库中的逆向文件频率;
将所述词频乘以所述逆向文件频率,得到所述待分类文本中每个字的向量值;
确定每个字在所述待分类文本中的位置,并根据所述位置拼接所述向量值,得到所述待分类文本的第一文本向量;
从所述预设库中获取每个初始文本的第二文本向量;
根据余弦公式计算所述第一文本向量与所述第二文本向量的距离,得到所述相似度。
通过上述实施方式,能够准确生成表征所述待分类文本的所述第一文本向量,进而通过所述第一文本向量及所述第二文本向量能够快速生成所述相似度。
在本发明的至少一个实施例中,所述电子设备根据所述相似度从所述预设库中选取目标文本包括:
从所述预设库中选取所述相似度最大的所述初始文本作为所述目标文本。
通过所述相似度能够快速从所述预设库中确定出所述目标文本。
S12,对所述待分类文本进行向量化处理,得到待分类向量,并从所述预设库中获取与所述目标文本对应的初始输入向量作为目标向量,所述目标向量的维度大于所述待分类向量的维度。
在本发明的至少一个实施例中,所述待分类向量是指通过预设向量映射表获取到的。
所述目标向量预先存储在所述预设库中。
在本发明的至少一个实施例中,所述电子设备对所述待分类文本进行向量化处理,得到待分类向量包括:
从所述预设向量映射表中获取所述待分类文本中每个字的映射向量;
根据每个字在所述待分类文本中的位置拼接所述映射向量,得到所述待分类向量。
通过所述位置能够准确生成表征所述待分类文本的所述待分类向量。
在本发明的至少一个实施例中,所述电子设备从所述预设库中获取与所述目标文本对应的初始输入向量作为目标向量包括:
从所述预设库中获取同时与所述文本编号及所述初始输入向量对应的信息作为所述目标向量。
通过所述文本编号及所述初始输入向量能够准确获取到所述目标向量。
S13,根据所述待分类向量生成所述待分类文本的第一输出向量,并根据所述待分类向量及所述目标向量生成所述待分类文本的第二输出向量。
在本发明的至少一个实施例中,所述第一输出向量及所述第二输出向量分别为所述待分类文本的两种不同表征方式。
在本发明的至少一个实施例中,所述电子设备根据所述待分类向量生成所述待分类文本的第一输出向量包括:
获取第三预设矩阵;
将所述第三预设矩阵乘以所述待分类向量,得到所述第一输出向量。
在本发明的至少一个实施例中,所述电子设备根据所述待分类向量及所述目标向量生成所述待分类文本的第二输出向量包括:
获取第一预设矩阵,并从所述预设库中获取第一初始矩阵;
将所述第一预设矩阵乘以所述待分类向量,得到第一待拼接向量;
将所述第一初始矩阵乘以所述目标向量,得到第二待拼接向量;
对所述第一待拼接向量及所述第二待拼接向量进行拼接,得到所述第二输出向量。
通过所述第第一预设矩阵能够生成所述待分类文本的表征形式,通过所述第一初始矩阵能够生成所述目标文本的表征形式,进而通过所述待分类文本的表征形式以及所述目标文本的表征形式生成所述第二输出向量,由于所述目标文本与所述待分类文本相似,因此使生成的所述第二输出向量中具有母模型及子模型的信息,从而提高分类准确率。
S14,从所述预设库中获取与所述目标文本对应的输出向量作为终端输出向量,并根据所述待分类向量、所述终端输出向量、所述第一输出向量及所述第二输出向量生成所述待分类文本的语义向量。
在本发明的至少一个实施例中,所述终端输出向量是指所述目标文本在母模型上最后一层的输出向量。
所述语义向量用于表征所述待分类文本的语义。
在本发明的至少一个实施例中,所述电子设备根据所述待分类向量、所述终端输出向量、所述第一输出向量及所述第二输出向量生成所述待分类文本的语义向量包括:
对所述第二输出向量进行转置处理,得到转置结果,并计算所述第二输出向量的向量维度;
将所述第一输出向量乘以所述转置结果,并将计算后得到的结果除以所述向量维度的平方根,得到所述第一输出向量与所述第二输出向量的注意力分数;
对所述注意力分数进行归一化处理,得到注意力概率;
获取第二预设矩阵,并从所述预设库中获取第二初始矩阵;
将所述第二预设矩阵乘以所述待分类向量,得到第三待拼接向量;
将所述第二初始矩阵乘以所述终端输出向量,得到第四待拼接向量;
对所述第三待拼接向量及所述第四待拼接向量进行拼接,得到第三输出向量;
计算所述注意力概率与预设值的差值,并将所述差值乘以所述第三输出向量,得到所述语义向量。
通过上述实施方式,由于所述第二输出向量及所述第三输出向量中具有母模型的模型信息,因此能够通过所述语义向量的生成准确率,此外,通过计算所述注意力概率与所述预设值的差值,能够过滤掉所述待分类文本中的不重要词汇,从而使生成的所述语义向量能够更好的表征出所述待分类文本的语义信息。
S15,将所述语义向量输入至预设网络中,得到网络输出向量。
在本发明的至少一个实施例中,所述预设网络是指通过对母模型进行压缩后得到的网络。
在本发明的至少一个实施例中,在将所述语义向量输入至预设网络中,得到网络输出向量之前,所述方法还包括:
获取训练样本;
构建损失函数;
根据所述训练样本及所述损失函数对初始的Transformer网络进行压缩训练;
监测所述损失函数的取值;
当所述损失函数不再降低时,停止训练,并将当前的Transformer网络确定为所述预设网络。
其中,所述训练样本包括已分类文本及所述已分类文本的标注类别,所述标注类别可以是标注专家对所述已分类文件进行分析后得到的类别。
所述初始的Transformer网络是所述预设网络的母模型。
具体地,所述电子设备采用下列公式构建损失函数:
Figure BDA0003081982210000111
Figure BDA0003081982210000112
Figure BDA0003081982210000113
Figure BDA0003081982210000114
Figure BDA0003081982210000115
其中,L为所述损失函数,LS为所述Transformer网络的最大网络层数,γl为第l层上的调节权值,Sl为所述预设网络中第l层上的输出向量,Tm(l)为所述初始的Transformer网络在第m(l)层上的输出向量,
Figure BDA0003081982210000116
为所述预设网络中第l层上的输入向量,Wl为所述预设网络中第l层上的配置矩阵,/>
Figure BDA0003081982210000121
Figure BDA0003081982210000122
hm(l)为所述初始的Transformer网络在第m(l)层上的输入向量,H为所述预设网络的最大网络层数,/>
Figure BDA0003081982210000123
为所述预设网络在第h层上的注意力向量,Atth为所述Transformer网络在第h层上的注意力向量,o为所述初始的Transformer网络中的全连接网络输出的logits值,oS为所述预设网络中的全连接网络输出的logits值,t为常数值,通常为1,所述初始的Transformer网络中的第m(l)层与所述预设网络中的第l层对应。
通过所述损失函数能够准确地训练出所述预设网络。
S16,对所述网络输出向量进行映射处理,得到分类结果。
需要强调的是,为进一步保证上述分类结果的私密和安全性,上述分类结果还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述分类结果是指所述待分类文本所属的类别。
在本发明的至少一个实施例中,所述电子设备对所述网络输出向量进行映射处理,得到分类结果包括:
将所述网络输出向量乘以预设权重矩阵,并加上预设偏置值,得到分数向量;
对所述分数向量进行归一化处理,得到概率向量;
将所述概率向量中概率最大的维度确定为目标维度,并将所述目标维度在配置列表中对应的类别确定为所述分类结果。
其中,所述配置列表中存储有维度位置与类别的映射关系。
通过所述预设权重矩阵及归一化处理,能够快速生成所述概率向量,进而通过所述概率向量及所述配置列表能够准确确定出所述分类结果。
在本发明的至少一个实施例中,在得到分类结果后,所述方法还包括:
获取所述分类请求的请求编号;
根据所述请求编号、所述文本编号及所述分类结果生成提示信息;
采用对称加密技术加密所述提示信息,得到密文;
确定所述分类请求的触发用户;
将所述密文发送至所述触发用户的终端设备。
通过上述实施方式,能够在得到所述分类结果后及时将所述提示信息发送至所述触发用户,通过对所述提示信息进行加密,能够提高所述提示信息的安全性。
由以上技术方案可以看出,本发明通过所述相似度能够快速从所述预设库中选取出与所述待分类文本相似的目标文本,进而通过所述待分类向量、所述目标向量及所述终端输出向量生成所述语义向量,由于所述预设库中存储有所述目标文本的初始输入向量及所述输出向量,以及,所述待分类向量的维度小于所述目标向量的维度,因此,能够双重提高所述语义向量的生成效率,同时,由于所述语义向量中包含有所述目标文本的语义信息,因此,能够提高所述语义向量的生成准确率,从而在确保所述待分类文本的分类效率的前提下,能够准确分析出所述待分类文本所属的类别。
如图2所示,是本发明文本分类装置的较佳实施例的功能模块图。所述文本分类装置11包括获取单元110、选取单元111、生成单元112、输入单元113、映射单元114、构建单元115、训练单元116、监测单元117、确定单元118、加密单元119及发送单元120。本发明所称的模块/单元是指一种能够被处理器13所获取,并且能够完成固定功能的一系列计算机可读指令段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
当接收到分类请求时,获取单元110根据所述分类请求获取待分类文本。
在本发明的至少一个实施例中,所述分类请求可以由任意用户触发生成,所述分类请求携带的信息有所述存储路径、所述文本编号等。
所述待分类文本是指需要进行分类的文本。
在本发明的至少一个实施例中,所述获取单元110根据所述分类请求获取待分类文本包括:
解析所述分类请求的方法体,得到所述方法体携带的数据信息;
从所述数据信息中提取指示路径的信息作为存储路径,并从所述数据信息中提取指示文本的信息作为文本编号;
将所述存储路径及所述文本编号写入预设模板中,得到查询语句;
运行所述查询语句,得到所述待分类文本。
其中,所述分类请求可以是一段代码,所述方法体是指代码中{}中包含的信息。
所述数据信息包括,但不限于:指示路径的标签、所述存储路径、指示文本的标签、所述文本编号等。
所述预设模板可以是预先设置好的结构化查询语句。
通过解析所述方法体能够快速获取到所述数据信息,通过从所述数据信息中提取出所述存储路径及所述文本编号,能够快速生成所述查询语句,从而通过所述查询语句能够快速从所述存储路径中获取到所述待分类文本。
选取单元111计算预设库中每个初始文本与所述待分类文本的相似度,并根据所述相似度从所述预设库中选取目标文本。
在本发明的至少一个实施例中,所述预设库中存储有多个有标注结果的初始文本、所述初始文本的文本向量、所述初始文本的输出向量等。
所述目标文本是指与所述待分类文本的相似度最大的初始文本。
在本发明的至少一个实施例中,所述选取单元111计算预设库中每个初始文本与所述待分类文本的相似度包括:
计算所述待分类文本中每个字在所述预设库中的词频,并计算所述待分类文本中每个字在所述预设库中的逆向文件频率;
将所述词频乘以所述逆向文件频率,得到所述待分类文本中每个字的向量值;
确定每个字在所述待分类文本中的位置,并根据所述位置拼接所述向量值,得到所述待分类文本的第一文本向量;
从所述预设库中获取每个初始文本的第二文本向量;
根据余弦公式计算所述第一文本向量与所述第二文本向量的距离,得到所述相似度。
通过上述实施方式,能够准确生成表征所述待分类文本的所述第一文本向量,进而通过所述第一文本向量及所述第二文本向量能够快速生成所述相似度。
在本发明的至少一个实施例中,所述选取单元111根据所述相似度从所述预设库中选取目标文本包括:
从所述预设库中选取所述相似度最大的所述初始文本作为所述目标文本。
通过所述相似度能够快速从所述预设库中确定出所述目标文本。
所述获取单元110对所述待分类文本进行向量化处理,得到待分类向量,并从所述预设库中获取与所述目标文本对应的初始输入向量作为目标向量,所述目标向量的维度大于所述待分类向量的维度。
在本发明的至少一个实施例中,所述待分类向量是指通过预设向量映射表获取到的。
所述目标向量预先存储在所述预设库中。
在本发明的至少一个实施例中,所述获取单元110对所述待分类文本进行向量化处理,得到待分类向量包括:
从所述预设向量映射表中获取所述待分类文本中每个字的映射向量;
根据每个字在所述待分类文本中的位置拼接所述映射向量,得到所述待分类向量。
通过所述位置能够准确生成表征所述待分类文本的所述待分类向量。
在本发明的至少一个实施例中,所述获取单元110从所述预设库中获取与所述目标文本对应的初始输入向量作为目标向量包括:
从所述预设库中获取同时与所述文本编号及所述初始输入向量对应的信息作为所述目标向量。
通过所述文本编号及所述初始输入向量能够准确获取到所述目标向量。
生成单元112根据所述待分类向量生成所述待分类文本的第一输出向量,并根据所述待分类向量及所述目标向量生成所述待分类文本的第二输出向量。
在本发明的至少一个实施例中,所述第一输出向量及所述第二输出向量分别为所述待分类文本的两种不同表征方式。
在本发明的至少一个实施例中,所述生成单元112根据所述待分类向量生成所述待分类文本的第一输出向量包括:
获取第三预设矩阵;
将所述第三预设矩阵乘以所述待分类向量,得到所述第一输出向量。
在本发明的至少一个实施例中,所述生成单元112根据所述待分类向量及所述目标向量生成所述待分类文本的第二输出向量包括:
获取第一预设矩阵,并从所述预设库中获取第一初始矩阵;
将所述第一预设矩阵乘以所述待分类向量,得到第一待拼接向量;
将所述第一初始矩阵乘以所述目标向量,得到第二待拼接向量;
对所述第一待拼接向量及所述第二待拼接向量进行拼接,得到所述第二输出向量。
通过所述第第一预设矩阵能够生成所述待分类文本的表征形式,通过所述第一初始矩阵能够生成所述目标文本的表征形式,进而通过所述待分类文本的表征形式以及所述目标文本的表征形式生成所述第二输出向量,由于所述目标文本与所述待分类文本相似,因此使生成的所述第二输出向量中具有母模型及子模型的信息,从而提高分类准确率。
所述生成单元112从所述预设库中获取与所述目标文本对应的输出向量作为终端输出向量,并根据所述待分类向量、所述终端输出向量、所述第一输出向量及所述第二输出向量生成所述待分类文本的语义向量。
在本发明的至少一个实施例中,所述终端输出向量是指所述目标文本在母模型上最后一层的输出向量。
所述语义向量用于表征所述待分类文本的语义。
在本发明的至少一个实施例中,所述生成单元112根据所述待分类向量、所述终端输出向量、所述第一输出向量及所述第二输出向量生成所述待分类文本的语义向量包括:
对所述第二输出向量进行转置处理,得到转置结果,并计算所述第二输出向量的向量维度;
将所述第一输出向量乘以所述转置结果,并将计算后得到的结果除以所述向量维度的平方根,得到所述第一输出向量与所述第二输出向量的注意力分数;
对所述注意力分数进行归一化处理,得到注意力概率;
获取第二预设矩阵,并从所述预设库中获取第二初始矩阵;
将所述第二预设矩阵乘以所述待分类向量,得到第三待拼接向量;
将所述第二初始矩阵乘以所述终端输出向量,得到第四待拼接向量;
对所述第三待拼接向量及所述第四待拼接向量进行拼接,得到第三输出向量;
计算所述注意力概率与预设值的差值,并将所述差值乘以所述第三输出向量,得到所述语义向量。
通过上述实施方式,由于所述第二输出向量及所述第三输出向量中具有母模型的模型信息,因此能够通过所述语义向量的生成准确率,此外,通过计算所述注意力概率与所述预设值的差值,能够过滤掉所述待分类文本中的不重要词汇,从而使生成的所述语义向量能够更好的表征出所述待分类文本的语义信息。
输入单元113将所述语义向量输入至预设网络中,得到网络输出向量。
在本发明的至少一个实施例中,所述预设网络是指通过对母模型进行压缩后得到的网络。
在本发明的至少一个实施例中,在将所述语义向量输入至预设网络中,得到网络输出向量之前,所述获取单元110获取训练样本;
构建单元115构建损失函数;
训练单元116根据所述训练样本及所述损失函数对初始的Transformer网络进行压缩训练;
监测单元117监测所述损失函数的取值;
当所述损失函数不再降低时,确定单元118停止训练,并将当前的Transformer网络确定为所述预设网络。
其中,所述训练样本包括已分类文本及所述已分类文本的标注类别,所述标注类别可以是标注专家对所述已分类文件进行分析后得到的类别。
所述初始的Transformer网络是所述预设网络的母模型。
具体地,所述构建单元115采用下列公式构建损失函数:
Figure BDA0003081982210000181
Figure BDA0003081982210000182
Figure BDA0003081982210000183
Figure BDA0003081982210000184
Figure BDA0003081982210000185
其中,L为所述损失函数,LS为所述Transformer网络的最大网络层数,γl为第l层上的调节权值,Sl为所述预设网络中第l层上的输出向量,Tm(l)为所述初始的Transformer网络在第m(l)层上的输出向量,
Figure BDA0003081982210000186
为所述预设网络中第l层上的输入向量,Wl为所述预设网络中第l层上的配置矩阵,/>
Figure BDA0003081982210000187
Figure BDA0003081982210000188
hm(l)为所述初始的Transformer网络在第m(l)层上的输入向量,H为所述预设网络的最大网络层数,/>
Figure BDA0003081982210000189
为所述预设网络在第h层上的注意力向量,Atth为所述Transformer网络在第h层上的注意力向量,o为所述初始的Transformer网络中的全连接网络输出的logits值,oS为所述预设网络中的全连接网络输出的logits值,t为常数值,通常为1,所述初始的Transformer网络中的第m(l)层与所述预设网络中的第l层对应。
通过所述损失函数能够准确地训练出所述预设网络。
映射单元114对所述网络输出向量进行映射处理,得到分类结果。
需要强调的是,为进一步保证上述分类结果的私密和安全性,上述分类结果还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述分类结果是指所述待分类文本所属的类别。
在本发明的至少一个实施例中,所述映射单元114对所述网络输出向量进行映射处理,得到分类结果包括:
将所述网络输出向量乘以预设权重矩阵,并加上预设偏置值,得到分数向量;
对所述分数向量进行归一化处理,得到概率向量;
将所述概率向量中概率最大的维度确定为目标维度,并将所述目标维度在配置列表中对应的类别确定为所述分类结果。
其中,所述配置列表中存储有维度位置与类别的映射关系。
通过所述预设权重矩阵及归一化处理,能够快速生成所述概率向量,进而通过所述概率向量及所述配置列表能够准确确定出所述分类结果。
在本发明的至少一个实施例中,在得到分类结果后,所述获取单元110获取所述分类请求的请求编号;
所述生成单元112根据所述请求编号、所述文本编号及所述分类结果生成提示信息;
加密单元119采用对称加密技术加密所述提示信息,得到密文;
所述确定单元118确定所述分类请求的触发用户;
发送单元120将所述密文发送至所述触发用户的终端设备。
通过上述实施方式,能够在得到所述分类结果后及时将所述提示信息发送至所述触发用户,通过对所述提示信息进行加密,能够提高所述提示信息的安全性。
由以上技术方案可以看出,本发明通过所述相似度能够快速从所述预设库中选取出与所述待分类文本相似的目标文本,进而通过所述待分类向量、所述目标向量及所述终端输出向量生成所述语义向量,由于所述预设库中存储有所述目标文本的初始输入向量及所述输出向量,以及,所述待分类向量的维度小于所述目标向量的维度,因此,能够双重提高所述语义向量的生成效率,同时,由于所述语义向量中包含有所述目标文本的语义信息,因此,能够提高所述语义向量的生成准确率,从而在确保所述待分类文本的分类效率的前提下,能够准确分析出所述待分类文本所属的类别。
如图3所示,是本发明实现文本分类方法的较佳实施例的电子设备的结构示意图。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机可读指令,例如文本分类程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
示例性的,所述计算机可读指令可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该计算机可读指令段用于描述所述计算机可读指令在所述电子设备1中的执行过程。例如,所述计算机可读指令可以被分割成获取单元110、选取单元111、生成单元112、输入单元113、映射单元114、构建单元115、训练单元116、监测单元117、确定单元118、加密单元119及发送单元120。
所述存储器12可用于存储所述计算机可读指令和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机可读指令和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。存储器12可以包括非易失性和易失性存储器,例如:硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机可读指令包括计算机可读指令代码,所述计算机可读指令代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机可读指令代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
结合图1,所述电子设备1中的所述存储器12存储计算机可读指令实现一种文本分类方法,所述处理器13可执行所述计算机可读指令从而实现:
当接收到分类请求时,根据所述分类请求获取待分类文本;
计算预设库中每个初始文本与所述待分类文本的相似度,并根据所述相似度从所述预设库中选取目标文本;
对所述待分类文本进行向量化处理,得到待分类向量,并从所述预设库中获取与所述目标文本对应的初始输入向量作为目标向量,所述目标向量的维度大于所述待分类向量的维度;
根据所述待分类向量生成所述待分类文本的第一输出向量,并根据所述待分类向量及所述目标向量生成所述待分类文本的第二输出向量;
从所述预设库中获取与所述目标文本对应的输出向量作为终端输出向量,并根据所述待分类向量、所述终端输出向量、所述第一输出向量及所述第二输出向量生成所述待分类文本的语义向量;
将所述语义向量输入至预设网络中,得到网络输出向量;
对所述网络输出向量进行映射处理,得到分类结果。
具体地,所述处理器13对上述计算机可读指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述计算机可读存储介质上存储有计算机可读指令,其中,所述计算机可读指令被处理器13执行时用以实现以下步骤:
当接收到分类请求时,根据所述分类请求获取待分类文本;
计算预设库中每个初始文本与所述待分类文本的相似度,并根据所述相似度从所述预设库中选取目标文本;
对所述待分类文本进行向量化处理,得到待分类向量,并从所述预设库中获取与所述目标文本对应的初始输入向量作为目标向量,所述目标向量的维度大于所述待分类向量的维度;
根据所述待分类向量生成所述待分类文本的第一输出向量,并根据所述待分类向量及所述目标向量生成所述待分类文本的第二输出向量;
从所述预设库中获取与所述目标文本对应的输出向量作为终端输出向量,并根据所述待分类向量、所述终端输出向量、所述第一输出向量及所述第二输出向量生成所述待分类文本的语义向量;
将所述语义向量输入至预设网络中,得到网络输出向量;
对所述网络输出向量进行映射处理,得到分类结果。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。所述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (9)

1.一种文本分类方法,其特征在于,所述文本分类方法包括:
当接收到分类请求时,根据所述分类请求获取待分类文本;
计算预设库中每个初始文本与所述待分类文本的相似度,并根据所述相似度从所述预设库中选取目标文本;
对所述待分类文本进行向量化处理,得到待分类向量,并从所述预设库中获取与所述目标文本对应的初始输入向量作为目标向量,所述目标向量的维度大于所述待分类向量的维度;
根据所述待分类向量生成所述待分类文本的第一输出向量,并根据所述待分类向量及所述目标向量生成所述待分类文本的第二输出向量;
从所述预设库中获取与所述目标文本对应的输出向量作为终端输出向量,并根据所述待分类向量、所述终端输出向量、所述第一输出向量及所述第二输出向量生成所述待分类文本的语义向量,包括:对所述第二输出向量进行转置处理,得到转置结果,并计算所述第二输出向量的向量维度;将所述第一输出向量乘以所述转置结果,并将计算后得到的结果除以所述向量维度的平方根,得到所述第一输出向量与所述第二输出向量的注意力分数;对所述注意力分数进行归一化处理,得到注意力概率;获取第二预设矩阵,并从所述预设库中获取第二初始矩阵;将所述第二预设矩阵乘以所述待分类向量,得到第三待拼接向量;将所述第二初始矩阵乘以所述终端输出向量,得到第四待拼接向量;对所述第三待拼接向量及所述第四待拼接向量进行拼接,得到第三输出向量;计算所述注意力概率与预设值的差值,并将所述差值乘以所述第三输出向量,得到所述语义向量;
将所述语义向量输入至预设网络中,得到网络输出向量;
对所述网络输出向量进行映射处理,得到分类结果。
2.如权利要求1所述的文本分类方法,其特征在于,所述计算预设库中每个初始文本与所述待分类文本的相似度包括:
计算所述待分类文本中每个字在所述预设库中的词频,并计算所述待分类文本中每个字在所述预设库中的逆向文件频率;
将所述词频乘以所述逆向文件频率,得到所述待分类文本中每个字的向量值;
确定每个字在所述待分类文本中的位置,并根据所述位置拼接所述向量值,得到所述待分类文本的第一文本向量;
从所述预设库中获取每个初始文本的第二文本向量;
根据余弦公式计算所述第一文本向量与所述第二文本向量的距离,得到所述相似度。
3.如权利要求1所述的文本分类方法,其特征在于,所述根据所述待分类向量及所述目标向量生成所述待分类文本的第二输出向量包括:
获取第一预设矩阵,并从所述预设库中获取第一初始矩阵;
将所述第一预设矩阵乘以所述待分类向量,得到第一待拼接向量;
将所述第一初始矩阵乘以所述目标向量,得到第二待拼接向量;
对所述第一待拼接向量及所述第二待拼接向量进行拼接,得到所述第二输出向量。
4.如权利要求1所述的文本分类方法,其特征在于,在将所述语义向量输入至预设网络中,得到网络输出向量之前,所述方法还包括:
获取训练样本;
构建损失函数;
根据所述训练样本及所述损失函数对初始的Transformer网络进行压缩训练;
监测所述损失函数的取值;
当所述损失函数不再降低时,停止训练,并将当前的Transformer网络确定为所述预设网络。
5.如权利要求4所述的文本分类方法,其特征在于,采用下列公式构建损失函数:
Figure QLYQS_1
Figure QLYQS_2
Figure QLYQS_3
Figure QLYQS_4
Figure QLYQS_5
其中,L为所述损失函数,
Figure QLYQS_8
为所述Transformer网络的最大网络层数,/>
Figure QLYQS_10
为第/>
Figure QLYQS_12
层上的调节权值,/>
Figure QLYQS_14
为所述预设网络中第/>
Figure QLYQS_19
层上的输出向量,/>
Figure QLYQS_20
为所述初始的Transformer网络在第/>
Figure QLYQS_21
层上的输出向量,/>
Figure QLYQS_22
为所述预设网络中第/>
Figure QLYQS_23
层上的输入向量,/>
Figure QLYQS_24
为所述预设网络中第/>
Figure QLYQS_25
层上的配置矩阵,/>
Figure QLYQS_26
(/>
Figure QLYQS_27
),/>
Figure QLYQS_28
为所述初始的Transformer网络在第/>
Figure QLYQS_29
层上的输入向量,/>
Figure QLYQS_6
为所述预设网络的最大网络层数,/>
Figure QLYQS_7
为所述预设网络在第/>
Figure QLYQS_9
层上的注意力向量,/>
Figure QLYQS_11
为所述Transformer网络在第/>
Figure QLYQS_13
层上的注意力向量,/>
Figure QLYQS_15
为所述初始的Transformer网络中的全连接网络输出的logits值,/>
Figure QLYQS_16
为所述预设网络中的全连接网络输出的logits值,t为常数值,所述初始的Transformer网络中的第/>
Figure QLYQS_17
层与所述预设网络中的第/>
Figure QLYQS_18
层对应。
6.如权利要求1所述的文本分类方法,其特征在于,所述对所述网络输出向量进行映射处理,得到分类结果包括:
将所述网络输出向量乘以预设权重矩阵,并加上预设偏置值,得到分数向量;
对所述分数向量进行归一化处理,得到概率向量;
将所述概率向量中概率最大的维度确定为目标维度,并将所述目标维度在配置列表中对应的类别确定为所述分类结果。
7.一种文本分类装置,其特征在于,所述文本分类装置包括:
获取单元,用于当接收到分类请求时,根据所述分类请求获取待分类文本;
选取单元,用于计算预设库中每个初始文本与所述待分类文本的相似度,并根据所述相似度从所述预设库中选取目标文本;
所述获取单元,还用于对所述待分类文本进行向量化处理,得到待分类向量,并从所述预设库中获取与所述目标文本对应的初始输入向量作为目标向量,所述目标向量的维度大于所述待分类向量的维度;
生成单元,用于根据所述待分类向量生成所述待分类文本的第一输出向量,并根据所述待分类向量及所述目标向量生成所述待分类文本的第二输出向量;
所述生成单元,还用于从所述预设库中获取与所述目标文本对应的输出向量作为终端输出向量,并根据所述待分类向量、所述终端输出向量、所述第一输出向量及所述第二输出向量生成所述待分类文本的语义向量,包括:对所述第二输出向量进行转置处理,得到转置结果,并计算所述第二输出向量的向量维度;将所述第一输出向量乘以所述转置结果,并将计算后得到的结果除以所述向量维度的平方根,得到所述第一输出向量与所述第二输出向量的注意力分数;对所述注意力分数进行归一化处理,得到注意力概率;获取第二预设矩阵,并从所述预设库中获取第二初始矩阵;将所述第二预设矩阵乘以所述待分类向量,得到第三待拼接向量;将所述第二初始矩阵乘以所述终端输出向量,得到第四待拼接向量;对所述第三待拼接向量及所述第四待拼接向量进行拼接,得到第三输出向量;计算所述注意力概率与预设值的差值,并将所述差值乘以所述第三输出向量,得到所述语义向量;
输入单元,用于将所述语义向量输入至预设网络中,得到网络输出向量;
映射单元,用于对所述网络输出向量进行映射处理,得到分类结果。
8. 一种电子设备,其特征在于,所述电子设备包括:
存储器,存储有计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现如权利要求1至6中任意一项所述的文本分类方法。
9.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现如权利要求1至6中任意一项所述的文本分类方法。
CN202110569162.7A 2021-05-25 2021-05-25 文本分类方法、装置、设备及存储介质 Active CN113268597B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110569162.7A CN113268597B (zh) 2021-05-25 2021-05-25 文本分类方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110569162.7A CN113268597B (zh) 2021-05-25 2021-05-25 文本分类方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113268597A CN113268597A (zh) 2021-08-17
CN113268597B true CN113268597B (zh) 2023-06-27

Family

ID=77232657

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110569162.7A Active CN113268597B (zh) 2021-05-25 2021-05-25 文本分类方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113268597B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113468334B (zh) * 2021-09-06 2021-11-23 平安科技(深圳)有限公司 密文情感分类方法、装置、设备及存储介质
CN116383390B (zh) * 2023-06-05 2023-08-08 南京数策信息科技有限公司 一种用于经营管理信息的非结构化数据存储方法及云平台

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106547885A (zh) * 2016-10-27 2017-03-29 桂林电子科技大学 一种文本分类系统及方法
CN107609121A (zh) * 2017-09-14 2018-01-19 深圳市玛腾科技有限公司 基于LDA和word2vec算法的新闻文本分类方法
JP2018185771A (ja) * 2017-04-27 2018-11-22 日本電信電話株式会社 文ペア分類装置、文ペア分類学習装置、方法、及びプログラム
CN110008342A (zh) * 2019-04-12 2019-07-12 智慧芽信息科技(苏州)有限公司 文献分类方法、装置、设备及存储介质
CN110796160A (zh) * 2019-09-16 2020-02-14 腾讯科技(深圳)有限公司 一种文本分类方法、装置和存储介质
CN111444340A (zh) * 2020-03-10 2020-07-24 腾讯科技(深圳)有限公司 文本分类和推荐方法、装置、设备及存储介质
CN111554268A (zh) * 2020-07-13 2020-08-18 腾讯科技(深圳)有限公司 基于语言模型的语言识别方法、文本分类方法和装置
CN112685539A (zh) * 2020-12-31 2021-04-20 成都网安科技发展有限公司 基于多任务融合的文本分类模型训练方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9940323B2 (en) * 2016-07-12 2018-04-10 International Business Machines Corporation Text classifier operation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106547885A (zh) * 2016-10-27 2017-03-29 桂林电子科技大学 一种文本分类系统及方法
JP2018185771A (ja) * 2017-04-27 2018-11-22 日本電信電話株式会社 文ペア分類装置、文ペア分類学習装置、方法、及びプログラム
CN107609121A (zh) * 2017-09-14 2018-01-19 深圳市玛腾科技有限公司 基于LDA和word2vec算法的新闻文本分类方法
CN110008342A (zh) * 2019-04-12 2019-07-12 智慧芽信息科技(苏州)有限公司 文献分类方法、装置、设备及存储介质
CN110796160A (zh) * 2019-09-16 2020-02-14 腾讯科技(深圳)有限公司 一种文本分类方法、装置和存储介质
CN111444340A (zh) * 2020-03-10 2020-07-24 腾讯科技(深圳)有限公司 文本分类和推荐方法、装置、设备及存储介质
CN111554268A (zh) * 2020-07-13 2020-08-18 腾讯科技(深圳)有限公司 基于语言模型的语言识别方法、文本分类方法和装置
CN112685539A (zh) * 2020-12-31 2021-04-20 成都网安科技发展有限公司 基于多任务融合的文本分类模型训练方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Global-Local Mutual Attention Model for Text Classification;Qianli Ma et al;《IEEE》;第27卷(第12期);第2127-2138页 *

Also Published As

Publication number Publication date
CN113268597A (zh) 2021-08-17

Similar Documents

Publication Publication Date Title
CN111694826B (zh) 基于人工智能的数据增强方法、装置、电子设备及介质
CN113032528B (zh) 案件分析方法、装置、设备及存储介质
CN113656547B (zh) 文本匹配方法、装置、设备及存储介质
CN113268597B (zh) 文本分类方法、装置、设备及存储介质
CN113064973A (zh) 文本分类方法、装置、设备及存储介质
CN113408278A (zh) 意图识别方法、装置、设备及存储介质
CN115222443A (zh) 客户群体划分方法、装置、设备及存储介质
WO2021174923A1 (zh) 概念词序列生成方法、装置、计算机设备及存储介质
CN111898363B (zh) 文本长难句的压缩方法、装置、计算机设备及存储介质
CN113064972A (zh) 智能问答方法、装置、设备及存储介质
CN111933241B (zh) 医疗数据解析方法、装置、电子设备及存储介质
CN116468043A (zh) 嵌套实体识别方法、装置、设备及存储介质
CN112989044B (zh) 文本分类方法、装置、设备及存储介质
CN113420545B (zh) 摘要生成方法、装置、设备及存储介质
CN114581177B (zh) 产品推荐方法、装置、设备及存储介质
CN113420143B (zh) 文书摘要生成方法、装置、设备及存储介质
CN113486680B (zh) 文本翻译方法、装置、设备及存储介质
CN113408265B (zh) 基于人机交互的语义解析方法、装置、设备及存储介质
CN113627186B (zh) 基于人工智能的实体关系检测方法及相关设备
CN113343970B (zh) 文本图像检测方法、装置、设备及存储介质
CN113326365B (zh) 回复语句生成方法、装置、设备及存储介质
CN113269179B (zh) 数据处理方法、装置、设备及存储介质
CN113421594B (zh) 语音情感识别方法、装置、设备及存储介质
CN112949305B (zh) 负反馈信息采集方法、装置、设备及存储介质
CN112989820A (zh) 法律文书定位方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant