CN112163064A - 基于深度学习的文本分类方法 - Google Patents
基于深度学习的文本分类方法 Download PDFInfo
- Publication number
- CN112163064A CN112163064A CN202011099764.2A CN202011099764A CN112163064A CN 112163064 A CN112163064 A CN 112163064A CN 202011099764 A CN202011099764 A CN 202011099764A CN 112163064 A CN112163064 A CN 112163064A
- Authority
- CN
- China
- Prior art keywords
- text
- word
- training data
- vector
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000013135 deep learning Methods 0.000 title claims abstract description 21
- 239000013598 vector Substances 0.000 claims abstract description 125
- 238000012795 verification Methods 0.000 claims abstract description 56
- 238000013528 artificial neural network Methods 0.000 claims abstract description 23
- 238000013507 mapping Methods 0.000 claims abstract description 10
- 238000004140 cleaning Methods 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims description 75
- 239000011159 matrix material Substances 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 4
- 238000010200 validation analysis Methods 0.000 claims description 3
- 238000005406 washing Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种基于深度学习的文本分类方法,该方法首先对带标签的文本数据进行清洗、划分;然后将文本序列映射为词向量序列S;并将S输入到多注意力神经网络(MANN)中得到文本向量Sw。最后,将句子Sw输入到前馈神经网络(FNN)分类器得到文本类别。模型按照预设的超参数训练模型,根据模型在验证集上的表现选取最优的模型。实验结果显示,该模型取得了较好的分类精度。
Description
技术领域
本发明涉及一种基于深度学习的文本分类方法。
背景技术
文本分类在信息处理中占据着重要的地位,随着互联网的发展海量的文本数据不断产生,这些文本数据中存在着大量的信息,利用有效的方法对这些信息进行有效的管理和提取对企业和社会信息技术发展有着重大作用。
目前,深度学习技术被广泛的应用在文本分类任务上。具体来说,Kim等人将CNN应用在文本分类任务上,利用卷积层获取局部的文本信息。但卷积网络无法很好的利用文本的序列信息。之后人们将RNN以及在RNN基础上改进的LSTM网络应用在文本分类任务上取得了更好的分类效果。但是,由于循环神经网络顺序处理词序列的特点,使得基于RNN的模型并行计算困难。
发明内容
本发明的目的在于提供一种基于深度学习的文本分类方法。
为解决上述问题,本发明提供一种基于深度学习的文本分类方法,包括:
步骤1:对带文本标签的文本数据进行清洗,然后将清洗后的带标签的文本数据划分为训练数据集和验证集;
步骤2:将训练数据集合和验证集的文本中的单词替换成单词编号,以分别形成训练数据集合对应的单词索引序列和验证集对应的单词索引序列;
步骤3:构建词向量矩阵;
步骤4:基于所述词向量矩阵,将分别将训练数据集和验证集对应的单词索引序列映射为训练数据集和验证集对应的词向量序列S;
步骤5:将训练数据集对应的词向量序列S输入多注意力神经网络模型,以获取输出的文本向量Sw;
步骤6:将所述文本向量Sw输入到前馈神经网络中,以获取输出的文本类别概率向量;
步骤7:基于所述文本数据的文本标签得到文本标签向量,根据所述文本类别概率向量和文本标签向量,计算损失函数,并使用批量梯度下降算法优化所述损失函数,基于优化后的损失函数对注意力神经网络和前馈神经网络的模型参数进行调整,以得到优化后的模型;
步骤8:将验证集对应的词向量序列S输入所述优化后的模型,基于所述优化后的模型的输出选取最优的模型作为最终的模型;
步骤9:基于所述最终的模型对待分类的文本进行分类。
进一步的,在上述方法中,对带文本标签的文本数据进行清洗,包括:
去除多余的符号,只保留标点符号、单词,并将文本标签用one-hot向量表示。
进一步的,在上述方法中,步骤2:将训练数据集合和验证集的文本中的单词替换成单词编号,包括:
按照训练数据集中单词出现的频率分别为训练数据集中的单词进行编号,将训练数据集的文本中的单词替换成单词编号,其中,对于训练数据集中的前num个频率最高的单词,单词编号为该单词出现的频率对应的编号;对于编号大于num的单词,单词编号为0,num为正整数;
按照验证集中单词出现的频率分别为验证集中的单词进行编号,将验证集的文本中的单词替换成单词编号,其中,对于验证集中的前num个频率最高的单词,单词编号为该单词出现的频率对应的编号;对于编号大于num的单词,单词编号为0。
进一步的,在上述方法中,构建词向量矩阵,包括:
使用glove预训练词向量或者Word2Vec工具,分别获取训练数据集和验证集中的单词对应的维度为dim的词向量,其中,dim为正整数;
基于训练数据集中的单词对应的维度为dim的词向量,构建训练数据集对应的维度为num*dim的词向量矩阵;
基于训练验证集中的单词对应的维度为dim的词向量,构建训练数据集对应的维度为num*dim的词向量矩阵。
进一步的,在上述方法中,步骤4:基于所述词向量矩阵,将分别将训练数据集和验证集对应的单词索引序列映射为训练数据集和验证集对应的词向量序列S,包括:
基于所述训练数据集对应的词向量矩阵,并使用词向量初始化模型Embedding层,将训练数据集输入Embedding层,以得到训练数据集对应的词向量序列S;
基于所述验证集对应的词向量矩阵,并使用词向量初始化模型Embedding层,将验证集对应的单词索引序列输入Embedding层,以得到验证集对应的词向量序列S。
进一步的,在上述方法中,步骤5:将训练数据集对应的词向量序列S输入多注意力神经网络模型,以获取输出的文本向量Sw,
将训练数据集对应的词向量序列S输入多注意力神经网络中,利用词注意力网络学习单词间依赖关系得到文本向量S1;
利用局部注意力网络学习局部依赖关系得到向量S2;
最后将S1和S2输入到交叉注意力网络中学习局部与单词间的依赖关系得到文本向量Sw。
进一步的,在上述方法中,步骤7中,所述损失函数计算公式为:
与现有技术相比,本发明首先对带标签的文本数据进行清洗、划分;然后将文本序列映射为词向量序列S;并将S输入到多注意力神经网络(MANN)中得到文本向量Sw。最后,将句子Sw输入到前馈神经网络(FNN)分类器得到文本类别。模型按照预设的超参数训练模型,根据模型在验证集上的表现选取最优的模型。实验结果显示,该模型取得了较好的分类精度。发明考虑了词序列中单词、局部序列间的依赖关系,提高了文本分类的精度。
附图说明
图1为本发明一实施例提供的文本分类模型流程图;
图2为本发明一实施例提供的词向量的获取方法的结构示意图;
图3为本发明一实施例提供的词注意力网络(WAN)结构示意图;
图4为本发明一实施例提供的局部注意力网络(LAN)结构示意图;
图5为本发明一实施例提供的交叉注意力网络(CAN)结构示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供一种基于深度学习的文本分类方法,包括:
步骤1:对带文本标签的文本数据进行清洗,然后将清洗后的带标签的文本数据划分为训练数据集和验证集;
步骤2:将训练数据集合和验证集的文本中的单词替换成单词编号,以分别形成训练数据集合对应的单词索引序列和验证集对应的单词索引序列;
步骤3:构建词向量矩阵;
步骤4:基于所述词向量矩阵,将分别将训练数据集和验证集对应的单词索引序列映射为训练数据集和验证集对应的词向量序列S;
步骤5:将训练数据集对应的词向量序列S输入多注意力神经网络(MANN)模型,以获取输出的文本向量Sw;
步骤6:将所述文本向量Sw输入到前馈神经网络(FNN)中,以获取输出的文本类别概率向量;
步骤7:基于所述文本数据的文本标签得到文本标签向量,根据所述文本类别概率向量和文本标签向量,计算损失函数,并使用批量梯度下降算法优化所述损失函数,基于优化后的损失函数对注意力神经网络和前馈神经网络的模型参数进行调整,以得到优化后的模型;
步骤8:将验证集对应的词向量序列S输入所述优化后的模型,基于所述优化后的模型的输出选取最优的模型作为最终的模型;
步骤9:基于所述最终的模型对待分类的文本进行分类。
在此,模型训练的迭代次数epochs=1000。每次更新参数后将在验证集上评估模型性能,选取最优的模型作为最终的模型。
本发明首先对带标签的文本数据进行清洗、划分;然后将文本序列映射为词向量序列S;并将S输入到多注意力神经网络(MANN)中得到文本向量Sw。最后,将句子Sw输入到前馈神经网络(FNN)分类器得到文本类别。模型按照预设的超参数训练模型,根据模型在验证集上的表现选取最优的模型。实验结果显示,该模型取得了较好的分类精度。发明考虑了词序列中单词、局部序列间的依赖关系,提高了文本分类的精度。
本发明的基于深度学习的文本分类方法一实施例中,对带文本标签的文本数据进行清洗,包括:
去除多余的符号,只保留标点符号、单词,并将文本标签用one-hot向量表示。
在此,保留对带文本标签的文本数据中词语间的空格和必要的标点符号。
本发明的基于深度学习的文本分类方法一实施例中,步骤2:将训练数据集合和验证集的文本中的单词替换成单词编号,包括:
按照训练数据集中单词出现的频率分别为训练数据集中的单词进行编号,将训练数据集的文本中的单词替换成单词编号,其中,对于训练数据集中的前num个频率最高的单词,单词编号为该单词出现的频率对应的编号;对于编号大于num的单词,单词编号为0,num为正整数;
按照验证集中单词出现的频率分别为验证集中的单词进行编号,将验证集的文本中的单词替换成单词编号,其中,对于验证集中的前num个频率最高的单词,单词编号为该单词出现的频率对应的编号;对于编号大于num的单词,单词编号为0。
在此,根据频率分别将训练数据集和验证集中的文本数据中单词进行的编号,取前30000个频率最高的常用词,并用编号代替文本序列;将数据集中的单词截取或填充为相同长度L,该长度设置为平均长度,计算公式为:
其中,n表示数据集大小、Si表示第i个句子、len(Si)表示句子Si的长度。
本发明的基于深度学习的文本分类方法一实施例中,步骤3:构建词向量矩阵,包括:
使用glove预训练词向量或者Word2Vec工具,分别获取训练数据集和验证集中的单词对应的维度为dim的词向量,其中,dim为正整数;
基于训练数据集中的单词对应的维度为dim的词向量,构建训练数据集对应的维度为num*dim的词向量矩阵;
基于训练验证集中的单词对应的维度为dim的词向量,构建训练数据集对应的维度为num*dim的词向量矩阵。
在此,可以加载Glove维度为100的预训练词向量文件,得到数据集中单词对应的词向量。
本发明的基于深度学习的文本分类方法一实施例中,步骤4:基于所述词向量矩阵,将分别将训练数据集和验证集对应的单词索引序列映射为训练数据集和验证集对应的词向量序列S,包括:
基于所述训练数据集对应的词向量矩阵,并使用词向量初始化模型Embedding层,将训练数据集输入Embedding层,以得到训练数据集对应的词向量序列S;
基于所述验证集对应的词向量矩阵,并使用词向量初始化模型Embedding层,将验证集对应的单词索引序列输入Embedding层,以得到验证集对应的词向量序列S。
在此,可以构建维度为30000*100的Embedding矩阵,使用步骤3获取的词向量初始化Embedding矩阵,并在模型训练过程中微调Embedding层参数。如图2所示,将词序列向量右乘Embedding矩阵获取文本向量序列S。
本发明的基于深度学习的文本分类方法一实施例中,步骤5:将训练数据集对应的词向量序列S输入多注意力神经网络(MANN)模型,以获取输出的文本向量Sw,
将训练数据集对应的词向量序列S输入多注意力神经网络(MANN)中,利用词注意力网络(WAN)学习单词间依赖关系得到文本向量S1;
利用局部注意力网络(LAN)学习局部依赖关系得到向量S2;
最后将S1和S2输入到交叉注意力网络(CAN)中学习局部与单词间的依赖关系得到文本向量Sw。
在此,如图3所示,将文本向量S输入到词注意力神经网络(WAN)中利用自注意力机制学习单词间依赖关系得到新的词向量序列S1;计算公式为:
如图4所示,将S1作为局部注意力网络(LAN)的输入,该网络用于学习词序列局部间依赖关系得到句子向量序列S2。计算公式如下:
如图5所示,将S1、S2作为交叉注意力网络(CAN)的输入,该网络用于学习单词与局部词序列间的依赖关系得到句子向量Sw。计算公式如下:
本发明的基于深度学习的文本分类方法一实施例中,步骤7中,所述损失函数计算公式为:
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。显然,本领域的技术人员可以对发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。
Claims (7)
1.一种基于深度学习的文本分类方法,其特征在于,包括:
步骤1:对带文本标签的文本数据进行清洗,然后将清洗后的带标签的文本数据划分为训练数据集和验证集;
步骤2:将训练数据集合和验证集的文本中的单词替换成单词编号,以分别形成训练数据集合对应的单词索引序列和验证集对应的单词索引序列;
步骤3:构建词向量矩阵;
步骤4:基于所述词向量矩阵,将分别将训练数据集和验证集对应的单词索引序列映射为训练数据集和验证集对应的词向量序列S;
步骤5:将训练数据集对应的词向量序列S输入多注意力神经网络模型,以获取输出的文本向量Sw;
步骤6:将所述文本向量Sw输入到前馈神经网络中,以获取输出的文本类别概率向量;
步骤7:基于所述文本数据的文本标签得到文本标签向量,根据所述文本类别概率向量和文本标签向量,计算损失函数,并使用批量梯度下降算法优化所述损失函数,基于优化后的损失函数对注意力神经网络和前馈神经网络的模型参数进行调整,以得到优化后的模型;
步骤8:将验证集对应的词向量序列S输入所述优化后的模型,基于所述优化后的模型的输出选取最优的模型作为最终的模型;
步骤9:基于所述最终的模型对待分类的文本进行分类。
2.如权利要求1所述的基于深度学习的文本分类方法,其特征在于,对带文本标签的文本数据进行清洗,包括:
去除多余的符号,只保留标点符号、单词,并将文本标签用one-hot向量表示。
3.如权利要求1所述的基于深度学习的文本分类方法,其特征在于,步骤2:将训练数据集合和验证集的文本中的单词替换成单词编号,包括:
按照训练数据集中单词出现的频率分别为训练数据集中的单词进行编号,将训练数据集的文本中的单词替换成单词编号,其中,对于训练数据集中的前num个频率最高的单词,单词编号为该单词出现的频率对应的编号;对于编号大于num的单词,单词编号为0,num为正整数;
按照验证集中单词出现的频率分别为验证集中的单词进行编号,将验证集的文本中的单词替换成单词编号,其中,对于验证集中的前num个频率最高的单词,单词编号为该单词出现的频率对应的编号;对于编号大于num的单词,单词编号为0。
4.如权利要求3所述的基于深度学习的文本分类方法,其特征在于,构建词向量矩阵,包括:
使用glove预训练词向量或者Word2Vec工具,分别获取训练数据集和验证集中的单词对应的维度为dim的词向量,其中,dim为正整数;
基于训练数据集中的单词对应的维度为dim的词向量,构建训练数据集对应的维度为num*dim的词向量矩阵;
基于训练验证集中的单词对应的维度为dim的词向量,构建训练数据集对应的维度为num*dim的词向量矩阵。
5.如权利要求1所述的基于深度学习的文本分类方法,其特征在于,步骤4:基于所述词向量矩阵,将分别将训练数据集和验证集对应的单词索引序列映射为训练数据集和验证集对应的词向量序列S,包括:
基于所述训练数据集对应的词向量矩阵,并使用词向量初始化模型Embedding层,将训练数据集输入Embedding层,以得到训练数据集对应的词向量序列S;
基于所述验证集对应的词向量矩阵,并使用词向量初始化模型Embedding层,将验证集对应的单词索引序列输入Embedding层,以得到验证集对应的词向量序列S。
6.如权利要求1所述的基于深度学习的文本分类方法,其特征在于,步骤5:将训练数据集对应的词向量序列S输入多注意力神经网络模型,以获取输出的文本向量Sw,
将训练数据集对应的词向量序列S输入多注意力神经网络中,利用词注意力网络学习单词间依赖关系得到文本向量S1;
利用局部注意力网络学习局部依赖关系得到向量S2;
最后将S1和S2输入到交叉注意力网络中学习局部与单词间的依赖关系得到文本向量Sw。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011099764.2A CN112163064B (zh) | 2020-10-14 | 2020-10-14 | 基于深度学习的文本分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011099764.2A CN112163064B (zh) | 2020-10-14 | 2020-10-14 | 基于深度学习的文本分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112163064A true CN112163064A (zh) | 2021-01-01 |
CN112163064B CN112163064B (zh) | 2024-04-16 |
Family
ID=73867000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011099764.2A Active CN112163064B (zh) | 2020-10-14 | 2020-10-14 | 基于深度学习的文本分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112163064B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112802568A (zh) * | 2021-02-03 | 2021-05-14 | 紫东信息科技(苏州)有限公司 | 基于病历文本的多标签胃部疾病分类方法及装置 |
CN113221625A (zh) * | 2021-03-02 | 2021-08-06 | 西安建筑科技大学 | 一种利用深度学习的局部特征对齐行人重识别方法 |
CN114117050A (zh) * | 2021-11-30 | 2022-03-01 | 济南农村商业银行股份有限公司 | 一种全自动记账流程弹窗处理方法、装置和系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109472024A (zh) * | 2018-10-25 | 2019-03-15 | 安徽工业大学 | 一种基于双向循环注意力神经网络的文本分类方法 |
CN109857860A (zh) * | 2019-01-04 | 2019-06-07 | 平安科技(深圳)有限公司 | 文本分类方法、装置、计算机设备及存储介质 |
US20190188260A1 (en) * | 2017-12-14 | 2019-06-20 | Qualtrics, Llc | Capturing rich response relationships with small-data neural networks |
CN109977226A (zh) * | 2019-03-14 | 2019-07-05 | 南京邮电大学 | 基于卷积神经网络的高精度文本分类方法和系统 |
US20200042596A1 (en) * | 2018-08-02 | 2020-02-06 | Google Llc | On-Device Neural Networks for Natural Language Understanding |
EP3657354A1 (en) * | 2018-11-22 | 2020-05-27 | Siemens Healthcare GmbH | Supervised features for text classification |
US20200184339A1 (en) * | 2018-12-10 | 2020-06-11 | Baidu Usa Llc | Representation learning for input classification via topic sparse autoencoder and entity embedding |
CN111274405A (zh) * | 2020-02-26 | 2020-06-12 | 北京工业大学 | 一种基于gcn的文本分类方法 |
CN111368078A (zh) * | 2020-02-28 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 一种模型训练的方法、文本分类的方法、装置及存储介质 |
CN111737470A (zh) * | 2020-06-24 | 2020-10-02 | 上海应用技术大学 | 文本分类方法 |
-
2020
- 2020-10-14 CN CN202011099764.2A patent/CN112163064B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190188260A1 (en) * | 2017-12-14 | 2019-06-20 | Qualtrics, Llc | Capturing rich response relationships with small-data neural networks |
US20200042596A1 (en) * | 2018-08-02 | 2020-02-06 | Google Llc | On-Device Neural Networks for Natural Language Understanding |
CN109472024A (zh) * | 2018-10-25 | 2019-03-15 | 安徽工业大学 | 一种基于双向循环注意力神经网络的文本分类方法 |
EP3657354A1 (en) * | 2018-11-22 | 2020-05-27 | Siemens Healthcare GmbH | Supervised features for text classification |
US20200184339A1 (en) * | 2018-12-10 | 2020-06-11 | Baidu Usa Llc | Representation learning for input classification via topic sparse autoencoder and entity embedding |
CN109857860A (zh) * | 2019-01-04 | 2019-06-07 | 平安科技(深圳)有限公司 | 文本分类方法、装置、计算机设备及存储介质 |
CN109977226A (zh) * | 2019-03-14 | 2019-07-05 | 南京邮电大学 | 基于卷积神经网络的高精度文本分类方法和系统 |
CN111274405A (zh) * | 2020-02-26 | 2020-06-12 | 北京工业大学 | 一种基于gcn的文本分类方法 |
CN111368078A (zh) * | 2020-02-28 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 一种模型训练的方法、文本分类的方法、装置及存储介质 |
CN111737470A (zh) * | 2020-06-24 | 2020-10-02 | 上海应用技术大学 | 文本分类方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112802568A (zh) * | 2021-02-03 | 2021-05-14 | 紫东信息科技(苏州)有限公司 | 基于病历文本的多标签胃部疾病分类方法及装置 |
CN113221625A (zh) * | 2021-03-02 | 2021-08-06 | 西安建筑科技大学 | 一种利用深度学习的局部特征对齐行人重识别方法 |
CN113221625B (zh) * | 2021-03-02 | 2023-04-07 | 西安建筑科技大学 | 一种利用深度学习的局部特征对齐行人重识别方法 |
CN114117050A (zh) * | 2021-11-30 | 2022-03-01 | 济南农村商业银行股份有限公司 | 一种全自动记账流程弹窗处理方法、装置和系统 |
CN114117050B (zh) * | 2021-11-30 | 2022-08-05 | 济南农村商业银行股份有限公司 | 一种全自动记账流程弹窗处理方法、装置和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112163064B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11928600B2 (en) | Sequence-to-sequence prediction using a neural network model | |
CN112163064A (zh) | 基于深度学习的文本分类方法 | |
US20230015737A1 (en) | Contrastive Pre-Training for Language Tasks | |
WO2020211720A1 (zh) | 数据处理方法和代词消解神经网络训练方法 | |
JPH07296117A (ja) | 減少された要素特徴部分集合を用いたパターン認識システム用の分類重みマトリックスを構成する方法 | |
CN112883714B (zh) | 基于依赖图卷积和迁移学习的absc任务句法约束方法 | |
CN113641819B (zh) | 基于多任务稀疏共享学习的论辩挖掘系统及方法 | |
US11836438B2 (en) | ML using n-gram induced input representation | |
JP6291443B2 (ja) | 接続関係推定装置、方法、及びプログラム | |
CN112231478B (zh) | 基于bert和多层注意力机制的方面级情感分类方法 | |
CN113254675B (zh) | 基于自适应少样本关系抽取的知识图谱构建方法 | |
CN113010683B (zh) | 基于改进图注意力网络的实体关系识别方法及系统 | |
CN111400494A (zh) | 一种基于GCN-Attention的情感分析方法 | |
JP2019095600A (ja) | 音響モデル学習装置、音声認識装置、それらの方法、及びプログラム | |
CN110275928B (zh) | 迭代式实体关系抽取方法 | |
CN112529071A (zh) | 一种文本分类方法、系统、计算机设备和存储介质 | |
CN113935489A (zh) | 基于量子神经网络的变分量子模型tfq-vqa及其两级优化方法 | |
Singer | Adaptive mixture of probabilistic transducers | |
US20220067304A1 (en) | Energy-Based Language Models | |
CN111737470B (zh) | 文本分类方法 | |
JP6770709B2 (ja) | 機械学習用モデル生成装置及びプログラム。 | |
CN112560440A (zh) | 一种基于深度学习的面向方面级情感分析的句法依赖方法 | |
Villez et al. | A generative approach to qualitative trend analysis for batch process fault diagnosis | |
CN112884019B (zh) | 一种基于融合门循环网络模型的图像转语言方法 | |
WO2023059811A1 (en) | Constrained device placement using neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |