CN110413993A - 一种基于稀疏权值神经网络的语义分类方法、系统和介质 - Google Patents

一种基于稀疏权值神经网络的语义分类方法、系统和介质 Download PDF

Info

Publication number
CN110413993A
CN110413993A CN201910558051.9A CN201910558051A CN110413993A CN 110413993 A CN110413993 A CN 110413993A CN 201910558051 A CN201910558051 A CN 201910558051A CN 110413993 A CN110413993 A CN 110413993A
Authority
CN
China
Prior art keywords
neural network
classification
sample
vector
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910558051.9A
Other languages
English (en)
Inventor
孙健
彭德光
唐贤伦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Trillion Light Polytron Technologies Inc
Original Assignee
Chongqing Trillion Light Polytron Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Trillion Light Polytron Technologies Inc filed Critical Chongqing Trillion Light Polytron Technologies Inc
Priority to CN201910558051.9A priority Critical patent/CN110413993A/zh
Publication of CN110413993A publication Critical patent/CN110413993A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提出一种基于稀疏权值神经网络的语义分类方法、系统和介质,包括:设置样本集,将所述样本集中的文本序列转换成词向量,根据所述词向量计算得到文本向量;对所述样本集进行标注,根据已标注样本,创建样本分类训练目标;创建神经网络分类模型,计算所述样本分类训练目标的输出概率,并根据所述输出概率构造所述文本分类训练目标的最大似然函数;对所述神经网络分类模型的输入层权重进行稀疏处理,获取稀疏正则函数;将所述稀疏正则函数加入所述最大似然函数,构建所述神经网络的目标函数,并根据所述目标函数对所述神经网络分类模型进行训练,获取语义分类神经网络模型;本发明可以提高分类算法的计算速度和泛化能力。

Description

一种基于稀疏权值神经网络的语义分类方法、系统和介质
技术领域
本发明涉及自然语言处理领域,尤其涉及一种基于稀疏权值神经网络的语义分类方法、系统和介质。
背景技术
在自然语言处理领域,处理的数据集往往为高维或超高维数据集,且这些高维数据集通常具有复杂的结构。虽然数据集维度足够大,但实际只有小部分变量与所要预测的输出变量相关,其余的大部分变量为噪声变量。而样本数量过小,直接采用传统最小二乘法等传统的建模工具,得到的模型往往存在数值计算准确度低的问题,因此,变量的选择显得尤为重要。套索模型是第一种利用正则化方法进行变量选择的模型,然而变量往往具有组结构,套索模型没有将变量的组结构作为先验信息,局限于变量水平上的稀疏性,只有变量选择能力,缺乏组选择能力。
发明内容
鉴于以上现有技术存在的问题,本发明提出一种基于稀疏权值神经网络的语义分类方法、系统和介质,主要解决问题现有文本分类算法泛化能力不足的问题。
为了实现上述目的及其他目的,本发明采用的技术方案如下。
一种基于稀疏权值神经网络的语义分类方法,包括:
设置样本集,将所述样本集中的文本序列转换成词向量,根据所述词向量计算得到文本向量;
对所述样本集进行标注,根据已标注样本,创建样本分类训练目标;
创建神经网络分类模型,计算所述样本分类训练目标的输出概率,并根据所述输出概率构造所述文本分类训练目标的最大似然函数;
对所述神经网络分类模型的输入层权重进行稀疏处理,获取稀疏正则函数;
将所述稀疏正则函数加入所述最大似然函数,构建所述神经网络的目标函数,并根据所述目标函数对所述神经网络分类模型进行训练,获取语义分类神经网络模型。
可选地,所述计算文本向量包括:
构造与所述词向量关联的核函数,并根据所述核函数创建对应词向量的径向基;
构造径向基与所述文本向量的函数关系,将所述词向量输入所述所述径向基与所述文本向量的函数关系中,并将计算结果映射到[-1,1]区间,获取文本向量。
可选地,所述径向基包括:
所述径向基与所述文本向量的函数关系包括:
其中,w为文本向量,si为第i个词构成的径向基,xi为所述文本序列中第i个词的词向量,cj为第j个径向基的中心向量。
可选地,所述计算所述样本分类训练目标输出概率,包括:
对样本集中的文本序列进行分词处理;
将将所述分词处理得到的词语转换为词向量;
将所述计算得到的文本向量输入所述神经网络分类模型,获取所述神经网络分类模型的输出值;
根据所述神经网络分类模型的输出值判断样本分类训练目标的输出概率。
可选地,所述最大似然函数包括:
其中,f(wi,θ)∈Rm为所述神经网络分类模型,输出为第i样本的各类别概率估计,w为所有输入样本的文本向量集合,m为类别数,θ为所述神经网络分类模型的权重矩阵,wi为第i个样本对应的文本向量,由第i个文本对应的词向量构成的向量集合;yi∈Rm表示样本i的类别标记向量,元素由0和1构成。
可选地,所述稀疏处理包括:
计算所述神经网络分类模型的输入层权重的L1范数,将所述L1范数作为惩罚函数用于构造目标函数对所述神经网络分类模型的输入层权重进行分组选择。
可选地,在对所述神经网络分类模型的输入层权重进行稀疏处理之后,还包括:将所述神经网络分类模型的输入层权重与所述权重对应的L2范数的二次方相加。
可选地,所述目标函数包括:
其中,i为第i组特征,j为第i组特征中第j个神经网络输入权重索引,Gi为第i组特征中对应神经网络输入权重索引集合。
一种基于稀疏权值神经网络的语义分类系统,包括:
样本集;
文本向量计算模块,用于将所述样本集中的文本序列转换成词向量,根据所述词向量计算得到文本向量;
训练目标创建模块,用于对所述样本集进行标注,根据已标注样本,创建样本分类训练目标;
模型创建模块,用于创建神经网络分类模型;
目标函数构造模块,用于计算所述样本分类训练目标的输出概率,并根据所述输出概率构造所述文本分类训练目标的最大似然函数;对所述神经网络分类模型的输入层权重进行稀疏处理,获取稀疏正则函数;将所述稀疏正则函数加入所述最大似然函数,构建所述神经网络的目标函数;
模型训练模块,用于根据所述目标函数对所述神经网络分类模型进行训练,获取语义分类神经网络模型。
一种计算机可读存储介质,其中存储有计算机程序,其特征在于,所述计算机程序被处理器加载执行时,实现基于稀疏权值神经网络的语义分类方法。
如上所述,本发明一种基于稀疏权值神经网络的语义分类方法和系统,具有以下有益效果。
通过权值稀疏处理,可以实现输入向量的降维,提升分类模型的泛化性能和计算速度;通过构造的目标函数可以对神经网络权重进行分组选择,进一步提高模型的计算速度。
附图说明
图1为本发明一实施例中基于稀疏权值神经网络的语义分类方法的流程图。
图2为本发明一实施例中基于稀疏权值神经网络的语义分类系统的模块图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
请参阅图1,本发明提供一种基于稀疏权值神经网络的语义分类方法,具体包括步骤S01-S06。
在步骤S01中,设置样本集,将样本集中的文本序列转换成词向量,根据词向量计算得到文本向量:
样本集可以根据待分类文本涉及领域进行收集整理,如涉及法律领域,则可收集相关法律文献,组成样本集。并对样本集中文本进行分词处理。分词可采用常规的Hanlp分词方法,这里不对具体分词方法进行限制。
将经过分词的到的词语通过word2vec转化成词向量。
以词向量为变量构造核函数,在一实施例中,可采用径向基函数作为核函数,径向基函数用高斯函数表示如下:
S=e-||x-c||/σ
其中,x为词向量,c为与词向量对应的径向基的中心向量,σ为径向基的宽度。
根据径向基函数计算径向基,得到的径向基可表示为:
其中,l为设定的径向基维度,xi是文本序列中第i个词的词向量。
根据径向基建立文本向量与径向基的函数关系,具体可表示为:
其中,w为文本向量,si为第i个词构成的径向基,xi为所述文本序列中第i个词的词向量。
将词向量输入核函数中,计算径向基,并根据径向基和词向量计算得到文本向量,根据前述文本向量计算公式,将计算结果转换成[0,1]区间的文本向量。
在步骤S02中,对样本集进行标注,根据已标注样本,创建样本分类训练目标:
对样本集进行标注可采用人工标注的方式,也可以采用专用的标注软件或设备进行标注。标注主要是根据预先设定的文本分类类别,对样本中文本进行标注,这里不对具体标注方式做进一步限定。以被标注的样本中相关信息作为分类训练的目标。
在步骤S03中,创建神经网络分类模型,计算所述样本分类训练目标的输出概率,并根据所述输出概率构造所述文本分类训练目标的最大似然函数:
根据已有的样本和训练目标建立初始的神经网络分类模型,在一实施例中,可以设置函数f(wi,θ)表示神经网络分类模型,其中θ为神经网络的权重矩阵,wi为第i个样本通过前述文本向量关系式计算得到的对应的文本向量。
将计算得到的文本向量输入神经网络分类模型,得到神经网络分类模型对应的输出。在一实施例中,可以通过sigmoid函数将神经网络分类模型的输出映射到[0,1]之间,使神经网络的输出为以0或1表示的向量,当第i个样本对应的输出向量对应的分类类别的第j个单元输出结果为0,则表示,样本不属于第j类别,否则属于第j类别。以输出结果的值判断样本训练目标的输出概率。
在已知输出概率的情况下,可通过极大似然函数,获取神经网络分类模型权重的极大似然估计。
极大似然函数可表示为:
其中,f(wi,θ)∈Rm为所述神经网络分类模型,输出为第i样本的各类别概率估计,w为所有输入样本的文本向量集合,m为类别数,θ为所述神经网络分类模型的权重矩阵,wi为第i个样本对应的文本向量,由第i个文本词向量构成的向量集合;yi∈Rm表示样本i的类别标记向量,元素由0和1构成。
在步骤S04中,对神经网络分类模型的输入层权重进行稀疏处理,获取稀疏正则函数;
对构造的极大似然函数进行求导,根据极值点的值可以求得神经网络分类模型的输入层权重矩阵θ,假设神经网络分类模型的输入权重矩阵有i行j列,i表示有i组输入特征,j表示每组特征分别对应j个向量,Gi为第i组输入特征对应的向量的集合。
计算神经网络分类模型的输入层权重的L1范数,将计算的道德L1范数作为惩罚函数加入神经网络的目标函数中。以输入层权重为一组,建立分组结构的惩罚函数引入目标函数中可以获取组极的稀疏性。
在一实施例中,在经过前述稀疏处理的同时还可对神经网络分类模型输入层的权重进行正则化。在另一实施例中,计算权重的L2范数,L2范数的二次方与权重相加,构造神经网络的稀疏正则。
通过计算权重的L1范数和L2范数最终的到稀疏正则函数
在步骤S05中,将所述稀疏正则函数加入所述最大似然函数,构建所述神经网络的目标函数,并根据所述目标函数对所述神经网络分类模型进行训练,获取语义分类神经网络模型:
将步骤给S04得到的稀疏正则函数与步骤给S03得到的极大似然函数结合,构造的目标函数可表示为:
其中,i为第i组特征,j为第i组特征中第j个神经网络输入权重索引,Gi为第i组特征中对应神经网络输入权重索引集合。
将样本集中的样本输入神经网络分类模型中,结合神经网络神经元的目标函数对神经网络分类模型进行训练,得到语义分类模型。
根据本发明的实施例,还提供一种计算机存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述方法。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(如:软盘、硬盘、磁带)、光介质(如:DVD)、或者半导体介质(如:固态硬盘Solid State Disk(SSD))等。
请参阅图2,本实施例还提供了一种基于稀疏权值神经网络的语义分类系统,包括样本集10、文本向量计算模块11、训练目标创建模块12、模型创建模块13、目标函数构造模块14和模型训练模块15。由于本系统实施例的技术原理与前述方法实施例的技术原理相似,因而不再对同样的技术细节做重复性赘述。文本向量计算模块11和样本集10用于执行前述方法实施例介绍的步骤S01,训练目标创建模块12用于执行前述方法实施例介绍的步骤S02,模型创建模块13和目标函数构造模块14用于执行前述方法实施例介绍的步骤S03和S04,所述模型训练模块15用于执行前述方法实施例介绍的步骤S05。
综上所述,本发明一种基于稀疏权值神经网络的语义分类方法、系统和介质,通过对神经网络权值正则化,可以有效防止过拟合;通过对神经网络输入层权值进行稀疏处理,可以对神经网络链接施加组级稀疏性,每个组被定义为一个神经元的输出边权集合,删除冗余神经元,使神经网络更紧凑,实现输入向量降维的同时,提高文本分类算法的泛化性能及计算速度。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

Claims (10)

1.一种基于稀疏权值神经网络的语义分类方法,其特征在于,包括:
设置样本集,将所述样本集中的文本序列转换成词向量,根据所述词向量计算得到文本向量;
对所述样本集进行标注,根据已标注样本,创建样本分类训练目标;
创建神经网络分类模型,计算所述样本分类训练目标的输出概率,并根据所述输出概率构造所述文本分类训练目标的最大似然函数;
对所述神经网络分类模型的输入层权重进行稀疏处理,获取稀疏正则函数;
将所述稀疏正则函数加入所述最大似然函数,构建所述神经网络的目标函数,并根据所述目标函数对所述神经网络分类模型进行训练,获取语义分类神经网络模型。
2.根据权利要求1所述的基于稀疏权值神经网络的语义分类方法,其特征在于,所述计算文本向量包括:
构造与所述词向量关联的核函数,并根据所述核函数创建对应词向量的径向基;
构造径向基与所述文本向量的函数关系,将所述词向量输入所述所述径向基与所述文本向量的函数关系中,并将计算结果映射到[0,1]区间,获取文本向量。
3.根据权利要求2所述的基于稀疏权值神经网络的语义分类方法,其特征在于,所述径向基包括:
所述径向基与所述文本向量的函数关系包括:
其中,w为文本向量,si为第i个词构成的径向基,xi为所述文本序列中第i个词的词向量,cj为第j个径向基的中心向量。
4.根据权利要求1所述的基于稀疏权值神经网络的语义分类方法,其特征在于,所述计算所述样本分类训练目标输出概率,包括:
对样本集中的文本序列进行分词处理;
将将所述分词处理得到的词语转换为词向量;
将所述计算得到的文本向量输入所述神经网络分类模型,获取所述神经网络分类模型的输出值;
根据所述神经网络分类模型的输出值判断样本分类训练目标的输出概率。
5.根据权利要求1所述的基于稀疏权值神经网络的语义分类方法,其特征在于,所述最大似然函数包括:
其中,f(wi,θ)∈Rm为所述神经网络分类模型,输出为第i样本的各类别概率估计,w为所有输入样本的文本向量集合,m为类别数,θ为所述神经网络分类模型的权重矩阵,wi为第i个样本对应的文本向量,由第i个文本对应的词向量构成的向量集合;yi∈Rm表示样本i的类别标记向量,元素由0和1构成。
6.根据权利要求1所述的基于稀疏权值神经网络的语义分类方法,其特征在于,所述稀疏处理包括:
计算所述神经网络分类模型的输入层权重的L1范数,将所述L1范数作为惩罚函数用于构造目标函数对所述神经网络分类模型的输入层权重进行分组选择。
7.根据权利要求1所述的基于稀疏权值神经网络的语义分类方法,其特征在于,在对所述神经网络分类模型的输入层权重进行稀疏处理之后,还包括:将所述神经网络分类模型的输入层权重与所述权重对应的L2范数的二次方相加。
8.根据权利要求1所述的基于稀疏权值神经网络的语义分类方法,其特征在于,所述目标函数包括:
其中,i为第i组特征,j为第i组特征中第j个神经网络输入权重索引,Gi为第i组特征中对应神经网络输入权重索引集合。
9.一种基于稀疏权值神经网络的语义分类系统,其特征在于,包括:
样本集;
文本向量计算模块,用于将所述样本集中的文本序列转换成词向量,根据所述词向量计算得到文本向量;
训练目标创建模块,用于对所述样本集进行标注,根据已标注样本,创建样本分类训练目标;
模型创建模块,用于创建神经网络分类模型;
目标函数构造模块,用于计算所述样本分类训练目标的输出概率,并根据所述输出概率构造所述文本分类训练目标的最大似然函数;对所述神经网络分类模型的输入层权重进行稀疏处理,获取稀疏正则函数;将所述稀疏正则函数加入所述最大似然函数,构建所述神经网络的目标函数;
模型训练模块,用于根据所述目标函数对所述神经网络分类模型进行训练,获取语义分类神经网络模型。
10.一种计算机可读存储介质,其中存储有计算机程序,其特征在于,所述计算机程序被处理器加载执行时,实现如权利要求1至8中任一所述的方法。
CN201910558051.9A 2019-06-26 2019-06-26 一种基于稀疏权值神经网络的语义分类方法、系统和介质 Pending CN110413993A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910558051.9A CN110413993A (zh) 2019-06-26 2019-06-26 一种基于稀疏权值神经网络的语义分类方法、系统和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910558051.9A CN110413993A (zh) 2019-06-26 2019-06-26 一种基于稀疏权值神经网络的语义分类方法、系统和介质

Publications (1)

Publication Number Publication Date
CN110413993A true CN110413993A (zh) 2019-11-05

Family

ID=68359747

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910558051.9A Pending CN110413993A (zh) 2019-06-26 2019-06-26 一种基于稀疏权值神经网络的语义分类方法、系统和介质

Country Status (1)

Country Link
CN (1) CN110413993A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709493A (zh) * 2020-07-10 2020-09-25 腾讯科技(深圳)有限公司 对象分类方法、训练方法、装置、设备及存储介质
CN111950638A (zh) * 2020-08-14 2020-11-17 厦门美图之家科技有限公司 基于模型蒸馏的图像分类方法、装置和电子设备
CN112466297A (zh) * 2020-11-19 2021-03-09 重庆兆光科技股份有限公司 一种基于时域卷积编解码网络的语音识别方法
CN112528788A (zh) * 2020-12-01 2021-03-19 重庆兆光科技股份有限公司 一种基于域不变特征和时空特征的重识别方法
CN113157913A (zh) * 2021-01-30 2021-07-23 暨南大学 一种基于社会新闻数据集的伦理行为判别方法
CN113688244A (zh) * 2021-08-31 2021-11-23 中国平安人寿保险股份有限公司 基于神经网络的文本分类方法、系统、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006125960A2 (en) * 2005-05-25 2006-11-30 The Babraham Institute Signal processing, transmission, data storage and representation
CN105046323A (zh) * 2015-04-29 2015-11-11 西北大学 一种正则化rbf网络多标签分类方法
CN105488563A (zh) * 2015-12-16 2016-04-13 重庆大学 面向深度学习的稀疏自适应神经网络、算法及实现装置
CN106095928A (zh) * 2016-06-12 2016-11-09 国家计算机网络与信息安全管理中心 一种事件类型识别方法及装置
CN107066464A (zh) * 2016-01-13 2017-08-18 奥多比公司 语义自然语言向量空间
CN107544957A (zh) * 2017-07-05 2018-01-05 华北电力大学 一种面向商品目标词的情感倾向分析方法
CN108319980A (zh) * 2018-02-05 2018-07-24 哈工大机器人(合肥)国际创新研究院 一种基于gru的递归神经网络多标签学习方法
CN108334605A (zh) * 2018-02-01 2018-07-27 腾讯科技(深圳)有限公司 文本分类方法、装置、计算机设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006125960A2 (en) * 2005-05-25 2006-11-30 The Babraham Institute Signal processing, transmission, data storage and representation
CN105046323A (zh) * 2015-04-29 2015-11-11 西北大学 一种正则化rbf网络多标签分类方法
CN105488563A (zh) * 2015-12-16 2016-04-13 重庆大学 面向深度学习的稀疏自适应神经网络、算法及实现装置
CN107066464A (zh) * 2016-01-13 2017-08-18 奥多比公司 语义自然语言向量空间
CN106095928A (zh) * 2016-06-12 2016-11-09 国家计算机网络与信息安全管理中心 一种事件类型识别方法及装置
CN107544957A (zh) * 2017-07-05 2018-01-05 华北电力大学 一种面向商品目标词的情感倾向分析方法
CN108334605A (zh) * 2018-02-01 2018-07-27 腾讯科技(深圳)有限公司 文本分类方法、装置、计算机设备及存储介质
CN108319980A (zh) * 2018-02-05 2018-07-24 哈工大机器人(合肥)国际创新研究院 一种基于gru的递归神经网络多标签学习方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周锦峰等: "基于速度优化卷积神经网络的文本情感分类", 《计算机工程》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709493A (zh) * 2020-07-10 2020-09-25 腾讯科技(深圳)有限公司 对象分类方法、训练方法、装置、设备及存储介质
CN111709493B (zh) * 2020-07-10 2024-02-23 腾讯科技(深圳)有限公司 对象分类方法、训练方法、装置、设备及存储介质
CN111950638A (zh) * 2020-08-14 2020-11-17 厦门美图之家科技有限公司 基于模型蒸馏的图像分类方法、装置和电子设备
CN111950638B (zh) * 2020-08-14 2024-02-06 厦门美图之家科技有限公司 基于模型蒸馏的图像分类方法、装置和电子设备
CN112466297A (zh) * 2020-11-19 2021-03-09 重庆兆光科技股份有限公司 一种基于时域卷积编解码网络的语音识别方法
CN112466297B (zh) * 2020-11-19 2022-09-30 重庆兆光科技股份有限公司 一种基于时域卷积编解码网络的语音识别方法
CN112528788A (zh) * 2020-12-01 2021-03-19 重庆兆光科技股份有限公司 一种基于域不变特征和时空特征的重识别方法
CN112528788B (zh) * 2020-12-01 2023-11-21 重庆兆光科技股份有限公司 一种基于域不变特征和时空特征的重识别方法
CN113157913A (zh) * 2021-01-30 2021-07-23 暨南大学 一种基于社会新闻数据集的伦理行为判别方法
CN113688244A (zh) * 2021-08-31 2021-11-23 中国平安人寿保险股份有限公司 基于神经网络的文本分类方法、系统、设备及存储介质

Similar Documents

Publication Publication Date Title
CN110413993A (zh) 一种基于稀疏权值神经网络的语义分类方法、系统和介质
CN109271522B (zh) 基于深度混合模型迁移学习的评论情感分类方法及系统
CN109740154B (zh) 一种基于多任务学习的在线评论细粒度情感分析方法
CN110209823A (zh) 一种多标签文本分类方法及系统
CN113361664B (zh) 一种基于量子卷积神经网络的图像识别系统及方法
CN109299341A (zh) 一种基于字典学习的对抗跨模态检索方法和系统
CN106294684A (zh) 词向量的文本分类方法及终端设备
CN106445988A (zh) 一种大数据的智能处理方法和系统
CN109582782A (zh) 一种基于用弱监督深度学习的文本聚类方法
CN113407660B (zh) 非结构化文本事件抽取方法
CN109918642A (zh) 基于委员会查询的主动学习框架的情感分析方法及系统
WO2023155508A1 (zh) 一种基于图卷积神经网络和知识库的论文相关性分析方法
Xu et al. Constructing balance from imbalance for long-tailed image recognition
CN105574213A (zh) 一种基于数据挖掘技术的微博推荐方法及装置
Liu et al. A novel image retrieval algorithm based on transfer learning and fusion features
CN111813939A (zh) 一种基于表征增强与融合的文本分类方法
Xin et al. Hybrid dilated multilayer faster RCNN for object detection
CN109685103A (zh) 一种基于广义k均值算法的文本多标记学习方法
CN113204640A (zh) 一种基于注意力机制的文本分类方法
CN110674293B (zh) 一种基于语义迁移的文本分类方法
Wang et al. Image target recognition based on improved convolutional neural network
Song et al. Amazon EC2 Spot Price Prediction Using Temporal Convolution Network
Wu et al. Automatic leaf recognition based on deep convolutional networks
Hammami et al. A dynamic convolutional neural network approach for legal text classification
Zhou et al. An improved convolutional neural network model with adversarial net for multi-label image classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 400000 6-1, 6-2, 6-3, 6-4, building 7, No. 50, Shuangxing Avenue, Biquan street, Bishan District, Chongqing

Applicant after: CHONGQING ZHAOGUANG TECHNOLOGY CO.,LTD.

Address before: 400000 2-2-1, 109 Fengtian Avenue, tianxingqiao, Shapingba District, Chongqing

Applicant before: CHONGQING ZHAOGUANG TECHNOLOGY CO.,LTD.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191105