CN113313197A - 一种全连接神经网络训练方法 - Google Patents

一种全连接神经网络训练方法 Download PDF

Info

Publication number
CN113313197A
CN113313197A CN202110673398.5A CN202110673398A CN113313197A CN 113313197 A CN113313197 A CN 113313197A CN 202110673398 A CN202110673398 A CN 202110673398A CN 113313197 A CN113313197 A CN 113313197A
Authority
CN
China
Prior art keywords
learner
hyperplane
data set
image data
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110673398.5A
Other languages
English (en)
Other versions
CN113313197B (zh
Inventor
董航程
刘国栋
刘炳国
叶东
廖敬骁
高卓
郑远航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN202110673398.5A priority Critical patent/CN113313197B/zh
Publication of CN113313197A publication Critical patent/CN113313197A/zh
Application granted granted Critical
Publication of CN113313197B publication Critical patent/CN113313197B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

一种全连接神经网络训练方法,解决了现有针对图像分类的神经网络模型训练时的可解释性差导致性能难以提升的问题,涉及人工智能技术领域。本发明包括:S1、利用分类图像数据集训练全连接神经网络的学习器;S2、利用学习器提取分类图像数据集的分割超平面,将分类图像数据集分割出若干子空间,每个子空间内的图像数据组成当前分割层的一个子数据集,根据子空间与超平面的相对位置进行编码;S3、判断当前分割层的所有子数据集的分类结果是否满足总体指标,若是,记录对应编码及存储学习器,转入S5;若否,选出不满足设定指标的子数据集,重新分配学习器进行训练,转入S2;S5、按分割层存储学习器及对应位置编码,训练完成。

Description

一种全连接神经网络训练方法
技术领域
本发明涉及一种全连接神经网络训练方法,涉及人工智能技术领域。
背景技术
深度学习(deep learning)通过模仿大脑的神经元结构、功能与机制,来进行对人脑智能的模拟,并以此来处理、学习与解释数据,例如图像、声音、文本及图结构等,是机器学习研究的一个新兴领域。
深度学习模型是深度学习技术的核心,也是现在第三次人工智能浪潮的推动力量。目前被大规模使用的模型有如卷积神经网络(CNN)、循环神经网络(RNN)、注意力机制模型(如Transformer等)。这些深度学习模型及其各种变体,能够通过大量数据进行学习,已经在人脸识别、机器翻译等具体领域中取得了惊人的效果。
目前,深度学习的训练方法,主要采用误差反向传播(BP算法)以及结合迁移学习的思路,在这样的训练模式下,模型的具体结构参数(宽度、深度、跳跃连接、分支等)具有高度的自由度,凭借人工经验进行设计效率极低,而机器自动搜索会耗费大量算力,效率提升也较小。除此之外,许多特殊场景需要模型提供高度的可解释性,例如自动驾驶、AI智慧医疗、金融决策的图像分类中。
在图像处理领域,由于数据的往往具有极高维度,深度学习模型已经接近其性能的天花板,如何对高维度数据进行有效的建模,是深度学习技术的一大目标。但现有模型训练模式已经明显进入瓶颈期,性能难以继续提升。目前深度学习的模型设计与结构依赖人工设计,机器搜索也面临效率低下的问题;几乎所有的模型都依靠反向传播算法进行反向的参数调整。学习到的模型,如何进行决策,难以理解。
综上,现有的方案难以解释深度学习模型的运行机理,因此也难以指导模型的设计与改进。现有深度学习实践往往建立在大量的人工设计、调参的基础上,另外,由于设计的高自由度,即使使用机器搜索最优结构(NAS),再耗费大量电力、硬件资源的前提下,模型效果的提升也较小。
发明内容
针对现有针对图像分类的神经网络模型训练时的可解释性差导致性能难以提升的问题,本发明提供一种可解释的全连接神经网络训练方法。
本发明的一种全连接神经网络训练方法,所述方法包括:
S1、确定学习器和分类图像数据集,利用分类图像数据集训练学习器,所述学习器为全连接神经网络;
S2、利用学习器提取分类图像数据集的分割超平面,将分类图像数据集分割出若干子空间,每个子空间内的图像数据组成当前分割层的一个子数据集,并根据子空间与超平面的相对位置进行编码,获取每个子数据集的位置编码;
S3、判断当前分割层的所有子数据集的分类结果是否满足总体指标,若是,记录当前分割层的各子空间的对应编码,并储存每个子数据集对应的学习器,转入S5;若否,对分割出的子数据集进行筛选,选出不满足设定指标的子数据集,转入S4;
S4、对不满足设定指标的子数据集,重新分配学习器,并利用相应子数据集对该学习器进行训练,利用训练后的学习器提取子数据集的分割超平面,将对应子数据集分割出若干子空间,每个子空间内的图像数据组成当前分割层的一个子数据集,获取每个子空间与超平面的相对位置的编码,转入S3;
S5、按分割层存储学习器及对应位置编码,训练完成。
作为优选,所述学习器为单隐含层的全连接神经网络。
作为优选,子数据集及对应位置编码的获取方法包括:
隐含层有n个神经元,隐含层对应的分割超平面共有n个,分别为:
(Wjx+bj)=0
x表示输入,
Figure BDA0003119704660000021
Wj表示隐含层第j个神经元的与上一层所有神经元的连接权重,bj表示与Wj相对应的偏置,j∈{1,2,…,n};
遍历分类图像数据集或不满足设定指标的子数据集中的所有图像数据,按照以下方法获取每个图像数据的位置编码:
输入图像数据后,若隐含层的输出值大于0,表明相应数据位于超平面的正半空间,编码为1,若隐含层的输出值等于0,则相应数据位于超平面的负半空间,编码为0;
每个数据相对超平面的位置编码包括n个编码,每一种位置编码对应着一个唯一的子空间,具有相同位置编码的数据位于同一个子空间,构成子数据集。
作为优选,所述单隐含层的全连接神经网络使用ReLU激活函数、任意分段线性激活函数或任意可以被可数段分段线性函数逼近的函数。
作为优选,所述总体指标为分类准确率或回归评价指标均方误差。
作为优选,所述学习器为单隐含层多层感知机、任意具有多个隐含层的多层感知机、支持向量机或决策树。
作为优选,所述方法还包括:对按分割层存储的学习器形成的网络进行合并、等价转换、压缩或微调。
作为优选,所述S5包括:
判断训练次数是否达到设定阈值,若否,对最后分割层的子数据集,重新分配学习器,并利用相应子数据集对该学习器进行训练,利用训练后的学习器提取子数据集的分割超平面,将对应子数据集分割出若干子空间,每个子空间内的图像数据组成当前分割层的一个子数据集,获取每个子空间与超平面的相对位置的编码,转入S3,若是,按分割层存储学习器及对应编码,训练完成。
作为优选,S2或S4中,分割出的若干子空间后,将子空间的距离满足设定距离阈值的进行空间聚合。
作为优选,所述方法还包括:
S6、判断分割出的子空间是否有遗漏,判断方法为:
S5中共存储m个位置编码,遍历m个位置编码,创建该位置编码的向量:P(i)=[p1,p2,…,pn]T
Figure BDA0003119704660000031
其中,pj=±1,j∈{1,2,…,n},pj=1表示对应数据位于超平面的正半空间,pj=-1表示对应数据位于超平面的负半空间,x表示输入,
Figure BDA0003119704660000032
对第i个超平面不等式组进行判断:
max z
s.t.
Figure BDA0003119704660000033
x∈[0,1]
如果z>0,则第i个超平面不等式组不合法,否则第i个超平面不等式组合法,合法表明编码对应着一个子空间,通过判断所有位置编码是否合法,从而判断子区间是否有遗漏。
本发明的有益效果,本发明提出了一种前向构建的全连接神经网络的方法,这种构建方法使得深度学习模型首次具备完全的可解释性。在该网络中,每一层结构、每一个神经元都具有清晰的几何解释,在图像分类任务中隐含层神经元分割整个图像数据空间,每一个神经元都对应着分割图像数据空间的一个超平面。每增加一层,都是对前一层的一个子空间的进一步细分,同理是此时的神经元对应着该子空间的一个超平面,以此类推。这样对图像数据集的划分构成了一种编码,每一个编码区域都具有对应的学习器(学习器或者学习器的一部分)进行。同时当仅仅使用单隐含层的多层感知机作为学习器时,此时只有唯一结构超参数——隐含层神经元个数,这样进行启发式的搜索或者人工调整都非常简单,避免了繁杂的深度学习结构设计,同时又能取得更好的性能。另外本发明的整体结构简单,非常方便在资源受限的条件下部署与推断。
附图说明
图1为本发明的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
本实施方式的一种全连接神经网络训练方法,所述方法包括:
步骤一、确定学习器和分类图像数据集,利用分类图像数据集训练学习器,所述学习器为全连接神经网络;
本步骤中的全连接包含等价的数学操作,例如卷积操作在数学上与全连接等价,卷积本质上是一个block-toeplitz矩阵;分类图像数据集为给定的图像分类训练集,采用反向传播算法训练学习器,当单个学习器在其对应的数据集上的性能达到某个阈值或者无法继续提升时,停止;
步骤二、利用学习器提取分类图像数据集的分割超平面,将分类图像数据集分割出若干子空间,每个子空间内的图像数据组成当前分割层的一个子数据集,并根据子空间与超平面的相对位置进行编码,获取每个子数据集的位置编码;本步骤中每层分割子空间的数量为学习器中隐藏神经元的个数;
步骤三、判断当前分割层的所有子数据集的分类结果是否满足总体指标,若是,记录当前分割层的各子空间的对应编码,并储存每个子数据集对应的学习器,转入步骤五;若否,对分割出的子数据集进行筛选,选出不满足设定指标的子数据集,转入步骤四;
例如,设定指标是事先设定错误数占比阈值,例如总共分错1000个样本,设置错误数占比阈值为95%,则按各个子区间错误数量从大到小累加到大于等于占总错误数的95%为止,把累加的这些子区间筛选出来;
步骤四、对不满足设定指标的子数据集,重新分配学习器,并利用相应子数据集对该学习器进行训练,利用训练后的学习器提取子数据集的分割超平面,将对应子数据集分割出若干子空间,每个子空间内的图像数据组成当前分割层的一个子数据集,获取每个子空间与超平面的相对位置的编码,获取每个子数据集的位置编码,执行步骤三;
本步骤中将前一个部分中筛选出来的子数据集,分别训练子学习器,这样的操作等同于构建了新一层的模型。根据子数据集的数据量、复杂程度、具体任务等进行选取学习器。
步骤五、按分割层存储学习器及对应位置编码,训练完成。
步骤六:所有学习器及编码整合起来后,用于推断任务的,推断时,根据测试样本相对超平面的相对位置进行编码,根据编码找到对应的学习器进行推断。本实施方式训练完成后的学习器可以用于各种场景下的推断。
本实施方式使得深度学习模型首次具备完全的可解释性。在图像分类任务中分割整个图像数据空间,学习器的每一个神经元都对应着分割图像数据空间的一个超平面。每增加一层,都是对前一层的一个子空间的进一步细分,同理是此时的神经元对应着该子空间的一个超平面,以此类推。这样对图像数据集的划分构成了一种编码,每一个编码区域都具有对应的学习器进行。
本实施方式分割出的若干子空间后,将子空间的距离满足设定距离阈值的进行空间聚合。
本实施方式中的学习器为单隐含层的全连接神经网络,其中步骤二和步骤四中子数据集及对应位置编码的获取方法包括:
隐含层有n个神经元,使用ReLU激活函数(任何分段线性函数都一样),隐含层对应的分割超平面共有n个,分别为:
(Wjx+bj)=0
x表示输入,
Figure BDA0003119704660000051
Wj表示隐含层第j个神经元的与上一层所有神经元的连接权重,bj表示与Wj相对应的偏置,j∈{1,2,…,n};
遍历分类图像数据集或不满足设定指标的子数据集中的所有图像数据,按照以下方法获取每个图像数据的位置编码:
输入图像数据后,若隐含层的输出值大于0,表明相应数据位于超平面的正半空间,编码为1,若隐含层的输出值等于0,则相应数据位于超平面的负半空间,编码为0;
例如当n=5时,一种可能的位置关系为[0,1,1,0,1],这就是该样本所对应线性区间的编码;
每个数据相对超平面的位置编码包括n个编码,每一种位置编码对应着一个唯一的子空间,具有相同位置编码的数据位于同一个子空间,构成子数据集。
本实施方式中的单隐含层的全连接神经网络使用ReLU激活函数、任意分段线性激活函数或任意可以被可数段分段线性函数逼近的函数。
本实施方式中总体指标为分类准确率或回归评价指标均方误差,其他类似指标也可以。
本实施方式中学习器为单隐含层多层感知机、任意具有多个隐含层的多层感知机、支持向量机或决策树。
本实施方式还包括:对按分割层存储的学习器形成的网络进行合并、等价转换、压缩或微调等等不显著改变模型性能的操作。对MLP可以使用决策边界进行表示,从而依靠决策边界表示,重新构造等价的网络,这个等价网络,性能和原来完全一样,但是模型参数会小很多;压缩之后的网络,可以用于硬件场景的部署,例如单片机、FPGA等;
本实施方式的步骤五包括:
判断训练次数是否达到设定阈值,若否,对最后分割层的子数据集,重新分配学习器,并利用相应子数据集对该学习器进行训练,利用训练后的学习器提取子数据集的分割超平面,将对应子数据集分割出若干子空间,每个子空间内的图像数据组成当前分割层的一个子数据集,获取每个子空间与超平面的相对位置的编码,转入S3,若是,按分割层存储学习器及对应编码,训练完成。
本步骤根据实际需求,设定训练次数阈值,再没有达到阈值之前,可以重复分割、选取学习器、训练,从而以前向的方式构建多层结构。
本实施方式还包括完备性检验:由于本实施方式训练方法采用了宽度-深度解耦的设计理念,宽度对应着训练MLP之后的分割过程,MLP采用单隐含层结构,n个单隐含层对应着n个分割超平面,这n个分割超平面构成模型每一层的宽度),深度对应着筛选再训练过程,每次筛选之后,要对不符合要求的子数据集重新训练MLP,这就相当于加深了一层,本实施方式训练后的全连接神经网路可以高效的检验所有线性区间是否都被找到。传统的解释方法中,寻找线性区间要依靠对训练集样本进行遍历,这对完全的可解释性,本实施方式的训练方法可以直接遍历所有的线性区间,通过合法性检验,来判断该线性区间是否合法,从而彻底消除隐患。具体方法为:
对于单隐含层的MLP,步骤五中共存储m个位置编码,遍历m个位置编码,创建该位置编码的向量:P(i)=[p1,p2,…,pn]T
Figure BDA0003119704660000071
其中,pj=±1,j∈{1,2,…,n},pj=1表示对应数据位于超平面的正半空间,pj=-1表示对应数据位于超平面的负半空间,x表示输入,
Figure BDA0003119704660000072
对第i个超平面不等式组进行判断:
max z
s.t.
Figure BDA0003119704660000073
x∈[0,1]
如果z>0,则第i个超平面不等式组不合法,否则第i个超平面不等式组合法,合法表明编码对应着一个子空间,通过判断所有位置编码是否合法,从而判断子区间是否有遗漏。
虽然在本文中参照了特定的实施方式来描述本发明,但是应该理解的是,这些实施例仅仅是本发明的原理和应用的示例。因此应该理解的是,可以对示例性的实施例进行许多修改,并且可以设计出其他的布置,只要不偏离所附权利要求所限定的本发明的精神和范围。应该理解的是,可以通过不同于原始权利要求所描述的方式来结合不同的从属权利要求和本文中所述的特征。还可以理解的是,结合单独实施例所描述的特征可以使用在其他所述实施例中。

Claims (10)

1.一种全连接神经网络训练方法,其特征在于,所述方法包括:
S1、确定学习器和分类图像数据集,利用分类图像数据集训练学习器,所述学习器为全连接神经网络;
S2、利用学习器提取分类图像数据集的分割超平面,将分类图像数据集分割出若干子空间,每个子空间内的图像数据组成当前分割层的一个子数据集,并根据子空间与超平面的相对位置进行编码,获取每个子数据集的位置编码;
S3、判断当前分割层的所有子数据集的分类结果是否满足总体指标,若是,记录当前分割层的各子空间的对应编码,并储存每个子数据集对应的学习器,转入S5;若否,对分割出的子数据集进行筛选,选出不满足设定指标的子数据集,转入S4;
S4、对不满足设定指标的子数据集,重新分配学习器,并利用相应子数据集对该学习器进行训练,利用训练后的学习器提取子数据集的分割超平面,将对应子数据集分割出若干子空间,每个子空间内的图像数据组成当前分割层的一个子数据集,获取每个子空间与超平面的相对位置的编码,转入S3;
S5、按分割层存储学习器及对应位置编码,训练完成。
2.根据权利要求1所述的一种全连接神经网络训练方法,其特征在于,所述学习器为单隐含层的全连接神经网络。
3.根据权利要求2所述的一种全连接神经网络训练方法,其特征在于,子数据集及对应位置编码的获取方法包括:
隐含层有n个神经元,隐含层对应的分割超平面共有n个,分别为:
(Wjx+bj)=0
x表示输入,
Figure FDA0003119704650000011
Wj表示隐含层第j个神经元的与上一层所有神经元的连接权重,bj表示与Wj相对应的偏置,j∈{1,2,…,n};
遍历分类图像数据集或不满足设定指标的子数据集中的所有图像数据,按照以下方法获取每个图像数据的位置编码:
输入图像数据后,若隐含层的输出值大于0,表明相应数据位于超平面的正半空间,编码为1,若隐含层的输出值等于0,则相应数据位于超平面的负半空间,编码为0;
每个数据相对超平面的位置编码包括n个编码,每一种位置编码对应着一个唯一的子空间,具有相同位置编码的数据位于同一个子空间,构成子数据集。
4.根据权利要求2所述的一种全连接神经网络训练方法,其特征在于,所述单隐含层的全连接神经网络使用ReLU激活函数、任意分段线性激活函数或任意可以被可数段分段线性函数逼近的函数。
5.根据权利要求2所述的一种全连接神经网络训练方法,其特征在于,所述总体指标为分类准确率或回归评价指标均方误差。
6.根据权利要求2所述的一种全连接神经网络训练方法,其特征在于,所述学习器为单隐含层多层感知机、任意具有多个隐含层的多层感知机、支持向量机或决策树。
7.根据权利要求2所述的一种全连接神经网络训练方法,其特征在于,所述方法还包括:对按分割层存储的学习器形成的网络进行合并、等价转换、压缩或微调。
8.根据权利要求1所述的一种全连接神经网络训练方法,其特征在于,所述S5包括:
判断训练次数是否达到设定阈值,若否,对最后分割层的子数据集,重新分配学习器,并利用相应子数据集对该学习器进行训练,利用训练后的学习器提取子数据集的分割超平面,将对应子数据集分割出若干子空间,每个子空间内的图像数据组成当前分割层的一个子数据集,获取每个子空间与超平面的相对位置的编码,转入S3,若是,按分割层存储学习器及对应编码,训练完成。
9.根据权利要求1所述的一种全连接神经网络训练方法,其特征在于,S2或S4中,分割出的若干子空间后,将子空间的距离满足设定距离阈值的进行空间聚合。
10.根据权利要求1所述的一种全连接神经网络训练方法,其特征在于,所述方法还包括:
S6、判断分割出的子空间是否有遗漏,判断方法为:
S5中共存储m个位置编码,遍历m个位置编码,创建该位置编码的向量:P(i)=[p1,p2,…,pn]T
Figure FDA0003119704650000021
其中,pj=±1,j∈{1,2,…,n},pj=1表示对应数据位于超平面的正半空间,pj=-1表示对应数据位于超平面的负半空间,x表示输入,
Figure FDA0003119704650000022
对第i个超平面不等式组进行判断:
max z
Figure FDA0003119704650000023
x∈[0,1]
如果z>0,则第i个超平面不等式组不合法,否则第i个超平面不等式组合法,合法表明编码对应着一个子空间,通过判断所有位置编码是否合法,从而判断子区间是否有遗漏。
CN202110673398.5A 2021-06-17 2021-06-17 一种全连接神经网络训练方法 Active CN113313197B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110673398.5A CN113313197B (zh) 2021-06-17 2021-06-17 一种全连接神经网络训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110673398.5A CN113313197B (zh) 2021-06-17 2021-06-17 一种全连接神经网络训练方法

Publications (2)

Publication Number Publication Date
CN113313197A true CN113313197A (zh) 2021-08-27
CN113313197B CN113313197B (zh) 2022-06-10

Family

ID=77379436

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110673398.5A Active CN113313197B (zh) 2021-06-17 2021-06-17 一种全连接神经网络训练方法

Country Status (1)

Country Link
CN (1) CN113313197B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102063627A (zh) * 2010-12-31 2011-05-18 宁波大学 基于多小波变换的自然图像和计算机生成图像的识别方法
CN105528601A (zh) * 2016-02-25 2016-04-27 华中科技大学 基于接触式传感器的身份证图像采集、识别系统及采集识别方法
US20160321540A1 (en) * 2015-04-28 2016-11-03 Qualcomm Incorporated Filter specificity as training criterion for neural networks
CN106650804A (zh) * 2016-12-13 2017-05-10 深圳云天励飞技术有限公司 一种基于深度学习特征的人脸样本清洗方法及系统
US20170140260A1 (en) * 2015-11-17 2017-05-18 RCRDCLUB Corporation Content filtering with convolutional neural networks
CN107133653A (zh) * 2017-05-23 2017-09-05 西安电子科技大学 一种基于深度阶梯网络的高分辨sar图像分类方法
CN108122562A (zh) * 2018-01-16 2018-06-05 四川大学 一种基于卷积神经网络和随机森林的音频分类方法
CN109753566A (zh) * 2019-01-09 2019-05-14 大连民族大学 基于卷积神经网络的跨领域情感分析的模型训练方法
CN109949317A (zh) * 2019-03-06 2019-06-28 东南大学 基于逐步对抗学习的半监督图像实例分割方法
CN110163884A (zh) * 2019-05-17 2019-08-23 温州大学 一种基于全连接深度学习神经网络的单个图像分割方法
CN110377686A (zh) * 2019-07-04 2019-10-25 浙江大学 一种基于深度神经网络模型的地址信息特征抽取方法
CN110648298A (zh) * 2019-11-01 2020-01-03 中国工程物理研究院流体物理研究所 一种基于深度学习的光学像差畸变校正方法及系统
CN111524140A (zh) * 2020-04-21 2020-08-11 广东职业技术学院 基于cnn和随机森林法的医学图像语义分割方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102063627A (zh) * 2010-12-31 2011-05-18 宁波大学 基于多小波变换的自然图像和计算机生成图像的识别方法
US20160321540A1 (en) * 2015-04-28 2016-11-03 Qualcomm Incorporated Filter specificity as training criterion for neural networks
US20170140260A1 (en) * 2015-11-17 2017-05-18 RCRDCLUB Corporation Content filtering with convolutional neural networks
CN105528601A (zh) * 2016-02-25 2016-04-27 华中科技大学 基于接触式传感器的身份证图像采集、识别系统及采集识别方法
CN106650804A (zh) * 2016-12-13 2017-05-10 深圳云天励飞技术有限公司 一种基于深度学习特征的人脸样本清洗方法及系统
CN107133653A (zh) * 2017-05-23 2017-09-05 西安电子科技大学 一种基于深度阶梯网络的高分辨sar图像分类方法
CN108122562A (zh) * 2018-01-16 2018-06-05 四川大学 一种基于卷积神经网络和随机森林的音频分类方法
CN109753566A (zh) * 2019-01-09 2019-05-14 大连民族大学 基于卷积神经网络的跨领域情感分析的模型训练方法
CN109949317A (zh) * 2019-03-06 2019-06-28 东南大学 基于逐步对抗学习的半监督图像实例分割方法
CN110163884A (zh) * 2019-05-17 2019-08-23 温州大学 一种基于全连接深度学习神经网络的单个图像分割方法
CN110377686A (zh) * 2019-07-04 2019-10-25 浙江大学 一种基于深度神经网络模型的地址信息特征抽取方法
CN110648298A (zh) * 2019-11-01 2020-01-03 中国工程物理研究院流体物理研究所 一种基于深度学习的光学像差畸变校正方法及系统
CN111524140A (zh) * 2020-04-21 2020-08-11 广东职业技术学院 基于cnn和随机森林法的医学图像语义分割方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
HANGCHENG DONG 等: "How to Explain Neural Networks: an Approximation Perspective", 《ARXVI.ORG》 *
HANGCHENG DONG 等: "How to Explain Neural Networks: an Approximation Perspective", 《ARXVI.ORG》, 31 May 2021 (2021-05-31), pages 1 - 9 *
昌杰: "基于深度神经网络的肿瘤图像分析与处理", 《中国博士学位论文电子期刊网 医药卫生科技辑》 *
昌杰: "基于深度神经网络的肿瘤图像分析与处理", 《中国博士学位论文电子期刊网 医药卫生科技辑》, 15 August 2019 (2019-08-15), pages 072 - 8 *
董航程: "基于径向基函数的自编码器算法研究", 《中国优秀硕士论文电子期刊网 信息科技辑》 *
董航程: "基于径向基函数的自编码器算法研究", 《中国优秀硕士论文电子期刊网 信息科技辑》, 15 February 2020 (2020-02-15), pages 138 - 1663 *

Also Published As

Publication number Publication date
CN113313197B (zh) 2022-06-10

Similar Documents

Publication Publication Date Title
Chen et al. Automatic design of hierarchical Takagi–Sugeno type fuzzy systems using evolutionary algorithms
Bajic et al. Machine learning techniques for smart manufacturing: Applications and challenges in industry 4.0
CN111612134B (zh) 神经网络结构搜索方法、装置、电子设备及存储介质
CN110728360A (zh) 一种基于bp神经网络的微能源器件能量识别方法
US8706670B2 (en) Relative variable selection system and selection method thereof
CN116245019A (zh) 一种基于Bagging抽样及改进随机森林算法的负荷预测方法、系统、装置及存储介质
CN115062709A (zh) 模型优化方法、装置、设备、存储介质及程序产品
Yedjour Extracting classification rules from artificial neural network trained with discretized inputs
CN117574776A (zh) 一种面向任务规划的模型自学习优化方法
CN113313197B (zh) 一种全连接神经网络训练方法
Mund et al. Active online confidence boosting for efficient object classification
CN111897809A (zh) 一种基于生成对抗网络的指挥信息系统数据生成方法
Abolkarlou et al. Ensemble imbalance classification: Using data preprocessing, clustering algorithm and genetic algorithm
Abeyrathna et al. Adaptive continuous feature binarization for tsetlin machines applied to forecasting dengue incidences in the Philippines
Kanan et al. Reduction of neural network training time using an adaptive fuzzy approach in real time applications
CN116485021A (zh) 一种煤炭企业技术技能人才人岗匹配预测方法与系统
CN112738724B (zh) 一种区域目标人群的精准识别方法、装置、设备和介质
Yu et al. Auto graph encoder-decoder for model compression and network acceleration
KR20230119464A (ko) 계층적 다중 레이블 기반 단계별 심층신경망 척도 학습 및 이를 이용한 퓨샷 추론 방법, 서버 및 시스템
Peng et al. Fuzzy matching of OpenAPI described REST services
KR102134324B1 (ko) 인공 신경망 규칙 추출 장치 및 방법
Pathan An Approach to Decision Tree Induction for Classification
Zeraliu Comparison of ensemble-based feature selection methods for binary classification of imbalanced data sets
Pabitha et al. An efficient approach to escalate the speed of training convolution neural networks
Tran et al. Enhancing Neural Network Decision-Making with Variational Autoencoders

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant