CN111401430A - 一种基于双通道深度神经网络的图像在线分类方法 - Google Patents

一种基于双通道深度神经网络的图像在线分类方法 Download PDF

Info

Publication number
CN111401430A
CN111401430A CN202010170757.0A CN202010170757A CN111401430A CN 111401430 A CN111401430 A CN 111401430A CN 202010170757 A CN202010170757 A CN 202010170757A CN 111401430 A CN111401430 A CN 111401430A
Authority
CN
China
Prior art keywords
net
network
training
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010170757.0A
Other languages
English (en)
Other versions
CN111401430B (zh
Inventor
吕建成
刘东博
贺喆南
彭玺
桑永胜
孙亚楠
黄晓明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202010170757.0A priority Critical patent/CN111401430B/zh
Publication of CN111401430A publication Critical patent/CN111401430A/zh
Application granted granted Critical
Publication of CN111401430B publication Critical patent/CN111401430B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于双通道深度神经网络的图像在线分类方法,本发明构建两个通道网络以及一个融合网络的能量网络,将训练图像数据di分别输入至两个通道网络进行训练,生成新的图像训练数据序列;将训练图像数据di+1分别加入至生成的图像训练数据序列并输入至融合网络进行训练。本发明使用双通道网络以及加入了网络修正因子φ,使得两个通道的神经网络对历史训练数据和在线添加的新数据的学习存在敏感性差异,并且能够整合两个通道网络的学习结果,弥补了深度神经网络在线学习的所有缺点,完全消除使用生成数据对网络多次训练造成的不良影响。

Description

一种基于双通道深度神经网络的图像在线分类方法
技术领域
本发明属于图像分类技术领域,尤其涉及一种基于双通道深度神经网络的图像在线分类方法。
背景技术
深度神经网络的训练通常以离线学习的方式进行,网络在训练完成后将无法使用新的数据对其进行继续训练,在线学习可以循序渐进的给网络提供训练数据,逐步积累学习成果。在线通过每次接收数据时,判断新数据是否相对于旧的数据包含了新的特征,来决定是否对新数据进行学习,这样较好的解决了重复学习全部训练样本、以及学习新数据之后旧数据的特征被覆盖的问题。但是,深度神经网络的在线学习存在着一些问题,其中最为严重的就是“灾难遗忘”问题,“灾难遗忘”是深部神经网络在线训练过程中,一旦新的数据集被用于训练现有的神经网络,网络将失去识别原始数据集的能力。
为了克服灾难性的遗忘,像L2正则化和Dropout这样的方法可以通过巩固网络内的权重最大化保留,降低某些参数上的学习率也可以减少遗忘现象,但是,这些方法的对缓解“灾难遗忘”的能力非常有限。生成性重放(GR)是一种新方法,该方法通过利用生成网络的容量而不是记录过去的经验来减轻“灾难遗忘”,在GR过程中,生成网络生成包含原始数据集信息的“存储数据”,然后,将生成的“存储器数据”作为重放知识,重新训练网络。生成网络近似于训练数据分布的能力直接决定了存储器数据的质量,影响了GR的性能,此外,使用GR的深度神经网络本身也存在一个严重的缺陷,在多次使用生成数据后,会过多加强历史数据的影响,这中为了消除“灾难遗忘”而造成的矫枉过正,同样会对深度神经网络的在线学习带来极大的影响。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于双通道深度神经网络的图像在线分类方法,弥补了深度神经网络在线学习的所有缺点。
为了达到以上目的,本发明采用的技术方案为:
本方案提供一种基于双通道深度神经网络的图像在线分类方法,包括以下步骤:
S1、构建包含Net1和Net2的两个通道网络以及一个融合网络Net3的能量网络,且所述三个网络均为基于能量的深度神经网络,并具有相同的网络结构;
S2、将训练图像数据d1,d2,d3,…,dn组成图像训练数据序列{d1,d2,d3,…,dn},其中,n表示训练图像数据集合中数据的个数;
S3、令i=1,将训练图像数据di分别输入至Net1和Net2两个通道网络进行训练;
S4、分别利用Net1和Net2的两个通道网络,生成新的图像训练数据序列{g1 1,g1 2g1 3,…,g1 m}和{g2 1,g2 2g2 3,…,g2 m},其中,m表示生成图像数据的个数;
S5、将训练图像数据di+1分别加入至所述新的图像训练数据序列,得到图像数据序列
Figure BDA0002409096480000021
Figure BDA0002409096480000022
S6、将所述图像数据序列
Figure BDA0002409096480000023
Figure BDA0002409096480000024
分别输入至Net1和Net2两个通道网络进行训练,并令i=i+1;
S7、将经步骤S6训练生成的新图像数据序列
Figure BDA0002409096480000025
Figure BDA0002409096480000026
组成图像数据序列
Figure BDA0002409096480000027
并将组成的图像数据序列D3输入至融合网络Net3进行训练;
S8、判断所述图像训练数据序列{d1,d2,d3,…,dn}中所有数据是否均被使用,若是,则完成图像的在线分类,否则,返回步骤S4。
进一步地,所述步骤S1包括以下步骤:
S101、确定含有Net1和Net2两个通道网络以及融合网络Net3的能量函数;
S102、根据下式计算得到所述能量函数中单个显层单元vi的对数似然导数
Figure BDA0002409096480000031
Figure BDA0002409096480000032
其中,logp(v)表示显层单元概率的对数,wij表示第i个和第j个神经元的连接权重,hi表示隐层第i个神经元,vj表示显层第j神经元,v表示能量网络的显层单元,p(hi=1|v)表示隐层第i个神经元值为1的概率;
S103、根据所述对数似然导数令能量网络的期望E(Net)=∑vp(v)p(hi=1|v)vj,训练数据的期望E(date)=p(hi=1|v)vi
S104、分别初始化通道网络Net1和Net2,以及融合网络Net3的网络参数W1,W2和W3,并更新参数ΔW1、ΔW2和ΔW3,从而完成对能量网络的构建,其中,W1表示能量网络Net1的初始化参数,ΔW1表示W1的更新量,W2表示能量网络Net2的初始化参数,ΔW2表示W2的更新量,W3表示能量网络Net3的初始化参数,ΔW3表示W3的更新量。
再进一步地,所述步骤S101中能量函数ε(v,h;W)的表达式如下:
ε(v,h;W)=-vTWh
v=(v1,v2,v3,...,vN)
h=(h1,h2,h3,...,hm)
其中,v表示能量网络的显层单元,N表示显层单元神经元个数,h表示能量网络的隐层单元,m表示隐层单元神经元个数,W表示网络参数。
再进一步地,所述步骤S6包括以下步骤:
S601、将所述图像数据序列
Figure BDA0002409096480000041
输入至Net1通道网络进行训练,并令i=i+1,更新初始化参数为W1’;
S602、将所述图像数据序列
Figure BDA0002409096480000042
输入至Net2通道网络进行训练,并令i=i+1,更新初始化参数为W2’。
再进一步地,所述步骤S601中更新后的参数W1’的表达式如下:
W1'=W1+ΔW1
ΔW1=p(hi=1|v)vj-∑vp(v)p(hi=1|v)vj
其中,W1表示能量网络Net1的初始化参数,ΔW1表示W1的更新量,p(hi=1|v)表示隐层第i个神经元值为1的概率,hi表示隐层第i个神经元,vj表示显层第j神经元,v表示能量网络的显层单元。
再进一步地,所述步骤S602中更新后的参数W2’的表达式如下:
W2'=W2+ΔW2'
ΔW2'=ΔW2+[φE(di)+E(D2)-E(Net2)]
Figure BDA0002409096480000043
其中,W2表示能量网络Net2的初始化参数,ΔW2表示W2的更新量,E(·)表示图像数据的期望,di表示第i个训练图像数据,D2表示能量网络Net2生成的图像数据集,n表示图像训练数据集合中数据的个数,φ表示网络修下因子,k表示生成样本的补偿参数,且k<m,k=3,m表示生成图像数据的个数,ΔW2'表示更新后的ΔW2
再进一步地,所述步骤S7中融合网络Net3训练后的参数W3'表达式如下:
W3'=W3+ΔW3
ΔW3=p(hi=1|v)vj-∑vp(v)p(hi=1|v)vj
其中,W3表示能量网络Net3的初始化参数,ΔW3表示W3的更新量,p(hi=1|v)表示隐层第i个神经元值为1的概率,hi表示隐层第i个神经元,vj表示显层第j神经元,v表示能量网络的显层单元。
本发明的有益效果:
(1)本发明提供一种基于双通道深度神经网络的图像在线分类方法,能量网络本身即是判别神经网络,又是一种生成神经网络,能使该方法可以作为任意其他判别网络或生成网络的参数训练架构,拓展性极强,从而可以使深度神经网络在线学习的效果不逊色于离线学习;
(2)本发明使用双通道网络,既消除了“灾难遗忘”的影响,又消除了使用GR方法带来的历史数据过度学习的问题;
(3)本发明在双通道网络中加入了网络修正因子φ,该因子可以使得两个通道的神经网络对历史训练图像数据和在线添加的新图像数据的学习存在敏感性差异,并且能够整合两个通道网络的学习结果,弥补了深度神经网络在线学习的所有缺点,可以完全消除使用生成数据来对网络多次训练造成的不良影响。
附图说明
图1为本发明的方法流程图。
图2为本发明的能量网络结构示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
实施例
如图1-图2所示,本发明提供了一种基于双通道深度神经网络的图像在线分类方法,其实现方法如下:
S1、构建包含Net1和Net2的两个通道网络以及一个融合网络Net3的能量网络,且三个网络均为基于能量的深度神经网络,并具有相同的网络结构;
S2、将训练图像数据d1,d2,d3,…,dn组成图像训练数据序列{d1,d2,d3,…,dn},其中,n表示训练图像数据集合中数据的个数;
S3、令i=1,将训练图像数据di分别输入至Net1和Net2两个通道网络进行训练;
S4、分别利用Net1和Net2的两个通道网络,生成新的图像训练数据序列{g1 1,g1 2g1 3,…,g1 m}和{g2 1,g2 2g2 3,…,g2 m},其中,m表示生成图像数据的个数;
S5、将训练图像数据di+1分别加入至新的图像训练数据序列,得到图像数据序列
Figure BDA0002409096480000061
Figure BDA0002409096480000062
S6、将图像数据序列
Figure BDA0002409096480000063
Figure BDA0002409096480000064
分别输入至Net1和Net2两个通道网络进行训练,并令i=i+1;
S7、将经步骤S6训练生成的新图像数据序列
Figure BDA0002409096480000065
Figure BDA0002409096480000066
组成图像数据序列
Figure BDA0002409096480000067
并将组成的图像数据序列D3输入至融合网络Net3进行训练;
S8、判断图像训练数据序列{d1,d2,d3,…,dn}中所有数据是否均被使用,若是,则完成图像的在线分类,否则,返回步骤S4。
本实施例中,步骤S1包括以下步骤:
S101、确定含有Net1和Net2两个通道网络以及融合网络Net3的能量函数;
能量函数ε(v,h;W)的表达式如下:
ε(v,h;W)=-vTWh
v=(v1,v2,v3,...,vN)
h=(h1,h2,h3,...,hm)
其中,v表示能量网络的显层单元,N表示显层单元神经元个数,h表示能量网络的隐层单元,m表示隐层单元神经元个数,W表示网络参数;
S102、根据下式计算得到能量函数中单个显层单元vi的对数似然导数
Figure BDA0002409096480000071
Figure BDA0002409096480000072
其中,logp(v)表示显层单元概率的对数,wij表示第i个和第j个神经元的连接权重,hi表示隐层第i个神经元,vj表示显层第j神经元,v表示能量网络的显层单元,p(hi=1|v)表示隐层第i个神经元值为1的概率;
S103、根据对数似然导数令能量网络的期望E(Net)=∑vp(v)p(hi=1|v)vj,训练数据的期望E(date)=p(hi=1|v)vi
S104、分别初始化通道网络Net1和Net2,以及融合网络Net3的网络参数W1,W2和W3,并更新参数ΔW1、ΔW2和ΔW3,从而完成对能量网络的构建,其中,W1表示能量网络Net1的初始化参数,ΔW1表示W1的更新量,W2表示能量网络Net2的初始化参数,ΔW2表示W2的更新量,W3表示能量网络Net3的初始化参数,ΔW3表示W3的更新量。
本实施例中,步骤S6包括以下步骤:
S601、将图像数据序列
Figure BDA0002409096480000073
输入至Net1通道网络进行训练,并令i=i+1,更新初始化参数为W1’;
更新后的参数W1’的表达式如下:
W1'=W1+ΔW1
ΔW1=p(hi=1|v)vj-∑vp(v)p(hi=1|v)vj
其中,W1表示能量网络Net1的初始化参数,ΔW1表示W1的更新量,p(hi=1|v)表示隐层第i个神经元值为1的概率,hi表示隐层第i个神经元,vj表示显层第j神经元,v表示能量网络的显层单元;
S602、将图像数据序列
Figure BDA0002409096480000081
输入至Net2通道网络进行训练,并令i=i+1,更新初始化参数为W2’;
更新后的参数W2’的表达式如下:
W2'=W2+ΔW2'
ΔW2'=ΔW2+[φE(di)+E(D2)-E(Net2)]
Figure BDA0002409096480000082
其中,W2表示能量网络Net2的初始化参数,ΔW2表示W2的更新量,E(·)表示图像数据的期望,di表示第i个训练图像数据,D2表示能量网络Net2生成的图像数据集,n表示图像训练数据集合中数据的个数,φ表示网络修下因子,k表示生成样本的补偿参数,且k<m,k=3,m表示生成图像数据的个数,ΔW2'表示更新后的ΔW2
本实施例中,融合网络Net3训练后的参数W3'表达式如下:
W3'=W3+ΔW3
ΔW3=p(hi=1|v)vj-∑vp(v)p(hi=1|v)vj
其中,W3表示能量网络Net3的初始化参数,ΔW3表示W3的更新量,p(hi=1|v)表示隐层第i个神经元值为1的概率,hi表示隐层第i个神经元,vj表示显层第j神经元,v表示能量网络的显层单元。
本实施例中,本发明在多个公开数据库中均取得目前所有深度神经网络在线学习的最优结果,其中,NORB数据集最高分类准确率为96.02%,最低准确率为95.01%;CIFAR-10数据集最高分类准确率为97.68%,最低准确率为95.34%。

Claims (7)

1.一种基于双通道深度神经网络的图像在线分类方法,其特征在于,包括以下步骤:
S1、构建包含Net1和Net2的两个通道网络以及一个融合网络Net3的能量网络,且所述三个网络均为基于能量的深度神经网络,并具有相同的网络结构;
S2、将训练图像数据d1,d2,d3,…,dn组成图像训练数据序列{d1,d2,d3,…,dn},其中,n表示训练图像数据集合中数据的个数;
S3、令i=1,将训练图像数据di分别输入至Net1和Net2两个通道网络进行训练;
S4、分别利用Net1和Net2的两个通道网络,生成新的图像训练数据序列{g1 1,g1 2g1 3,…,g1 m}和{g2 1,g2 2g2 3,…,g2 m},其中,m表示生成图像数据的个数;
S5、将训练图像数据di+1分别加入至所述新的图像训练数据序列,得到图像数据序列
Figure FDA0002409096470000011
Figure FDA0002409096470000012
S6、将所述图像数据序列
Figure FDA0002409096470000013
Figure FDA0002409096470000014
分别输入至Net1和Net2两个通道网络进行训练,并令i=i+1;
S7、将经步骤S6训练生成的新图像数据序列
Figure FDA0002409096470000015
Figure FDA0002409096470000016
组成图像数据序列
Figure FDA0002409096470000017
并将组成的图像数据序列D3输入至融合网络Net3进行训练;
S8、判断所述图像训练数据序列{d1,d2,d3,…,dn}中所有数据是否均被使用,若是,则完成图像的在线分类,否则,返回步骤S4。
2.根据权利要求1所述的基于双通道深度神经网络的图像在线分类方法,其特征在于,所述步骤S1包括以下步骤:
S101、确定含有Net1和Net2两个通道网络以及融合网络Net3的能量函数;
S102、根据下式计算得到所述能量函数中单个显层单元vi的对数似然导数
Figure FDA0002409096470000021
Figure FDA0002409096470000022
其中,logp(v)表示显层单元概率的对数,wij表示第i个和第j个神经元的连接权重,hi表示隐层第i个神经元,vj表示显层第j神经元,v表示能量网络的显层单元,p(hi=1|v)表示隐层第i个神经元值为1的概率;
S103、根据所述对数似然导数令能量网络的期望E(Net)=∑vp(v)p(hi=1|v)vj,训练数据的期望E(date)=p(hi=1|v)vi
S104、分别初始化通道网络Net1和Net2,以及融合网络Net3的网络参数W1,W2和W3,并更新参数ΔW1、ΔW2和ΔW3,从而完成对能量网络的构建,其中,W1表示能量网络Net1的初始化参数,ΔW1表示W1的更新量,W2表示能量网络Net2的初始化参数,ΔW2表示W2的更新量,W3表示能量网络Net3的初始化参数,ΔW3表示W3的更新量。
3.根据权利要求2所述的基于双通道深度神经网络的图像在线分类方法,其特征在于,所述步骤S101中能量函数ε(v,h;W)的表达式如下:
ε(v,h;W)=-vTWh
v=(v1,v2,v3,...,vN)
h=(h1,h2,h3,...,hm)
其中,v表示能量网络的显层单元,N表示显层单元神经元个数,h表示能量网络的隐层单元,m表示隐层单元神经元个数,W表示网络参数。
4.根据权利要求1所述的基于双通道深度神经网络的图像在线分类方法,其特征在于,所述步骤S6包括以下步骤:
S601、将所述图像数据序列
Figure FDA0002409096470000023
输入至Net1通道网络进行训练,并令i=i+1,更新初始化参数为W1’;
S602、将所述图像数据序列
Figure FDA0002409096470000031
输入至Net2通道网络进行训练,并令i=i+1,更新初始化参数为W2’。
5.根据权利要求4所述的基于双通道深度神经网络的图像在线分类方法,其特征在于,所述步骤S601中更新后的参数W1’的表达式如下:
W1'=W1+ΔW1
ΔW1=p(hi=1|v)vj-∑vp(v)p(hi=1|v)vj
其中,W1表示能量网络Net1的初始化参数,ΔW1表示W1的更新量,p(hi=1|v)表示隐层第i个神经元值为1的概率,hi表示隐层第i个神经元,vj表示显层第j神经元,v表示能量网络的显层单元。
6.根据权利要求4所述的基于双通道深度神经网络的图像在线分类方法,其特征在于,所述步骤S602中更新后的参数W2’的表达式如下:
W2'=W2+ΔW2'
ΔW2'=ΔW2+[φE(di)+E(D2)-E(Net2)]
Figure FDA0002409096470000032
其中,W2表示能量网络Net2的初始化参数,ΔW2表示W2的更新量,E(·)表示图像数据的期望,di表示第i个训练图像数据,D2表示能量网络Net2生成的图像数据集,n表示图像训练数据集合中数据的个数,φ表示网络修下因子,k表示生成样本的补偿参数,且k<m,k=3,m表示生成图像数据的个数,ΔW2'表示更新后的ΔW2
7.根据权利要求1所述的基于双通道深度神经网络的图像在线分类方法,其特征在于,所述步骤S7中融合网络Net3训练后的参数W3'表达式如下:
W3'=W3+ΔW3
ΔW3=p(hi=1|v)vj-∑vp(v)p(hi=1|v)vj
其中,W3表示能量网络Net3的初始化参数,ΔW3表示W3的更新量,p(hi=1|v)表示隐层第i个神经元值为1的概率,hi表示隐层第i个神经元,vj表示显层第j神经元,v表示能量网络的显层单元。
CN202010170757.0A 2020-03-12 2020-03-12 一种基于双通道深度神经网络的图像在线分类方法 Active CN111401430B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010170757.0A CN111401430B (zh) 2020-03-12 2020-03-12 一种基于双通道深度神经网络的图像在线分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010170757.0A CN111401430B (zh) 2020-03-12 2020-03-12 一种基于双通道深度神经网络的图像在线分类方法

Publications (2)

Publication Number Publication Date
CN111401430A true CN111401430A (zh) 2020-07-10
CN111401430B CN111401430B (zh) 2022-04-01

Family

ID=71432375

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010170757.0A Active CN111401430B (zh) 2020-03-12 2020-03-12 一种基于双通道深度神经网络的图像在线分类方法

Country Status (1)

Country Link
CN (1) CN111401430B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682616A (zh) * 2016-12-28 2017-05-17 南京邮电大学 基于双通道特征深度学习的新生儿疼痛表情识别方法
CN108446666A (zh) * 2018-04-04 2018-08-24 平安科技(深圳)有限公司 双通道神经网络模型训练及人脸比对方法、终端及介质
CN109145939A (zh) * 2018-07-02 2019-01-04 南京师范大学 一种小目标敏感的双通道卷积神经网络语义分割方法
CN109242089A (zh) * 2018-07-27 2019-01-18 大国创新智能科技(东莞)有限公司 递进监督深度学习神经网络训练方法、系统、介质和设备
CN109272107A (zh) * 2018-08-10 2019-01-25 广东工业大学 一种改进深层卷积神经网络的参数个数的方法
CN109522965A (zh) * 2018-11-27 2019-03-26 天津工业大学 一种基于迁移学习的双通道卷积神经网络的烟雾图像分类方法
CN109923557A (zh) * 2016-11-03 2019-06-21 易享信息技术有限公司 使用连续正则化训练联合多任务神经网络模型
US20190236817A1 (en) * 2018-01-30 2019-08-01 The Board Of Trustees Of The Leland Stanford Junior University Generalized Multi-Channel MRI Reconstruction Using Deep Neural Networks
EP3543917A1 (en) * 2018-03-19 2019-09-25 SRI International Inc. Dynamic adaptation of deep neural networks
WO2019193462A1 (en) * 2018-04-02 2019-10-10 King Abdullah University Of Science And Technology Incremental learning method through deep learning and support data
CN110826602A (zh) * 2019-10-23 2020-02-21 中国科学院自动化研究所 基于膜电位调控脉冲神经网络的图像分类方法、系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109923557A (zh) * 2016-11-03 2019-06-21 易享信息技术有限公司 使用连续正则化训练联合多任务神经网络模型
CN106682616A (zh) * 2016-12-28 2017-05-17 南京邮电大学 基于双通道特征深度学习的新生儿疼痛表情识别方法
US20190236817A1 (en) * 2018-01-30 2019-08-01 The Board Of Trustees Of The Leland Stanford Junior University Generalized Multi-Channel MRI Reconstruction Using Deep Neural Networks
EP3543917A1 (en) * 2018-03-19 2019-09-25 SRI International Inc. Dynamic adaptation of deep neural networks
WO2019193462A1 (en) * 2018-04-02 2019-10-10 King Abdullah University Of Science And Technology Incremental learning method through deep learning and support data
CN108446666A (zh) * 2018-04-04 2018-08-24 平安科技(深圳)有限公司 双通道神经网络模型训练及人脸比对方法、终端及介质
CN109145939A (zh) * 2018-07-02 2019-01-04 南京师范大学 一种小目标敏感的双通道卷积神经网络语义分割方法
CN109242089A (zh) * 2018-07-27 2019-01-18 大国创新智能科技(东莞)有限公司 递进监督深度学习神经网络训练方法、系统、介质和设备
CN109272107A (zh) * 2018-08-10 2019-01-25 广东工业大学 一种改进深层卷积神经网络的参数个数的方法
CN109522965A (zh) * 2018-11-27 2019-03-26 天津工业大学 一种基于迁移学习的双通道卷积神经网络的烟雾图像分类方法
CN110826602A (zh) * 2019-10-23 2020-02-21 中国科学院自动化研究所 基于膜电位调控脉冲神经网络的图像分类方法、系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PRIYADARSHINI PANDA;JASON M. ALLRED;SHRIRAM RAMANATHAN;KAUSHIK R: "ASP: Learning to Forget With Adaptive Synaptic Plasticity in Spiking Neural Networks", 《IEEE JOURNAL ON EMERGING AND SELECTED TOPICS IN CIRCUITS AND SYSTEMS》 *
杨长利; 刘智; 鲁明羽: "双通道混合神经网络的文本情感分析模型", 《计算机工程与应用》 *

Also Published As

Publication number Publication date
CN111401430B (zh) 2022-04-01

Similar Documents

Publication Publication Date Title
US11816183B2 (en) Methods and systems for mining minority-class data samples for training a neural network
CN108846413B (zh) 一种基于全局语义一致网络的零样本学习方法
CN113326731A (zh) 一种基于动量网络指导的跨域行人重识别算法
CN113407864B (zh) 一种基于混合注意力网络的群组推荐方法
CN113378959B (zh) 一种基于语义纠错下生成对抗网络的零样本学习方法
CN110232395A (zh) 一种基于故障中文文本的电力系统故障诊断方法
CN108509492B (zh) 基于房地产行业的大数据处理及系统
CN112967088A (zh) 基于知识蒸馏的营销活动预测模型结构和预测方法
CN108182597A (zh) 一种基于决策树和逻辑回归的点击率预估方法
CN111445010A (zh) 一种基于证据理论融合量子网络的配网电压趋势预警方法
CN114612721A (zh) 基于多层次自适应特征融合类增量学习的图像分类方法
CN113449802A (zh) 基于多粒度互信息最大化的图分类方法及装置
CN113743474A (zh) 基于协同半监督卷积神经网络的数字图片分类方法与系统
CN112069827A (zh) 一种基于细粒度主题建模的数据到文本生成方法
CN114742564A (zh) 一种融合复杂关系的虚假评论者群体检测方法
CN111401430B (zh) 一种基于双通道深度神经网络的图像在线分类方法
CN113200086A (zh) 一种智能车转向控制系统及其控制方法
CN113888538B (zh) 一种基于内存分块模型的工业异常检测方法
CN109492746A (zh) 基于ga-pso杂交算法的深度信念网络参数优化方法
Lu et al. Self-teaching networks
CN116452854A (zh) 基于宽度学习和随机敏感度的领域自适应图像分类方法
CN113138080B (zh) 基于振动孪生与极限学习的滚动轴承智能故障诊断方法
Wand et al. Fusion Architectures for Word-Based Audiovisual Speech Recognition.
CN114022739A (zh) 一种基于对齐变分自编码器与三元组结合的零样本学习方法
CN114820160A (zh) 一种借贷利率预估方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant