CN107316061B - 一种深度迁移学习的不平衡分类集成方法 - Google Patents

一种深度迁移学习的不平衡分类集成方法 Download PDF

Info

Publication number
CN107316061B
CN107316061B CN201710480452.8A CN201710480452A CN107316061B CN 107316061 B CN107316061 B CN 107316061B CN 201710480452 A CN201710480452 A CN 201710480452A CN 107316061 B CN107316061 B CN 107316061B
Authority
CN
China
Prior art keywords
network
target
samples
deep
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710480452.8A
Other languages
English (en)
Other versions
CN107316061A (zh
Inventor
陈琼
徐洋洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201710480452.8A priority Critical patent/CN107316061B/zh
Publication of CN107316061A publication Critical patent/CN107316061A/zh
Application granted granted Critical
Publication of CN107316061B publication Critical patent/CN107316061B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开的一种深度迁移学习的不平衡分类集成方法,包括以下步骤:建立辅助数据集;构建辅助深度网络模型和目标深度网络模型;训练辅助深度网络;将辅助深度网络的结构和参数迁移到目标深度网络;计算auprc值的乘积作为分类器的权值,对各个迁移分类器的分类结果加权集成,得到集成分类结果,作为集成分类器输出。本发明的方法,改进的平均精度方差损失函数APE和平均精度交叉熵损失函数APCE,在计算样本的损失代价时,动态调整样本的权值,对多数类样本赋予较少的权值,对少数类样本赋予更多的权值,由此训练得到的深度网络对少数类样本更加重视,更适用于不平衡数据的分类问题。

Description

一种深度迁移学习的不平衡分类集成方法
技术领域
本发明涉及机器学习中的深度学习、迁移学习和不平衡分类领域,尤其涉及到一种深度迁移学习的不平衡分类集成方法。
背景技术
传统的数据分类方法把不同类型的数据同等看待,致力于提高整体的分类准确度。但现实中存在很多数据分布不平衡的情况,因为有些样本或者是较少出现或者是收集代价高,使得某一类样本数量远远少于其它类样本数量,如疾病检测、破产预估、市场客户流失预测、软件缺陷预测等。这些情况下的异常数据类(少数类)只占正常数据类(多数类)的10%到20%,分布不平衡,甚至极度不平衡。传统的分类方法大多以数据分布基本均衡作为前提,以样本总体的分类准确率作为目标,这对要从庞大的样本中,寻找少量的异常样本的不平衡分类问题并不合适,因为当少数的异常样本都没有被正确识别时,总体分类准确率也可以很高。当数据分布不平衡,特别是错分类代价不同,错分少数类样本代价很高时,正确区分少数类样本显得尤其重要。因此不平衡数据分类问题成为备受关注的研究内容。
深度网络可以有效地提取数据的特征,迁移学习能够利用已经存在的相关任务或数据域的有标记数据处理目标任务或目标领域的问题。深度学习与迁移学习的结合称为深度迁移学习(Deep Transfer Learning,DTL),将相关领域数据训练的深度模型重用于目标领域,能够有效提取数据特征,提高对不平衡数据的分类能力。
深度迁移学习利用相关领域的辅助数据建立深度网络模型,通过深度网络学习相关领域辅助数据特征,将学习的辅助深度网络结构和特征迁移到目标领域。现有深度迁移学习存在不足:首先,特征迁移可能为目标学习带来好处,同时也可能是负特征迁移而影响目标学习;其次,深度网络结构迁移方法的选择,使得学习的过程耗费大量的时间和空间代价。深度迁移学习的集成方法可以解决深度网络结构迁移选择问题,使学习代价降到最低;同时,减少负特征迁移的影响,使正向特征迁移发挥最大作用。但由辅助数据学习到的深度网络迁移得到的分类器可能会倾向多数类,简单的集成可能会对分类器的倾向产生叠加效果,使得最终的集成分类器过度倾向多数类,无法实现不平衡分类的目标,因此本发明提出了一种用于不平衡数据分类的深度迁移集成方法。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种深度迁移学习的不平衡分类集成方法。
为实现上述目的,本发明所提供的技术方案为:
一种深度迁移学习的不平衡分类集成方法(Ensemble of Unbalanced DeepTransfer,EUDT),包括以下步骤:
(1)建立辅助数据集:
根据目标数据的特性,选择或者采集与目标任务相关的数据组成辅助数据集;
(2)构建辅助深度网络模型和目标深度网络模型:
确定深度网络的结构,构建辅助深度网络模型和目标深度网络模型;
(3)训练辅助深度网络:
(3-1)利用无标签的辅助数据样本对栈式自编码器进行预训练;
(3-2)利用有标签的辅助数据样本对步骤(3-1)训练得到的网络参数进行调整;
(4)将辅助深度网络的结构和参数迁移到目标深度网络:
(4-1)将辅助深度网络中的一个或多个隐含层迁移到目标深度网络,迁移的隐含层不同可得到不同的迁移合成目标网络;
(4-2)使用APE或者APCE作为损失函数,利用目标数据对迁移合成的各个目标网络中的一个或多个隐含层进行训练,得到若干个不同的迁移分类器;
(5)各迁移分类器的集成:
用步骤(4-2)的迁移分类器的分类结果计算auprc值的乘积作为分类器的权值,对各个迁移分类器的分类结果加权集成,得到集成分类结果,作为集成分类器输出。
步骤(1)中,所述辅助数据集是否与目标任务相关是通过经验判断。如数字识别问题,目标任务是识别某个数据集的数字变体,可选择其它的数字数据集作为辅助数据集。
步骤(2)中,所述深度网络模型为栈式降噪自编码器(Stacked DenoisingAutoencoders,SDA),栈式降噪自编码器的每一个隐含层都是一个降噪自编码器,设置深层网络的激活函数为Sigmoid函数。
所述步骤(3)具体为:
将辅助深度网络的训练过程分为两个阶段,分别是无监督的预训练阶段和有监督的微调阶段:
A、预训练阶段先利用不带标签的数据进行降噪自编码器的训练,并将降噪自编码器中编码层的输出作为下一个自编码器的输入,将训练得到的自编码器中的编码部分依次堆叠得到最终的栈式网络结构,其输出的特征是无监督学习特征;单个自编码器的训练公式如下:
x=x+noise
encoder_layer=Sigmoid(Wx+b);
decoder_layer=Sigmoid(W'x+b')
其中,x为训练样本,noise为噪声,encoder_layer为编码层,decoder_layer为解码层,Sigmoid为激活函数,W为编码器网络权值参数,b为编码器网络偏移量;W′为解码器网络权值参数;b′为解码器网络偏移量;
B、在栈式网络结构的顶端加上一个分类器,根据样本的类标对整个网络的参数进行调整,此过程为有监督的微调阶段,由此得到的数据特征为监督学习特征。
所述步骤(4)具体为:
将辅助深度网络的结构和参数迁移到目标深度网络包括两步:
a、将辅助深度网络隐含层迁移到目标深度网络;迁移的对象包括任一隐含层、连续的若干个隐含层、整个网络的所有隐含层中的一种;
b、用APE和APCE作为损失函数,利用目标数据对迁移合成的各个目标网络进行训练得到目标分类器,训练过程可“冻结”目标网络中的部分隐含层,即不改变该部分隐含层参数的数值;
损失函数APE和APCE的计算公式如下:
Figure GDA0002512908320000041
Figure GDA0002512908320000042
其中,M表示样本总数,N表示多数类样本的个数,P表示少数类样本个数,N+P=M且N>P,O表示输出层的神经元个数。auprc表示precision-recall曲线下的面积,precision-recall曲线是以recall为横坐标,precision为纵坐标,根据不同分类阈值下的precision和recall值绘制而成的曲线。当C=N时,auprcC表示多数类的auprc值;当C=P时,auprcC表示少数类的auprc值。
Figure GDA0002512908320000051
表示样本i在输出神经元j的期望输出;
Figure GDA0002512908320000052
表示样本i在输出神经元j的实际输出。
平均精度表示不同分类阈值下,不同召回率所对应的不同精度的均值,可用平均精度
Figure GDA0002512908320000053
计算auprc值:
Figure GDA0002512908320000054
Figure GDA0002512908320000055
其中,r(k)表示第k个分类阈值对应的召回率,p(k)表示第k个分类阈值对应的精度。
APE和APCE是应用于不平衡数据特征学习的深度网络的损失函数,APE是改进的平均精度方差损失函数,APCE是改进的平均精度交叉熵损失函数,利用auprc值实现对不同类别的样本的区别对待,在计算样本的损失代价时,动态调整样本的权值,对多数类样本赋予较少的权值,对少数类样本赋予更多的权值,由此训练得到的网络对少数类样本更加重视;
在步骤a中选择不同的隐含层迁移,或者在步骤b中选择局部网络层进行参数调整,可迁移学习得到不同的分类器;由于目标数据的深度网络由辅助数据迁移学习得到,各个分类器的分类结果存在差异,或者偏向少数类,或者偏向多数类,甚至产生负迁移的现象。
步骤(5)中,所述集成分类结果由下面的公式计算:
Figure GDA0002512908320000056
其中,
Figure GDA0002512908320000057
表示目标样本经过分类器G后,由分类结果计算得到的类c的auprc值;PG(y|x)表示经过分类器G后y的后验概率。对各个分类器加权集成,能够有效缓解单个分类器的严重倾斜问题,避免集成分类器受到单个分类器的过度影响,减轻不平衡分类结果的过度倾斜。
本发明与现有技术相比,具有如下优点与有益效果:
1、针对不平衡数据的分类问题,本发明提出了改进的平均精度方差损失函数APE和平均精度交叉熵损失函数APCE,在计算样本的损失代价时,动态调整样本的权值,对多数类样本赋予较少的权值,对少数类样本赋予更多的权值,由此训练得到的深度网络对少数类样本更加重视,更适用于不平衡数据的分类问题。
2、对于训练数据不足的目标任务,利用辅助数据进行迁移学习,将辅助网络的结构及提取的特征迁移到目标数据上,能够节省目标网络的训练时间,有效提高模型的分类效果。
3、迁移辅助网络中不同的隐含层可得到不同的目标分类器,实现对辅助数据集的不同特征的学习。将各个目标分类器的结果集成,可节省选择最优迁移方式所耗费的大量时间代价与计算代价,避免负特征迁移,提高分类器的分类能力。
4、本发明利用辅助数据集学习数据特征和深度网络结构,迁移到目标深度网络,使目标网络能利用辅助数据的特征;用改进的损失函数,提高少数类的权值,训练迁移的目标深度网络,能够更为有效地学习目标数据的特征,故在不平衡数据分类时能有效提高对少数类的识别,提高分类性能。因而本方法具有实际应用价值,值得推广。
附图说明
图1为本发明所述一种深度迁移学习的不平衡分类集成方法的流程图。
图2a为图1所述方法的目标数据实例图;图2b为图1所述方法的辅助数据实例图。
图3为图1所述方法的深度网络迁移学习示意图。
图4为图1所述方法的集成分类器模型结构图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
下面以识别Chars74K数据集中的数字“1”为例,对本发明方法不平衡深度迁移集成方法EUDT进行具体说明,本实施例所述的不平衡深度迁移集成方法的框架如图1所示,其具体情况如下:
步骤1)中将Chars74K数据集中数字“1”的样本设置为目标数据的正类(102个),其余图片设置为目标数据的负类(918个)。在现存的公共数据集中选择与目标任务相关的数据MNIST数据集作为辅助数据,将MNIST数据集中数字“1”的样本设置为辅助数据的正类(6742个),其余图片设置为辅助数据的负类(53258个)。目标数据和辅助数据样例图像分别如图2a、2b所示,单个样例的图片分辨率为28*28。
步骤2)中设置深度网络的输入节点个数为28*28=784,输出节点个数为2,包含3个隐含层,3个隐含层神经元个数分别为[576,400,256]。使用批量梯度下降算法训练深度网络,每一个批次包含100个训练样本,预训练阶段设置25个epochs(epoch表示遍历所有批次的训练样本的一次正反向传递过程),设置梯度下降算法的学习率为0.001;微调阶段设置1000个epochs,设置梯度下降算法的学习率为0.1。进行微调时,若代价函数下降差值小于0.001,则提前终止;否则,直到1000个epochs完成。本方法使用Python3.5实现,基于Tensorflow深度学习框架,使用Keras高层神经网络API,实验运行的GPU型号为NVIDIAGeForce GTX 1060,3GB显存。
步骤3)利用步骤1)得到的辅助数据集和步骤2)所设置的网络结构参数训练辅助网络。
步骤4)将辅助网络的结构迁移到目标网络,具体的迁移方法如图3所示。在步骤4-1)中选择不同的迁移,或者在步骤4-2)中选择不同的隐含层进行参数调整可得到不同的六种迁移分类器,迁移分类器分别通过以下方式得到(图3只展示了T1~T3分类器的迁移学习过程):
T1分类器:迁移辅助网络的一层隐含层,利用目标数据对目标网络的所有隐含层进行调整;
T2分类器:迁移辅助网络的二层隐含层,利用目标数据对目标网络的所有隐含层进行调整;
T3分类器:迁移辅助网络的所有隐含层,利用目标数据对目标网络的所有隐含层进行调整;
T4分类器:迁移辅助网络的所有隐含层,利用目标数据对目标网络的二层隐含层进行调整;
T5分类器:迁移辅助网络的所有隐含层,利用目标数据对目标网络的一层隐含层进行调整;
T6分类器:迁移辅助网络的所有隐含层,不利用目标数据对目标网络进行调整。
步骤5)计算通过步骤4-2)得到的六个迁移分类器的auprc值乘积作为分类器权值,将所有不平衡分类器结果进行集成,得到最终的分类结果,输出集成分类器模型结果如图4所示。其它数字的识别方法类似此方法。
综上所述,本发明是一种基于深度迁移学习的不平衡分类集成方法,利用辅助数据集学习数据特征和深度网络结构,迁移到目标深度网络,使目标网络能利用辅助数据的特征;用改进的损失函数,提高少数类的权值,训练迁移的目标深度网络,能够更为有效地学习目标数据的特征,故在不平衡数据分类时能有效提高对少数类的识别,提高分类性能。因而本方法具有实际应用价值,值得推广。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.一种深度迁移学习的不平衡分类集成方法,其特征在于,应用于图像数据,包括以下步骤:
(1)建立辅助数据集:
根据目标数据的特性,选择或者采集与目标任务相关的数据组成辅助数据集;
(2)构建辅助深度网络模型和目标深度网络模型:
确定深度网络的结构,构建辅助深度网络模型和目标深度网络模型;
(3)训练辅助深度网络:
(3-1)利用无标签的辅助数据样本对栈式自编码器进行预训练;
(3-2)利用有标签的辅助数据样本对步骤(3-1)训练得到的网络参数进行调整;
(4)将辅助深度网络的结构和参数迁移到目标深度网络:
(4-1)将辅助深度网络中的一个或多个隐含层迁移到目标深度网络,迁移的隐含层不同能够得到不同的迁移合成目标网络;
(4-2)使用APE或者APCE作为损失函数,利用目标数据对迁移合成的各个目标网络中的一个或多个隐含层进行训练,得到若干个不同的迁移分类器;
所述步骤(4)具体为:
将辅助深度网络的结构和参数迁移到目标深度网络包括两步:
a、将辅助深度网络隐含层迁移到目标深度网络;迁移的对象包括任一隐含层、连续的若干个隐含层、整个网络的所有隐含层中的一种;
b、用APE和APCE作为损失函数,利用目标数据对迁移合成的各个目标网络进行训练得到目标分类器,训练过程能够“冻结”目标网络中的部分隐含层,即不改变该部分隐含层参数的数值;
损失函数APE和APCE的计算公式如下:
Figure FDA0002512908310000011
Figure FDA0002512908310000021
其中,M表示样本总数,N表示多数类样本的个数,P表示少数类样本个数,N+P=M且N>P,O表示输出层的神经元个数;auprc表示precision-recall曲线下的面积,precision-recall曲线是以recall为横坐标,precision为纵坐标,根据不同分类阈值下的precision和recall值绘制而成的曲线;当C=N时,auprcC表示多数类的auprc值;当C=P时,auprcC表示少数类的auprc值;
Figure FDA0002512908310000022
表示样本i在输出神经元j的期望输出;
Figure FDA0002512908310000023
表示样本i在输出神经元j的实际输出;
平均精度表示不同分类阈值下,不同召回率所对应的不同精度的均值;用平均精度
Figure FDA0002512908310000024
计算auprc值:
Figure FDA0002512908310000025
Figure FDA0002512908310000026
其中,r(k)表示第k个分类阈值对应的召回率,p(k)表示第k个分类阈值对应的精度;
APE和APCE是应用于不平衡数据特征学习的深度网络的损失函数,APE是改进的平均精度方差损失函数,APCE是改进的平均精度交叉熵损失函数,利用auprc值实现对不同类别的样本的区别对待,在计算样本的损失代价时,动态调整样本的权值,对多数类样本赋予较少的权值,对少数类样本赋予更多的权值,由此训练得到的网络对少数类样本更加重视;
在步骤a中选择不同的隐含层迁移,或者在步骤b中选择局部网络层进行参数调整,通过迁移学习得到不同的分类器;由于目标数据的深度网络由辅助数据迁移学习得到,各个分类器的分类结果存在差异,或者偏向少数类,或者偏向多数类,甚至产生负迁移的现象;
(5)各迁移分类器的集成:
用步骤(4-2)的迁移分类器的分类结果计算auprc值的乘积作为分类器的权值,对各个迁移分类器的分类结果加权集成,得到集成分类结果,作为集成分类器输出。
2.根据权利要求1所述深度迁移学习的不平衡分类集成方法,其特征在于,步骤(1)中,所述辅助数据集是否与目标任务相关是通过经验判断。
3.根据权利要求1所述深度迁移学习的不平衡分类集成方法,其特征在于,步骤(2)中,所述深度网络模型为栈式降噪自编码器,栈式降噪自编码器的每一个隐含层都是一个降噪自编码器,设置深层网络的激活函数为Sigmoid函数。
4.根据权利要求1所述深度迁移学习的不平衡分类集成方法,其特征在于,所述步骤(3)具体为:
将辅助深度网络的训练过程分为两个阶段,分别是无监督的预训练阶段和有监督的微调阶段:
A、预训练阶段先利用不带标签的数据进行降噪自编码器的训练,并将降噪自编码器中编码层的输出作为下一个自编码器的输入,将训练得到的自编码器中的编码部分依次堆叠得到最终的栈式网络结构,其输出的特征是无监督学习特征;单个自编码器的训练公式如下:
Figure FDA0002512908310000031
其中,x为训练样本,noise为噪声,encoder_layer为编码层,decoder_layer为解码层,Sigmoid为激活函数,W为编码器网络权值参数,b为编码器网络偏移量;W′为解码器网络权值参数;b′为解码器网络偏移量;
B、在栈式网络结构的顶端加上一个分类器,根据样本的类标对整个网络的参数进行调整,此过程为有监督的微调阶段,由此得到的数据特征为监督学习特征。
5.根据权利要求1所述深度迁移学习的不平衡分类集成方法,其特征在于,步骤(5)中,所述集成分类结果由下面的公式计算:
Figure FDA0002512908310000041
其中,
Figure FDA0002512908310000042
表示目标样本经过分类器G后,由分类结果计算得到的类c的auprc值;PG(y|x)表示经过分类器G后y的后验概率。
CN201710480452.8A 2017-06-22 2017-06-22 一种深度迁移学习的不平衡分类集成方法 Active CN107316061B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710480452.8A CN107316061B (zh) 2017-06-22 2017-06-22 一种深度迁移学习的不平衡分类集成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710480452.8A CN107316061B (zh) 2017-06-22 2017-06-22 一种深度迁移学习的不平衡分类集成方法

Publications (2)

Publication Number Publication Date
CN107316061A CN107316061A (zh) 2017-11-03
CN107316061B true CN107316061B (zh) 2020-09-22

Family

ID=60184203

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710480452.8A Active CN107316061B (zh) 2017-06-22 2017-06-22 一种深度迁移学习的不平衡分类集成方法

Country Status (1)

Country Link
CN (1) CN107316061B (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229652B (zh) * 2017-11-28 2021-05-04 北京市商汤科技开发有限公司 神经网络模型迁移方法和系统、电子设备、程序和介质
CN109146917B (zh) * 2017-12-29 2020-07-28 西安电子科技大学 一种弹性更新策略的目标跟踪方法
CN108231201B (zh) * 2018-01-25 2020-12-18 华中科技大学 一种疾病数据分析处理模型的构建方法、系统及应用方法
CN108805160B (zh) * 2018-04-17 2020-03-24 平安科技(深圳)有限公司 迁移学习方法、装置、计算机设备和存储介质
CN108985382B (zh) * 2018-05-25 2022-07-15 清华大学 基于关键数据通路表示的对抗样本检测方法
CN109272332B (zh) * 2018-08-02 2021-06-08 华南理工大学 一种基于递归神经网络的客户流失预测方法
CN109342456B (zh) * 2018-09-14 2021-05-11 广东工业大学 一种焊点缺陷检测方法、装置、设备及可读存储介质
CN109558806B (zh) * 2018-11-07 2021-09-14 北京科技大学 高分遥感图像变化的检测方法
CN109635709B (zh) * 2018-12-06 2022-09-23 中山大学 一种基于显著表情变化区域辅助学习的人脸表情识别方法
CN109682596B (zh) * 2018-12-20 2020-11-13 南京航空航天大学 非均衡样本下高速重载输入级故障诊断方法
CN109711718A (zh) * 2018-12-25 2019-05-03 清华大学 针对乏样本分类的分层迁移学习方法、介质、装置和设备
CN109815332B (zh) * 2019-01-07 2023-06-20 平安科技(深圳)有限公司 损失函数优化方法、装置、计算机设备及存储介质
CN109919209B (zh) * 2019-02-26 2020-06-19 中国人民解放军军事科学院国防科技创新研究院 一种领域自适应深度学习方法及可读存储介质
CN110083719A (zh) * 2019-03-29 2019-08-02 杭州电子科技大学 一种基于深度学习的工业制品病疵检测方法
CN110162475B (zh) * 2019-05-27 2023-04-18 浙江工业大学 一种基于深度迁移的软件缺陷预测方法
CN110490239B (zh) * 2019-08-06 2024-02-27 腾讯医疗健康(深圳)有限公司 图像质控网络的训练方法、质量分类方法、装置及设备
CN110751175A (zh) * 2019-09-12 2020-02-04 上海联影智能医疗科技有限公司 损失函数的优化方法、装置、计算机设备和存储介质
CN111027716A (zh) * 2019-12-03 2020-04-17 新奥数能科技有限公司 一种负荷预测的方法及装置
CN111126396B (zh) * 2019-12-25 2023-08-22 北京科技大学 图像识别方法、装置、计算机设备以及存储介质
CN111429441B (zh) * 2020-03-31 2023-04-04 电子科技大学 一种基于yolov3算法的焊口识别定位方法
CN116508036A (zh) * 2020-10-27 2023-07-28 贝宝公司 使用加权训练数据的机器学习模型的多阶段训练技术
CN112465152B (zh) * 2020-12-03 2022-11-29 中国科学院大学宁波华美医院 一种适用于情绪脑-机接口的在线迁移学习方法
CN112598089B (zh) * 2021-03-04 2021-06-25 腾讯科技(深圳)有限公司 图像样本的筛选方法、装置、设备及介质
CN114295967A (zh) * 2021-07-26 2022-04-08 桂林电子科技大学 一种基于迁移神经网络的模拟电路故障诊断方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102521656A (zh) * 2011-12-29 2012-06-27 北京工商大学 非平衡样本分类的集成迁移学习方法
CN106323636A (zh) * 2016-08-16 2017-01-11 重庆交通大学 栈式稀疏自动编码深度神经网络的机械故障程度特征自适应提取与诊断方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102521656A (zh) * 2011-12-29 2012-06-27 北京工商大学 非平衡样本分类的集成迁移学习方法
CN106323636A (zh) * 2016-08-16 2017-01-11 重庆交通大学 栈式稀疏自动编码深度神经网络的机械故障程度特征自适应提取与诊断方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Deep Learning of Representations for Unsupervised and Transfer Learning;Bengio Y.et al;《Unsupervised and Transfer Learning》;20121231;第17-36页 *
Deep Transfer Learning Ensemble;Kandaswamy C et al.;《International Work-Conference on Artificial Neural Networks》;20160606;第335-348页 *

Also Published As

Publication number Publication date
CN107316061A (zh) 2017-11-03

Similar Documents

Publication Publication Date Title
CN107316061B (zh) 一种深度迁移学习的不平衡分类集成方法
CN110211097B (zh) 一种基于Faster R-CNN参数迁移的裂缝图像检测方法
CN107506799B (zh) 一种基于深度神经网络的开集类别发掘与扩展方法与装置
CN111860236B (zh) 一种基于迁移学习的小样本遥感目标检测方法及系统
CN109949317A (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN110929679B (zh) 一种基于gan的无监督自适应行人重识别方法
CN107392919B (zh) 基于自适应遗传算法的灰度阈值获取方法、图像分割方法
CN113505792B (zh) 面向非均衡遥感图像的多尺度语义分割方法及模型
CN113807420A (zh) 一种考虑类别语义匹配的域自适应目标检测方法及系统
CN109741341A (zh) 一种基于超像素和长短时记忆网络的图像分割方法
CN111161244B (zh) 基于FCN+FC-WXGBoost的工业产品表面缺陷检测方法
CN112861616A (zh) 一种无源领域自适应目标检测方法
CN114612721A (zh) 基于多层次自适应特征融合类增量学习的图像分类方法
CN112819063B (zh) 一种基于改进的Focal损失函数的图像识别方法
CN114387473A (zh) 一种基于基类样本特征合成的小样本图像分类方法
CN111239137B (zh) 基于迁移学习与自适应深度卷积神经网络的谷物质量检测方法
WO2015146113A1 (ja) 識別辞書学習システム、識別辞書学習方法および記録媒体
CN116452862A (zh) 基于领域泛化学习的图像分类方法
CN113989256A (zh) 遥感图像建筑物的检测模型优化方法及检测方法、装置
CN110349119B (zh) 基于边缘检测神经网络的路面病害检测方法和装置
CN107480718A (zh) 一种基于视觉词袋模型的高分辨率遥感图像分类方法
CN113869463B (zh) 一种基于交叉增强匹配的长尾噪声学习方法
CN115115908A (zh) 跨域目标检测模型训练方法、目标检测方法及存储介质
CN116129215A (zh) 一种基于深度学习的长尾目标检测方法
CN113688867B (zh) 一种跨域图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant